Avalia¸c˜
ao e Desempenho
MAB-515, DCC/UFRJ
Apostila
Paulo Aguiar, DCC/IM
Conte´
udo
1 Motiva¸c˜ao 6
2 Revis˜ao de An´alise Combinat´oria 10
3 Aloca¸c˜ao de bolas em urnas 14
4 Teoria de Probabilidade 15
5 Eventos igualmente prov´aveis 18
6 Probabilidade Condicional 21
7 Problemas de Aplica¸c˜ao 23
8 Aplica¸c˜ao: Confiabilidade (”Reliability”) 26
9 Experimentos de Bernoulli 28
10 Vari´aveis Aleat´orias 29
10.1 Vari´avel Discreta . . . 30
10.2 Fun¸c˜ao Distribui¸c˜ao . . . 32
10.3 Fun¸c˜oes Singulares . . . 32
10.4 Vari´avel Aleat´oria Cont´ınua . . . 33
10.5 Propriedade da Falta de Mem´oria . . . 35
10.6 Rela¸c˜ao entre Distribui¸c˜ao Exponencial e Processo Poisson . . . 36
10.7 Vari´avel Aleat´oria Mista . . . 37
11 Fun¸c˜oes de Vari´aveis Aleat´orias 39 11.1 Metodologia . . . 40
11.2 Gera¸c˜ao de Distribui¸c˜oes . . . 41
13 Propriedades de Vari´aveis Aleat´orias 49
13.1 M´edia, Esperan¸ca ou Valor Esperado . . . 49
13.2 Momentos . . . 51
13.3 Esperan¸ca Condicional . . . 57
13.4 Variˆancia Condicional . . . 58
14 Transformadas 60 14.1 Transformada de Laplace Unilateral para Fun¸c˜oes Cont´ınuas . . . 60
14.1.1 Analiticidade . . . 63
14.1.2 Propriedades da Transformada de Laplace . . . 65
14.1.3 Alguns Pares de Transformadas de Laplace . . . 67
14.2 Transformada Z para Fun¸c˜oes Discretas . . . 68
14.2.1 Analiticidade da Transformada Z dentro do c´ırculo unit´ario . . . 73
14.2.2 Propriedades da Transformada Z . . . 74 14.2.3 Pares de Transformadas Z . . . 75 15 Teoria de Filas 76 15.1 Introdu¸c˜ao . . . 76 15.2 A fila M/M/1 . . . 77 15.3 A fila M/G/1 . . . 81
15.3.1 A Vida Residual do Servi¸co . . . 81
15.3.2 A M´edia do Per´ıodo Ocupado . . . 83
15.3.3 A Transformada de Laplace da pdf do Per´ıodo Ocupado . . . 84
15.3.4 A transformada Z do n´umero presente na fila M/G/1 . . . 85
15.3.5 A transformada de Laplace do tempo gasto na fila M/G/1 FCFS . . . 87
15.4 A Fila M/G/1 com F´erias . . . 88
15.4.1 O Per´ıodo Ocioso na Fila M/G/1 com f´erias . . . 89
15.4.2 O Per´ıodo Ocupado na Fila M/G/1 com F´erias . . . 91
15.4.4 A transformada de Laplace do tempo gasto na fila M/G/1 com f´erias
FCFS . . . 93
15.5 Fila M/G/1 com disciplina LCFS sem interrup¸c˜ao de servi¸co . . . 94
15.6 M/G/1 com Disciplina LCFS com interrup¸c˜ao de servi¸co e continuidade . . . 95
15.7 M/G/1 com disciplina LCFS com interrup¸c˜ao de servi¸co sem continuidade . 96 15.8 Sistema de Filas com Classes de Usu´arios . . . 98
15.9 Lei da Conserva¸c˜ao . . . 103
15.10Redes de Filas M/M/1 . . . 104
15.10.1 Fila M/M/1 com realimenta¸c˜ao de Bernoulli . . . 106
15.10.2 Gargalos em Redes de Filas . . . 110
15.10.3 Rede BCMP . . . 110
16 Desigualdades e Limites 112 16.1 Normaliza¸c˜ao . . . 112
16.2 Fun¸c˜ao de Gauss ou Distribui¸c˜ao Normal . . . 114
16.3 Teorema do Limite Central . . . 114
16.4 Aproximando Distribui¸c˜oes . . . 117 16.5 Percentil . . . 118 16.6 Estimadores . . . 118 16.6.1 Estimando a M´edia . . . 118 16.6.2 Estimando a Variˆancia . . . 119 16.7 Intervalo de Confian¸ca . . . 120
16.7.1 Intervalo de Confian¸ca para a M´edia de uma Popula¸c˜ao com Variˆancia Desconhecida . . . 120
16.7.2 Intervalo de Confian¸ca para a M´edia de uma Popula¸c˜ao com Variˆancia Conhecida . . . 122
16.7.3 Distribui¸c˜ao χ2 (chi-square) . . . 122
16.7.4 Intervalo de Confian¸ca para a Variˆancia de uma Popula¸c˜ao Normal com M´edia Desconhecida . . . 122
16.7.6 Intervalo de Confian¸ca para Propor¸c˜oes . . . 125
16.7.7 Compara¸c˜ao de Alternativas . . . 127
17 Simula¸c˜ao 129 17.1 Gera¸c˜ao de N´umeros (Pseudo) Aleat´orios . . . 129
17.2 Simula¸c˜ao de M/M/1 . . . 131
17.3 Medidas de Desempenho . . . 134
17.4 C´alculo das Estat´ısticas . . . 135
17.5 Depura¸c˜ao do Modelo Simulado . . . 135
17.6 M´etodo de An´alise de Resultado . . . 136
17.7 Da Escolha das Sementes . . . 137
18 Cadeia de Markov em Tempo Discreto 139 18.1 Classifica¸c˜ao dos Estados . . . 140
18.2 Teoremas . . . 143
18.3 Tempo m´edio para ir de um estado a outro . . . 146
18.4 Espa¸co de Estados Infinito . . . 147
19 Cadeia de Markov em Tempo Cont´ınuo 154 19.1 CMTC Homogˆenea . . . 156
19.2 Processo Nascimento e Morte (Birth-Death Processes) . . . 157
19.3 Processo de Nascimento Puro com taxa constante . . . 160
19.4 Solu¸c˜ao de CMTC em Equil´ıbrio . . . 161
19.5 Tempo m´edio entre retornos a um estado . . . 162
1
Motiva¸c˜
ao
Experimento 1: Duas pessoas, A e B, lan¸cam, a cada vez, uma moeda ao ar. Ganha o jogo quem tira CARA primeiro. Suponhamos que A inicia o jogo. Assuma:
• Probabilidade de dar CARA = P{CARA} = p, 0 < p < 1 • Probabilidade de dar COROA = P{COROA} = 1 − p
Pergunta: Seria razo´avel ter p = 1 ou p = 0? O que significaria? Queremos obter:
P{ pessoa A ganhar o jogo } = PA
= P{ quem come¸ca ganha} = Pinicia
Solu¸c˜ao pelo m´etodo da enumera¸c˜ao de todas as possibilidades:
Evento Probabilidade Explica¸c˜ao
A ganha na jogada 1 p
A ganha na jogada 3 (1 − p)2p A perde, B perde e A ganha
A ganha na jogada 5 (1 − p)4p
A ganha na jogada 7 (1 − p)6p
· · · ·
PA = Pinicia P∞n=0(1 − p)2np = 1/(2 − p)
Recorda¸c˜ao: S´erie Geom´etrica
∞ X n=0 qn = 1 + q + q2+ · · · = 1 + q(1 + q + q2+ · · · ) = 1 + q ∞ X n=0 qn e ent˜ao P∞ n=0qn= 1/(1 − q). OBS.: P∞
n=0qn tem que convergir e portanto 0 < q < 1.
Em geral, an= a0qn−1 e P∞n=0an = 1−qa0 .
Tamb´em, Sn=Pni=1ai = a01−q−anq, onde an = aoqn−1.
0
Solu¸c˜ao recursiva:
Se A n˜ao ganhar na primeira jogada, a partir da segunda jogada seria como se B estivesse iniciando o jogo naquele momento e a probabilidade de B ganhar seria igual a Pinicia = PA.
Vamos montar o pensamento recursivo, condicionando na ocorrˆencia do resultado da primeira jogada. A t´ecnica de condicionamento ´e muito importante na solu¸c˜ao de problemas complexos.
Podemos ent˜ao escrever:
PA = P{A ganhar e deu cara na jogada 1} + P{A ganhar e deu coroa na jogada 1}
= P{ A ganhar | deu cara na jogada 1}× P{deu cara na jogada 1} + P{ A ganhar | deu coroa na jogada 1} × P{deu coroa na jogada 1} = 1 × p + (1 − p)× P{ B n˜ao ganha o jogo a partir da jogada 2} = p + (1 − p)(1−P{B ganha o jogo a partir da jogada 2})
= p + (1 − p)(1 − Pinicia)
= p + (1 − p)(1 − PA), e ent˜ao, PA= 1/(2 − p)
Conceito: probabilisticamente o jogo se repete ap´os o resultado de uma coroa, e tudo acontece como se o pr´oximo jogador estivesse iniciando o jogo novamente.
*
Experimento 2: lance uma moeda trˆes vezes. Seja X o n´umero de caras obtido e Y o n´umero de coroas obtido.
Eventos b´asicos: {coroa,cara}
Espa¸co de amostragem do experimento :
{(cara,cara,cara), (cara,cara,coroa), · · · , (coroa,coroa,coroa)}
Total de amostras = 23 = 8. Suponha uma moeda honesta, P {cara} = P {coroa} = 1/2.
espa¸co amostral prob X Y evento X < Y jogada 1 jogada 2 jogada 3
cara cara cara 1/8 3 0
cara cara coroa 1/8 2 1
cara coroa cara 1/8 2 1
cara coroa coroa 1/8 1 2 x
coroa cara cara 1/8 2 1
coroa cara coroa 1/8 1 2 x
coroa coroa cara 1/8 1 2 x
coroa coroa coroa 1/8 0 3 x
Comprove que:
P {Y = 0} = 1/8, P {Y = 1} = 3/8, P {Y = 2} = 3/8, P {Y = 3} = 1/8.
Vamos analisar o significado do condicionamento. Vamos calcular P {Y = n|X < Y }, para os valores poss´ıveis de n. Pela tabela acima, os eventos que garantem X < Y est˜ao
Fila de requisi¸c˜oes M´odulos de Mem´oria ---+----+---+----+----| rn+1 ---+----+---+----+----| rn ---+----+---+----+----| ... ---+----+---+----+----| r2 ---+----+---+----+----| r1 ---+----+---+----+----| ---+----+---+----+---- -->| 0 |---> | | | --- / ---| | ---> | S |-- ---| ---> | C |--->| 1 |---> | . | A | ---| . | N |-- ... | . | N | \ ---> | E | -->|n-1| | R |
---Figura 1 - Arquitetura da Mem´oria
marcados com x.
Observe que dos 8 eventos poss´ıveis, apenas 4 satisfazem a condi¸c˜ao X < Y . Isto significa que o espa¸co amostral ficou reduzido a 4 amostras, igualmente prov´aveis. Dentro deste novo espa¸co amostral, cada uma destas amostras tem probabilidade 1/4.
P {Y = n|X < Y } = 0 , n=0
= 0 , n=1
= 3/4 , n=2 = 1/4 , n=3
Observe que P {Y = n|Y > 2} = 0 n = 0, 1, 21 n = 3 . Neste caso s´o um ponto amostral ocorre e nele Y = 3.
*
Aplica¸c˜ao: avalia¸c˜ao de desempenho de mem´orias entrela¸cadas Seja considerada a arquitetura de mem´oria mostrada na Figura 1. < endere¸co de mem´oria > = < # do m´odulo >< palavra > As requisi¸c˜oes ri∈ {0, 1, · · · , n − 1}.
A fila de requisi¸c˜oes ´e analisada no ciclo anterior. M´odulos s˜ao alocados at´e que a requisi¸c˜ao a um m´odulo j´a ocupado ocorra. Um m´aximo de n requisi¸c˜oes ´e analisado por vez.
Seja k = n´umero de m´odulos alocados por ciclo, com pmf ( probability mass function -fun¸c˜ao de massa de probabilidade, pois a distribui¸c˜ao ´e discreta) P (k), k = 1, 2, · · · , n.
Bn =Pnk=1kP (k) △
= banda de passagem m´edia da mem´oria, B − n ≤ n. M ciclos de processador por ciclo de mem´oria tal que M ≤ n.
Suposi¸c˜ao: P (ri = j) = 1/n, ∀j. Os ri s˜ao i.i.d. (independentes e identicamente
distribu´ıdos).
Forma de escolher Possibilidades
2a. req. diferente da 1a. n−1 n
3a. 6= 2a. 6= 1a. n−2n
4a. 6= 3a. 6= 2a. 6= 1a. n−3n
.. . ... k 6= = anteriores n−k+1n k + 1 = um dos k anteriores k n Ent˜ao: P (k) = (n − 1)(n − 2) · · · (n − k + 1) nk−1 k n = k(n − 1)(n − 2) · · · (n − k + 1) nk Bn = n X k=1 kP (k) ≈ n0,56, 1 ≤ n ≤ 45.
Neste modelo, instru¸c˜oes e dados s˜ao tratados igualmente.
2
Revis˜
ao de An´
alise Combinat´
oria
Motiva¸c˜ao: C´alculo do N´umero de Placas com trˆes letras e quatro n´umeros LLLNNNN
Quantas placas com 7 identificadores s˜ao poss´ıveis, se as 3 primeiras posi¸c˜oes s˜ao letras e as outras 4 s˜ao n´umeros?
Assuma: alfabeto com 26 letras.
Resposta: 26.26.26.10.10.10.10 = 175.760.000 E se letras nem n´umeros podem ser repetidos? Resposta: 26.25.24.10.9.8.7 = 78.624.000
*
Princ´ıpio B´asico de Contagem
Se r experimentos s˜ao realizados nos quais o primeiro pode ter n1 resultados diferentes, e
para cada um desses n1resultados podemos ter n2 resultados do segundo experimento, e para
cada um desses poss´ıveis resultados dos 2 primeiros experimentos h´a n3 poss´ıveis resultados
do terceiro experimento e assim sucessivamente, o n´umero total de resultados poss´ıveis dos r experimentos ´e n1× n2 × · · · × nr.
*
Permuta¸c˜ao
Permuta¸c˜ao ´e um arranjo ordenado.
Dado o conjunto {a,b,c}, quantas permuta¸c˜oes de 3 letras s˜ao poss´ıveis? abc bac cab
acb bca cba
Use o princ´ıpio b´asico de contagem:
3 × 2 × 1 = 6 resultados poss´ıveis Para n posi¸c˜oes: n(n − 1)(n − 2) · · · 2.1 = n!
*
0
Aplica¸c˜ao
Temos 10 livros: 4 de matem´atica, 3 de qu´ımica, 2 de hist´oria e 1 de l´ınguas. Quantos arranjos s˜ao poss´ıveis, considerando que livros do mesmo t´opico ficam juntos na prateleira?
Resposta: mat. qu´ımica hist. l´ınguas
4! 3! 2! 1!
Arranjo dos t´opicos: 4!
Total: 4! x(4! x 3! x 2! x 1!) = 6912.
*
Permuta¸c˜ao com elementos repetidos
Quantas s˜ao as permuta¸c˜oes poss´ıveis da palavra P EP P ER?
Assumindo todas as letras diferentes, P1E1P2P3E2R, temos 6! permuta¸c˜oes.
Quando os P s n˜ao s˜ao distintos: 3! das permuta¸c˜oes acima s˜ao idˆenticas. P1E1P2P3E2R P1E1P3P2E2R P2E1P1P3E2R P2E1P3P1E2R P3E1P1P2E2R P3E1P2P1E2R
Se os Es n˜ao s˜ao distintos: 2! permuta¸c˜oes idˆenticas podem ser conseguidas a partir de cada uma das acima.
Ent˜ao, 3!2!6! permuta¸c˜oes s˜ao poss´ıveis. Generalizando:
Existem n1
n1!n2!···nr! permuta¸c˜oes de n objetos, onde n1 s˜ao idˆenticos, n2 s˜ao idˆenticos, etc.,
e n = n1+ n2+ · · · + nr.
Exemplo: Quantos sinais diferentes podem ser conseguidos com 9 bandeiras de igual formato, sendo 4 brancas, 3 vermelhas e 2 azuis?
Resposta: 4!3!2!9! .
Combina¸c˜oes
Dados n objetos, de quantas maneiras posso escolher r objetos? Exemplo: n=5, conjunto {A,B,C,D,E}, e r=3.
Se a ordem ´e relevante, ou seja, ABC diferente de CBA, ent˜ao:
5 × 4 × 3 = 60 arranjos poss´ıveis
Se a ordem n˜ao ´e relevante, ent˜ao cada uma das 3! permuta¸c˜oes s˜ao idˆenticas para cada grupo de 3 letras.
Ent˜ao: 5.4.33! = 10 = 5 3
.
As combina¸c˜oes poss´ıveis de cinco elementos trˆes a trˆes s˜ao mostradas abaixo: ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE
5 3 = 5! 3!2! Em geral: n r = n n−r = n! r!(n−r)!, r ≤ n Conven¸c˜ao: n0 = 1, 0! = 1.
Exemplo: Sistema de cobran¸ca de ped´agio com 5 postos. Existem 5 cobradores, dos quais 2 s˜ao surdos e 3 s˜ao saud´aveis. Quantas s˜ao as ordena¸c˜oes em que duas pessoas surdas n˜ao s˜ao vizinhas?
B = cobrador que ouve bem S = cobrador surdo
Enumerando todas as possibilidades:
BBSBS BSBSB BSBBS SBSBB SBBSB SBBBS
Solu¸c˜ao:
Fixe os que ouvem bem : B B B
Preencha os surdos `a vontade nos espa¸cos, ou seja, escolha 2 espa¸cos dentre 4. Resposta: 42.
No caso geral de n cobradores saud´aveis e m surdos a resposta seria n+1m , com m ≤ n+1.
Identidade Combinatorial n r =n − 1 r − 1 +n − 1 r , 1 ≤ r ≤ n
onde convenciona-se que k+1k = 0, ∀k ≥ 0. * Teorema Binomial (x + y)n= n X k=0 n k xkyn−k
Aplica¸c˜ao: Quantos subconjuntos de um conjunto de n elementos podem ser formados?
n X k=0 n k = (1 + 1)n= 2n.
Destes subconjuntos, 2n− 1 cont´em pelo menos 1 elemento.
*
Express˜ao Multinomial
De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr
tal que n =Pr i=1ni? Resposta: nn1 n−n1 n2 n−n1−n2 n3 · · · n−Pr−1 i=1ni nr = n! n1!n2!···nr!
3
Aloca¸c˜
ao de bolas em urnas
Problema 1: Dadas n bolas e r urnas, de quantas maneiras podemos alocar as bolas nas urnas, sendo admitido que urnas fiquem vazias?
Solu¸c˜ao: Assuma 5 bolas (n = 5) e 3 urnas (r = 3). Represente o conte´udo das urnas pelo n´umero de bolas em cada urna e separe por v´ırgula estes n´umeros. Assim, uma aloca¸c˜ao de 3 bolas na primeira urna, 1 bola na segunda urna e 1 bola na terceira urna seria representada por <000,0,0>. Ent˜ao a solu¸c˜ao do problema pode ser colocada como:
, ,
- -
-Escolha dois tra¸cos dentre os 7 tra¸cos para posicionar as v´ırgulas, ou seja 72 maneiras. Em geral escolha (r − 1) tra¸cos dentre os (n + r − 1)tra¸cos, ou seja n+r−1r−1 = n+r−1
n maneiras.
*
Problema 2: Assumindo que n ≥ r, de quantas forma podemos alocar as bolas nas urnas sendo que cada urna contenha pelo menos uma bola?
Solu¸c˜ao: Ap´os alocarmos r bolas para garantir a aloca¸c˜ao m´ınima de 1 bola por urna, sobram (n − r) para serem distribu´ıdas como no problema 1. Portanto, n−r+r−1r−1 = n−1
r−1
maneiras.
Pelos resultados anteriores, assumindo que xi seja o conte´udo da i-´esima urna, com
Pi=r
i=1xi = N, existem n+r−1n vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr =
N e xi ≥ 0, e existem n−1r−1
vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr =
N e xi > 0.
*
Aplica¸c˜ao: Capital para investimento $20. Investimento m´ınimo $1. Existem 4 oportuni-dades de investimento.
Pergunta: De quantas formas posso investir? x1+ x2+ x3 + x4 = 20, xi ≥ 0.
23
3 = 1771 maneiras, se todo o dinheiro necessita ser investido.
Se x5 representa a parte n˜ao investida ent˜ao:
x1+ x2+ x3 + x4+ x5 = 20, xi ≥ 0 244 = 10.626 possibilidades.
0
4
Teoria de Probabilidade
A teoria de probabilidade est´a baseada na observa¸c˜ao de que uma cole¸c˜ao grande de fatos aleat´orios gera regularidade estat´ıstica.
Modelo
• Espa¸co de Amostragem S = cole¸c˜ao de todos os eventos b´asicos exaustivos e exclusivos de um experimento. Os eventos b´asicos s˜ao chamados pontos do espa¸co S.
Exemplos:
– Experimento: lan¸car uma moeda. S= { cara, coroa } = { H,T }.
– Experimento: lan¸car uma moeda 2 vezes. S = { (H,T), (H,H), (T,H), (T,T) }.
– Experimento: tirar uma bola no escuro de uma urna contendo 3 bolas: preta, vermelha, e branca.
S = { p, v, b }. • Fam´ılia de Eventos E.
E ´e um conjunto de pontos de amostragem, satisfazendo determinada propriedade. Cor-responde a uma classe ou resultado no mundo real.
Exemplo:
Dado o experimento: lan¸car uma moeda 2 vezes.
Evento E = pelo menos uma cara ocorre = { (H,T),(T,H),(H,H) }.
Se qualquer um dos eventos b´asicos acima acontece, ent˜ao o evento E acontece. Evento F = pelo menos uma coroa ocorre = { (H,T),(T,H),(T,T) }.
Interse¸c˜ao de E e F = EF = {(H,T),(T,H) } = pelo menos uma cara e uma coroa. Diagramas de Venn
Leis de DeMorgan (Sn
i=1Ei)C = Tni=1EiC , ou seja, se um ponto n˜ao pertence a nenhum dos eventos Ei,
ent˜ao ele tem que pertencer `a interse¸c˜ao dos complementos destes eventos. (Tn
i=1Ei) C
=Sn
i=1EiC se um ponto n˜ao pertence `a interse¸c˜ao dos eventos Ei, ent˜ao ele
pertence a um dos complementos EC i .
***
Axiomas
1. ∀ evento E, 0 ≤ P (E) ≤ 1. 2. P (S) = 1.
3. Se E1e E2s˜ao eventos mutuamente exclusivos E1T E2 = Φ (”disjoint”) ent˜ao P (E1S E2) =
P (E1) + P (E2).
***
Defini¸c˜ao
{E1, E2, · · · , En} ´e um conjunto exaustivo de eventos se E1S E2S · · · S En= S.
O conjunto {Ei} ´e mutuamente exclusivo se EiT Ej = Φ para todo i 6= j.
Propriedades
ES EC = S, ET EC = Φ, EΦ = Φ, ES S = S, E S Φ = E,
SC = Φ, ΦC = S, ET S = E.
*
Parti¸c˜ao
{Ei} ´e uma parti¸c˜ao de S se e somente se {Ei} ´e exaustivo e mutuamente exclusivo.
Proposi¸c˜oes
1. P (EC) = 1 − P (E).
Demo: 1 = P (S) = P (ES EC) = P (E) + P (EC).
2. Se E ⊂ F , ent˜ao P (E) ≤ P (F ).
Demo: Se E ⊂ F , ent˜ao F = ES ECF . Sendo E e ECF mutuamente exclusivos,
pelo axioma 3 temos P (F ) = P (E) + P (ECF ), o que comprova o resultado pois
3. P (ES F ) = P (E) + P (F ) − P (EF ) Demo: Fa¸ca como exerc´ıcio.
Para trˆes elementos temos:
P(A S B S C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC). Para quatro elementos temos:
P(A S B S C S D) = P(A) + P(B) + P(C) + P(D) P(AB) P(AC) P(AD) -P(BC) - P(BD) - P(CD) + P(ABC) + P(ABD) + P(BCD) - P(ABCD).
Generalizando: P (E1 [ E2 [ · · ·[En) = n X i=1 P (Ei) − X i1<i2 P (Ei1Ei2) + · · · (−1)r+1 X i1<i2<···ir P (Ei1Ei2· · · Eir) + · · · (−1)n+1P (E1E2· · · En). A somaP
i1<i2<···<irP (Ei1Ei2· · · Eir) ´e feita sobre os
n
r poss´ıveis conjuntos de
5
Eventos igualmente prov´
aveis
Problema 1: Se duas bolas s˜ao retiradas aleatoriamente de uma urna contendo 6 bolas brancas e 5 pretas, qual ´e a probabilidade de que uma das bolas seja branca e a outra seja preta?
Solu¸c˜ao 1: Assuma cada bola marcada individualmente. Total de resultados poss´ıveis = 11 x 10 = 110 possibilidades. Maneiras em que a 1a bola ´e branca e a 2a ´e preta = 6 x 5 = 30.
Maneiras em que a 1a bola ´e preta e a 2a ´e branca = 5 x 6 = 30.
Probabilidade = # de eventos satisfazendo condi¸c˜ao# total de eventos = 11060 = 116.
Solu¸c˜ao 2: Assuma que a ordem ´e irrelevante. Total de resultados poss´ıveis = 112 = 55.
Resultados com uma bola preta e uma branca = 61 5
1 = 30.
Probabilidade = 3055 = 116.
*
Problema 2: Assuma um jogo de poquer jogado com 52 cartas. Qual a probabilidade de se receber uma sequˆencia (as cartas em sequˆencia e n˜ao todas do mesmo naipe)?
Solu¸c˜ao: Suponha a m˜ao: A, 2, 3, 4 e 5.
Cada carta pode ser de um dos 4 naipes. Existem portanto 45 possibilidades, e destas 4
s˜ao com cartas do mesmo naipe (”flush”).
Portanto temos (45− 4) sequˆencias do tipo (A 2 3 4 5), que n¨ao s˜ao ”flush”.
De quantas maneiras podemos organizar sequˆencias ? Resposta: 10 maneiras. (A 2 3 4 5), (2 3 4 5 6), · · · , (10 J Q K A)
Total de combina¸c˜oes de 5 cartas = 525 Probabilidade da sequˆencia = 10(45−4)
(52
5) ≈ 0, 0039
*
Problema 3: ”Full House”= (par + trinca ). Qual a probabilidade do ”full house”? Solu¸c˜ao: PPTTT 42 4
3 possibilidades na escolha dos naipes.
Possibilidades de se escolher a trinca depois de escolhido o par = 12 Probabilidade = 12.13.( 4 2).( 4 3) (52 5) ≈ 0, 0014 ***
Aplica¸c˜ao: Suponha que N homens lancem seus chap´eus no centro de uma sala. Os chap´eus s˜ao misturados e ent˜ao cada homem seleciona um chap´eu aleatoriamente.
Qual ´e a probabilidade de que nenhum homem selecione seu pr´oprio chap´eu? Se N → ∞ para que valor deve convergir a probabilidade?
Solu¸c˜ao: Seja Ei = evento de que o i-´esimo homem seleciona seu pr´oprio chap´eu.
P ( N [ i=1 Ei) = n X i=1 P (Ei) − X i1<i2 P (Ei1Ei2) + · · · (−1)n+1 X i1<i2<···in P (Ei1Ei2· · · Ein) + · · · (−1)N +1P (E1E2· · · EN)
= prob. de pelo menos 1 pessoa apanhar seu pr´oprio chap´eu.
Seja i1 o n´umero do chap´eu escolhido pelo homem H1. Se i1 = 1, ent˜ao H1 escolheu
seu pr´oprio chap´eu. Em geral, a amostra do experimento pode ser expressa pela n-tupla (i1, i2, · · · , in), onde ii ´e o chap´eu escolhido pelo homem Hi. O total de amostras ´e N!.
Uma amostra (1, 2, 3, · · · , N) indica que cada homem seleciona o seu pr´oprio chap´eu. Seja (Ei1Ei2· · · Ein) o evento em que cada um dos n homens i1, i2, · · · , in seleciona o seu
pr´oprio chap´eu. Observe que nada ´e assumido quanto aos outros homens. Dos (N − n) que sobraram, o primeiro pode escolher o chap´eu de (N −n) maneiras. O segundo de (N −n−1) e assim sucessivamente. As possibilidades s˜ao (N − n)!.
P (Ei1Ei2· · · Ein) = (N −n)!N ! .
H´a Nn termos em Pi1<i2<···<inP (Ei1Ei2, · · · Ein), ent˜ao
P i1<i2<···<inP (Ei1Ei2· · · Ein) = N n (N −n)! N ! = 1 n!, e ent˜ao P (SN i=1Ei) = 1 − 2!1 +3!1 − · · · + (−1)N +1 1N !.
Portanto a probabilidade de nenhum homem selecionar seu pr´oprio chap´eu ´e
1 2! −
1
3!+ · · · + (−1)N 1N !. Esta probabilidade tende para 1
e = 0, 36755 com N → ∞.
O problema dos Pontos: Tentativas independentes resultam em sucesso com probabili-dade p e fracasso com probabiliprobabili-dade 1 − p. Qual a probabiliprobabili-dade de que n sucessos ocorram antes de m fracassos?
Solu¸c˜ao (Fermat): Pn,m= prob. de n sucessos antes de m fracassos.
Pn,m = pPn−1,m+ (1 − p)Pn,m−1, n ≥ 1, m ≥ 1, com as condi¸c˜oes de contorno P0,m = 1
e Pn,0= 0.
Solu¸c˜ao (Pascal): Para que n sucessos ocorram antes de m fracassos ´e necess´ario e sufi-ciente que pelo menos n sucessos ocorram em n + m − 1 tentativas.
P (k sucessos em n + m − 1 tentativas ) = n+m−1k p
k(1 − p)n+m−1−k, e ent˜ao
Pn,m =Pn+m−1k=n n+m−1k pk(1 − p)n+m−1−k.
Associa¸c˜ao: A e B jogam um jogo em que A ganha 1 ponto quando um sucesso ocorre e B ganha um ponto quando um fracasso ocorre. A probabilidade desejada ´e a probabilidade de que A ganharia, se ao interromper o jogo, A necessitasse de n e B necessitasse de m pontos para ganhar.
Suponha que cada jogador coloca R$ C e cada um tem chance de ganhar de 1/2 = p. Se n pontos s˜ao necess´arios ao vencedor e o jogador A tem 1 ponto e B nenhum, ent˜ao, sendo o jogo interrompido nesta situa¸c˜ao, A tem o direito a 2CPn−1,n = 2CP2n−2
k=n−1 2n−2k ( 1 2)2n−2.
Mostre que o resultado acima ´e igual a C1 + (1/2)2n−2 2n−2 n−1 .
Explica¸c˜ao do Racioc´ınio de Pascal
Suponha 2 sucessos antes de 3 falhas. Analisamos as n + m − 1 = 4 primeiras tentativas no nosso experimento.
Porque?
Enumere todas as possibilidades, que constituem os eventos b´asicos de nosso espa¸co amostral: ffff,sfff,fsff,ssff,ffsf,sfsf,fssf,sssf,fffs,sffs,fsfs,ssfs,ffss,sfss,fsss,ssss.
Observe que analisando o resultado de 4 tentativas englobamos todos os eventos b´asicos que satisfazem o evento 2 sucessos antes de 3 falhas. Se analis´assemos apenas 3 tentativas isto n˜ao seria mais verdade, pois ter´ıamos por exemplo o evento b´asico ffs e ficar´ıamos na indecis˜ao do que ocorreria na quarta tentativa.
N´umero de sequˆencias com k=2 sucessos = 42 = 6 com prob. associada de p2(1 − p)2;
N´umero de sequˆencias com k=3 sucessos = 43 = 4 com prob. associada de p3(1 − p);
N´umero de sequˆencias com k=4 sucessos = 44 = 1 com prob. associada de p4(1 − p)0.
6
Probabilidade Condicional
Defini¸c˜ao: P (A|B) = P (AP (B)T B) = P (AB)P (B) , onde P (B) 6= 0.
O condicionamento `a ocorrˆencia do evento B restringe o espa¸co de amostragem aos pontos que satisfazem B. A divis˜ao por P (B) normaliza a medida.
*
Defini¸c˜ao: eventos estatisticamente independentes.
P (AB) = P (A)P (B) =⇒ P (A/B) = P (A), ou seja o conhecimento da ocorrˆencia de B n˜ao afeta a probabilidade do evento A.
*
Teorema da Probabilidade Total
Assuma que {Ai} ´e uma parti¸c˜ao. Ent˜ao P (B) =Pni=1P (AiB). Aplicando o conceito de
probabilidade condicional vem: P (B) =Pn
i=1P (B|Ai)P (Ai).
A probabilidade P (Ai) pode ser conhecida e a probabilidade P (B|Ai) pode ser mais f´acil
de ser calculada.
*
Teorema de Bayes: P (Ai|B) = PnP (B|Ai)P (Ai)
j=1P (B|Aj)P (Aj) =
P (AiB)
P (B) .
*
Aplica¸c˜ao: Dois carteadores gˆemeos jogam em um mesmo cassino, sendo que um deles ´e honesto e o outro desonesto. Suponha que voce jogou com um deles aleatoriamente e perdeu. Qual a probabilidade de que tenha jogado com o carteador desonesto?
DH = evento de jogar com o carteador honesto;
DD = evento de jogar com o carteador desonesto;
L = evento de perder; W = evento de ganhar.
P (L|DH) = 1/2; P (L|DD) = p, p > 1/2.
Quero calcular P (DD|L) = P(ter escolhido o desonesto | perdi).
P (DD|L) = P (L|DD)P (DP (L|DD)+P (L|DD)P (DD)H)P (DH) = p.1/2+1/2.1/2p.1/2 = 2p+12p .
Se p = 1, ou seja, o carteador ´e totalmente desonesto, ent˜ao P (DD|L) = 2/3. Porque?
7
Problemas de Aplica¸c˜
ao
O problema da ru´ına do jogador (resolvido por Bernoulli e publicado 8 anos ap´os sua morte em 1713)
Dois jogadores A e B apostam no resultado do lan¸camento de uma moeda. Com proba-bilidade p d´a cara e A ganha 1 de B. Com probaproba-bilidade 1 − p = q d´a coroa e B ganha 1 de A. O jogo termina, quando um dos jogadores est´a falido, e o outro tem todo o capital N.
Qual a probabilidade de A ganhar o jogo, quando ele inicia com i de capital e B com N − i de capital?
Seja Ei o evento em que A fica com todo o dinheiro, quando ele inicia com i e B com
N − i. O capital total ´e de N.
Condicionando no resultado do primeiro lan¸camento, obtemos: Pi = P (Ei) = P (Ei|H)P (H) + P (Ei|Hc)P (Hc)
= pP (Ei|H) + (1 − p)P (Ei|Hc)
= pP (Ei|H) + qP (Ei|Hc)
Observe que se no primeiro lan¸camento a moeda der cara, a situa¸c˜ao ap´os este lan¸camento ser´a A com i + 1 e B com N − (i + 1). Assim,
P (Ei|H) = Pi+1
P (Ei|Hc) = Pi−1, e ent˜ao
Pi = pPi+1+ qPi−1, i = 1, 2, · · · , N − 1
Resolu¸c˜ao da equa¸c˜ao
As condi¸c˜oes de contorno s˜ao P0 = 0 (se o capital inicial de A ´e zero, ent˜ao B j´a est´a com
todo o dinheiro, e o jogo termina instantaneamente) e PN = 1 (se o capital de B ´e zero e o
de A ´e N, ent˜ao A inicialmente est´a com todo o dinheiro, e o jogo termina instantaneamente com A vencedor).
Podemos reescrever a equa¸c˜ao como:
pPi+ qPi = pPi+1+ qPi−1, ou Pi+1− Pi = qp(Pi− Pi−1), i = 1, 2, · · · , N − 1.
0
Desenvolvendo: P2− P1 = q p(P1− P0) = q pP1 P3− P2 = q p(P2− P1) = q p 2 P1 .. . Pi− Pi−1 = q p(Pi−1− Pi−2) = q p i−1 P1 .. . PN − PN −1 = q p(PN −1− PN −2) = q p N −1 P1
Somando as primeiras i − 1 equa¸c˜oes, obtemos:
Pi − P1 = P1 q p + q p 2 + · · · +qp i−1 , ou Pi = 1−(qp)i 1−qp P1, se q p 6= 1 ou p 6= 1/2; iP1, se qp = 1 ou p = 1/2.
Usando o fato de que PN = 1, obtemos
P1 = 1−(pq) 1−(qp)N, para p 6= 1/2; 1 N, para p = 1/2. E finalmente, Pi = 1−(qp)i 1−(qp)N, para p 6= 1/2; i N, para p = 1/2.
Se Qi for a probabilidade de B ficar com todo o dinheiro, quando ele inicia com N − i,
por simetria Qi = 1−(pq)N−i 1−(pq)N , para q 6= 1/2; N −i N , para q = 1/2.
Al´em do mais, mostra-se que Pi+ Qi = 1, tanto para p = q = 1/2, como para q 6= 1/2.
Interpreta¸c˜ao: os jogadores n˜ao jogam por tempo indefinido.
Valores num´ericos: Se A come¸ca com 5, B com 10 e p = 1/2, ent˜ao P5 = 1/3. Se p = 0, 6,
***
Teste de Drogas
Duas drogas devem ser analisadas quanto ao seu poder de cura. A droga i tem probabi-lidade de cura Pi, que n˜ao ´e conhecida. Temos que tentar decidir se P1 > P2 ou P1 < P2.
Experimento: Pares de doentes s˜ao tratados sequencialmente, um membro do par recebendo a droga 1 e o outro membro a droga 2. Os resultados de cada par s˜ao determinados e o teste p´ara, quando o n´umero acumulado de curas de uma das drogas supera o n´umero acumulado de curas da outra droga por um valor M.
Xj = 1 se o paciente do j-´esimo par com droga 1 ´e curado0 em caso contr´ario
Yj = 1 se o paciente do j-´esimo par com droga 2 ´e curado0 em caso contr´ario
O experimento p´ara no N-´esimo par, quandoPN
i=1Xi−PNi=1Yi = M, e ent˜ao assumimos
que P1 > P2, ou PNi=1Yi −PNi=1Xi = M, e, ent˜ao, assumimos que P2 > P1. No primeiro
caso, a droga 1 ´e considerada melhor, e, no segundo caso, a droga 2 ´e a escolhida, como tendo o melhor desempenho.
Qual a probabilidade do teste apontar uma decis˜ao incorreta? Ou seja, na realidade P1 > P2 e o teste aponta P2 > P1?
Solu¸c˜ao: Vamos analisar o comportamento da vari´avel P Xi −P Yi. Esta vari´avel ´e
incrementada de 1 com probabilidade P1(1 − P2), decrementada de 1 com probabilidade
P2(1 −P1), e permanece inalterada com probabilidade P1P2+ (1 −P1)(1 −P2). Considerando
apenas os pares que provocam incrementos ou decrementos nesta vari´avel, podemos calcular PX = P (P Xi−P Yi subir 1| subiu ou desceu 1) = P1(1−PP12(1−P)+P22(1−P) 1), e
PY = P (P Xi−P Yi descer 1| subiu ou desceu 1) = P1(1−PP22(1−P)+P21(1−P) 1) = 1 − PX.
A probabilidade do teste indicar P2 > P1 ´e igual `a probabilidade do jogador 1 que ganha
com probabilidade PX perder M antes de alcan¸car 2M (significa que o outro jogador ´e o
vencedor, ou seja probabilidade QM).
P (teste indicar P2 > P1) = 1 − P (ganhar 2M antes de atingir zero, come¸cando com M)
= P (alcan¸car zero antes de atingir 2M, come¸cando com M )
= 1 − 1−( 1−PX PX )M 1−(1−PXPX )2M = 1 − 1−(PYPX)M 1−(PYPX)2M = 1−(PXPY)M 1−(PXPY)2M
Se P1 = 0, 6 e P2 = 0, 4 , a probabilidade de decis˜ao incorreta ´e 0,017 , quando M = 5, e
reduz a 0,0003 para M = 10.
8
Aplica¸c˜
ao: Confiabilidade (”Reliability”)
i
Evento Ai = componente i funciona perfeitamente.
Ri = confiabilidade do componente i = P (Ai). 2 1 Sistema S RS = P (A1A2) = P (A1)P (A2) = R1R2. 1 2 Sistema S
Redundˆancia: AS = ASc = A1T A2, ou seja, o sistema S s´o n˜ao funciona, se ambos os
componentes estiverem com defeito.
RS = P (A1 [ A2) 1 − RS = [1 − P (A1)][1 − P (A2)] RS = 1 − 2 Y i=1 (1 − Ri) Redundˆancia RS 1 0,80 2 0,96 3 0,992 4 0,9984 *
Sistema de Redundˆancia Tripla
Sistema opera com 3 elementos em paralelo, e o sistema est´a operacional, quando pelo menos 2 elementos est˜ao OK. Este sistema se chama TMR, ou seja, Triple Module Redun-dancy. RT M R =P3i=2 3 iR i(1 − R)3−i= 3R2− 2R3. RT M R = > R se R > 1 2 = R se R = 1 2 < R se R < 12 ***
9
Experimentos de Bernoulli
Experimento: sucesso f alha 0 1 bom ruim cara coroa probabilidade p probabilidade (1 − p) *Recorda¸c˜ao: Multinomial
De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr
t.q. n =Pr i=1ni? R: nn 1 n−n1 n2 n−n1−n2 n3 · · · n−Pr−1 i=1ni nr = n! n1!n2!···nr! *
Sequˆencia de Experimentos de Bernoulli
Repete-se o experimento de Bernoulli de forma independente.
Pergunta: Qual a probabilidade de k caras em n lan¸camentos de uma moeda? R: nkpk(1 − p)(n−k).
*
Problema: Qual a probabilidade de que em n passadas pelo c´odigo abaixo, ni execu¸c˜oes do
comando Si s˜ao efetuadas, sendo que CASE i ocorre com probabilidade pi?
CASE I OF 1: S1 ; 2: S2 ; ... k: Sk; END R: n1!n2n!!···n k!p n1 1 pn22· · · p nk k = n1nn2···nkp n1 1 pn22· · · p nk k Observe que P ∀n=Pk i=0ni h n n1n2···nkp n1 1 pn22· · · pnkk i = (p1+ p2+ · · · + pk)n= 1. ***
10
Vari´
aveis Aleat´
orias
Seja um espa¸co amostral S, com uma parti¸c˜ao formada de trˆes eventos: ganha, perde e empata. Uma vari´avel aleat´oria X ´e definida como uma associa¸c˜ao de valores aos pontos do espa¸co S. Por exemplo,
X(w) = +5 w ∈ ganha 0 w ∈ empata −5 w ∈ perde
P (X = −5) = 3/8 = soma das prob. de todos os pontos ∈ perde P (X = 0) = 1/4
P (X = +5) = 3/8
Defini¸c˜ao: Uma vari´avel aleat´oria X no espa¸co amostral S ´e uma fun¸c˜ao X : S → R que associa um n´umero real X(w) a cada ponto de amostra w ∈ S.
Exemplo: Suponha que uma moeda ´e tal que P (H) = p e P (T ) = 1 − p.
A moeda ´e lan¸cada at´e que uma cara ocorra ou um total de n lan¸camentos ocorram. Se X representa o n´umero de vezes que a moeda foi lan¸cada, X ´e uma vari´avel aleat´oria que assume os valores 1, 2, · · · , n com as seguintes probabilidades:
P (X = 1) = P (H) = p P (X = 2) = P (T, H) = (1 − p)p P (X = 3) = P (T, T, H) = (1 − p)2p ... ... P (X = n − 1) = P (T, · · · , T, H) = (1 − p)n−2p P (X = n) = P (T, · · · , T, H) = (1 − p)n−1p + (1 − p)n−1(1 − p) = (1 − p)n−1 Mostrar que Pn i=1P (X = i) = 1. Demo: n X i=1 P (X = i) = p + (1 − p)p + · · · + (1 − p)n−2p + (1 − p)n−1 = p1 + (1 − p) + · · · + (1 − p)n−2 + (1 − p)n−1 = p1 − (1 − p)n−1 1 − (1 − p) + (1 − p) n−1 = 1
X assume um n´umero finito de valores.
*
Exemplo: X representa o n´umero de lan¸camentos at´e se obter uma cara. X ´e uma vari´avel aleat´oria que assume os valores 1, 2, · · · com as seguintes probabilidades:
0
P (X = 1) = P (H) = p P (X = 2) = P (T, H) = (1 − p)p P (X = 3) = P (T, T, H) = (1 − p)2p ... ... P∞ i=1P (X = i) = p + (1 − p)p + · · · = P∞ i=0p(1 − p)i = p 1−(1−p) = 1
X assume um n´umero infinito, por´em cont´avel, de valores.
***
10.1
Vari´
avel Discreta
Uma vari´avel aleat´oria discreta ´e aquela que assume um n´umero finito ou cont´avel de valores. Definimos P (X = i) como sendo a fun¸c˜ao de massa de probabilidade (PMF - Probability Mass Function) de X.
Vari´avel de Bernoulli
X ´e uma v.a. de Bernoulli, se P (X = 0) = P (fracasso) = 1 − p e P (X = 1) = P (sucesso) = p, com 0 < p < 1.
Vari´avel Binomial
Assuma n experimentos de Bernoulli. Seja Y o n´umero de sucessos nos n experimentos. Y ´e dita binomial com parˆametros (n, p).
P (Y = i) = n i pi(1 − p)n−i, i = 0, 1, · · · , n n X i=0 P (Y = i) = (p + (1 − p))n= 1 *
Aplica¸c˜ao da Binomial: Um job executa n vezes pela CPU. Seja Xi o n´umero de acessos
ao disco i. No diagrama, p1+ p2 = 1. P (X1 = k) = nkpk1(1 − p1)n−k, 0 ≤ k ≤ n.
Poisson
Uma vari´avel aleat´oria X ´e Poisson com parˆametro λ > 0, se
P (i) = P (X = i) = λi i!e−λ, λ > 0. Observe que P∞ i=0P (i) = e−λ P∞ i=0λ i i! = e−λe λ = 1.
Muitos processos no mundo real podem ser aproximados pelo processo Poisson. Sabendo que pessoas podem tomar uma decis˜ao afirmativa com probabilidade p ou uma decis˜ao nega-tiva com probabilidade (1 − p), ent˜ao o n´umero de pessoas que tomam a decis˜ao afirmanega-tiva, dentre uma popula¸c˜ao com n pessoas, pode ser expresso pela distribui¸c˜ao binomial, ou seja, probabilidade de i pessoas optarem pela decis˜ao afirmativa = nipi
(1 − p)n−i. Mostra-se que a distribui¸c˜ao binomial tende para Poisson com λ = np, se n >> 1 e λ ´e moderado.
P (X = i) = nipi(1 − p)(n−i) = (n−i)!i!n! λni 1 −nλ n−i = n(n−1)(n−2)···(n−i+1)ni λ i i! (1−λ n)n (1−λ n)i Para n >> 1, (1 −nλ)n≈ e−λ, n(n−1)(n−2)···(n−i+1) ni ≈ 1 e (1 − λn)i ≈ 1. Ent˜ao, P (X = i) ≈ λi i!e−λ. *
Distribui¸c˜ao Geom´etrica
Seja X o tempo de permanˆencia num estado. Muda-se de estado com probabilidade p e permanece-se no estado com probabilidade 1 − p. Transi¸c˜oes de estado ocorrem em instantes bem definidos de tempo.
Ent˜ao:
P (X = n) = (1 − p)n−1p, n ≥ 1.
*
Binomial Negativa
Experimentos independentes com probabilidade p de sucesso (sequˆencia de experimen-tos de Bernoulli). Assuma que X ´e o n´umero de experimentos at´e que r sucessos sejam alcan¸cados.
P (X = n) = n−1r−1pr(1 − p)n−r, n ≥ r, pode ser entendida como
P(r-´esimo sucesso ocorre no n-´esimo experimento)
Aplica¸c˜ao: Problema de Banach
Duas caixas de f´osforos, uma no bolso esquerdo e outra no bolso direito. Considere o momento em que se descobre que uma das caixas est´a vazia, sendo aleatoriamente escolhidos os bolsos a cada palito. Assumindo que cada caixa tem inicialmente N f´osforos, qual ´e a probabilidade de que existam exatamente k f´osforos na outra caixa?
E = evento de que a caixa da direita est´a vazia e h´a k f´osforos na caixa da esquerda. O evento E acontece se a (N+1)-´esima escolha da caixa da direita ´e feita na N-k+N+1 tentativa, onde (N-k) corresponde ao n´umero de f´osforos j´a retirados da caixa da esquerda e N corresponde ao n´umero de f´osforos retirados da caixa da direita. Observe que j´a retiramos todos os fosforos da caixa da direita, quando, na tentativa de tirar mais um f´osforo do bolso direito, descobrimos que a caixa naquele bolso est´a vazia.
Usando a binomial negativa com p = 1/2, r = N + 1, n = 2N − k + 1 temos P (E) = 2N −kN (1
2)2N −k+1
A probabilidade procurada ´e 2P(E), porque a (N+1) escolha pode ocorrer ao encontrar-mos vazia tanto a caixa da direita quanto a caixa da esquerda.
***
10.2
Fun¸c˜
ao Distribui¸c˜
ao
A fun¸c˜ao de distribui¸c˜ao de probabilidade (PDF - Probability Distribution Function) ou fun¸c˜ao de distribui¸c˜ao acumulativa (CDF - Cummmulative Distribution Function) da vari´avel X ´e definida como
FX(x) = P (X ≤ x), −∞ < X < ∞
Propriedades:
• FX(.) ´e n˜ao decrescente.
• a < b =⇒ FX(a) ≤ FX(b).
• limx→∞FX(x) = 1 e limx→−∞FX(x) = 0.
• P (a < X ≤ b) = FX(b) − FX(a), porque {X ≤ b} = {a < X ≤ b} S {X ≤ a}.
***
10.3
Fun¸c˜
oes Singulares
S˜ao ´uteis para permitir estender o conceito de integra¸c˜ao e deriva¸c˜ao para fun¸c˜oes com discontinuidades. O emprego das fun¸c˜oes singulares ser´a exemplificado na descri¸c˜ao das
propriedades associadas `as vari´aveis aleat´orias. As fun¸c˜oes singulares mais ´uteis s˜ao:
• Fun¸c˜ao Impulso u0(t) ou δ(t) (Delta de Dirac)
u0(t) =⇒
R0+
0− u0(t)dt = 1
• Fun¸c˜ao Degrau u−1(t) ou u(t)
u−1(t) = 0 , se t < 0 1 , se t ≥ 0 u−1(t) =Rt 0−u0(y)dy • Fun¸c˜ao Rampa u−2(t) u−2(t) = tu−1(t) = t , se t ≥ 0 0 , se t < 0 u−2(t) =Rt 0−u−1(y)dy ***
10.4
Vari´
avel Aleat´
oria Cont´ınua
Uma vari´avel aleat´oria cont´ınua ´e aquela que assume um n´umero infinito e incont´avel de valores. Seja X, uma vari´avel aleat´oria cont´ınua. Dado um intervalo B, podemos exprimir P (X ∈ B) da forma abaixo:
P (X ∈ B) =R
BfX(x)dx
A fun¸c˜ao fX(x) ´e chamada de densidade de probabilidade ou comumente pdf (probability
density function) de X. Observe que P (X ∈ (−∞, ∞)) =R∞
−∞fX(x)dx = 1.
Por outro lado, podemos obter FX(a) = P (X ≤ a) = P (X < a) como
FX(a) =
Ra
−∞fX(x)dx
A fun¸c˜ao FX(.) ´e definida como a PDF (Probability Distribution Function) de X, ou
fun¸c˜ao de distribui¸c˜ao de probabilidade de X, ou ainda fun¸c˜ao de distribui¸c˜ao acumulativa (CDF) de X. Observamos ainda que,
P (X > a) = 1 − P (X ≤ a) = 1 − FX(a) =
R∞
a fX(x)dx
P (a < X ≤ b) =Rb
a fX(x)dx
Simplificando a nota¸c˜ao, representaremos fX(x) = f (x). Ent˜ao:
Observe que: P (x < X ≤ x + dx) = f(x)dx.
E se a fun¸c˜ao f (x) n˜ao possui impulsos em a e b, ent˜ao ser´a sempre v´alido dizer: P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b).
*
Distribui¸c˜ao Uniforme no intervalo (0,1)
X ´e uma vari´avel aleat´oria com distribui¸c˜ao uniforme no intervalo (0,1), se f (x) = u−1(x) − u−1(x − 1) e F (x) = u−2(x) − u−2(x − 1).
Exerc´ıcio: desenhar a pdf e a PDF de uma distribui¸c˜ao uniforme em (0,1).
*
Distribui¸c˜ao Uniforme no intervalo (a,b)
X ´e uma vari´avel aleat´oria com distribui¸c˜ao uniforme no intervalo (a,b), se f (x) = 1
b−a[u−1(x − a) − u−1(x − b)] e F (x) = 1
b−a[u−2(x − a) − u−2(x − b)].
Exerc´ıcio: desenhar a pdf e a PDF de uma distribui¸c˜ao uniforme em (a,b).
*
Distribui¸c˜ao Exponencial
X tem distribui¸c˜ao exponencial, se pdf f (x) = λe−λx , x ≥ 0
0 , x < 0 = λe−λxu−1(x) e CDF F (x) =Rx −∞f (y)dy = 1 − e−λx , x ≥ 0 0 , x < 0 = (1 − e−λx)u−1(x) *
Uma vari´avel aleat´oria ´e perfeitamente caracterizada pela sua pdf ou PDF.
*
O uso da fun¸c˜ao degrau na descri¸c˜ao da PDF e da CDF serve para explicitar as restri¸c˜oes no dom´ınio da fun¸c˜ao de forma clara e concisa.
10.5
Propriedade da Falta de Mem´
oria
Uma vari´avel X n˜ao negativa ´e sem mem´oria se P (X > s + t | X > t) = P (X > s), para s, t ≥ 0.
Se pensarmos que X ´e o tempo de vida de um componente, a probabilidade de que ele sobreviva mais s segundos dado que j´a funcionou t segundos, onde s ´e independente de t, ´e igual `a probabilidade inicial de que ele funcione por s segundos.
P (X > s + t | X > t) = P (X>s+t e X>t)P (X>t) =
P (X>s+t)
P (X>t) = P (X > s)
Uma condi¸c˜ao equivalente para definir falta de mem´oria seria
P (X > s + t) = P (X > s)P (X > t) ou 1 − F (s + t) = (1 − F (s))(1 − F (t)),
e pode-se provar que s´o a distribui¸c˜ao exponencial satisfaz a rela¸c˜ao dentre as fun¸c˜oes cont´ınuas.
*
Taxa de falha em Distribui¸c˜ao Exponencial
X ´e a vida de um componente. Suponha que o componente j´a funcionou por t segundos e queremos a probabilidade de que ele falhar´a num tempo adicional dt, ou seja X ≤ (t, t + dt).
P (X ∈ (t, t + dt) | X > t) = P (t<X≤t+dt)P (X>t) = f (t)dt 1−F (t)
λ(t) = 1−F (t)f (t) ´e chamada taxa de falha e representa a densidade de probabilidade de que um item com t segundos de vida ir´a falhar.
No caso de distribui¸c˜ao exponencial, λ(t) = λe−λt
e−λt = λ , ou seja, a taxa de falha ´e constante.
*
Falta de Mem´oria em Distribui¸c˜ao Discreta
Seja a distribui¸c˜ao geom´etrica P (N = k) = p(1 − p)k−1, k ≥ 1. Se N representa o
tempo de permanˆencia em um estado, pela pr´opria obten¸c˜ao de N a distribui¸c˜ao ´e sem mem´oria. A decis˜ao de deixar (probabilidade p) ou permanecer no estado (probabilidade (1 − p)) independe do passado. P (N > k1) =P∞k=k1+1p(1 − p) k−1 = p(1 − p)k1P∞ k−k1=1(1 − p) k−k1−1 = p(1 − p)k11 p = (1 − p) k1 P (N > k2) = (1 − P )k2 P (N > k1+ k2) = (1 − p)k1+k2 = P (N > k1) P (N > k2)
*
Pode-se provar que a ´unica distribui¸c˜ao cont´ınua sem mem´oria ´e a exponencial. Da mesma forma, prova-se que a ´unica distribui¸c˜ao discreta sem mem´oria ´e a geom´etrica.
***
10.6
Rela¸c˜
ao entre Distribui¸c˜
ao Exponencial e Processo Poisson
Suponha que chegadas ocorram num intervalo T , segundo um processo Poisson. O n´umero de chegadas durante um determinado intervalo de tempo T ´e dado pela f´ormula de Poisson:
P {k chegadas durante T } = Pk(T ) =
(λT )k
k! e
−λT
onde λ ´e a taxa m´edia de chegadas de fregueses por segundo.
Pode-se ver que para o Processo Poisson P {nenhuma chegada em T } = e−λT. Supondo
que uma chegada ocorreu no instante zero, a probabilidade de que a pr´oxima chegada ocorra entre T e (T + dt), assumindo independˆencia entre eventos, ´e:
P {pr´oxima chegada em (T, T + dt) } =
= P {nenhuma chegada em (0, T ) e pelo menos 1 chegada em (T, T + dt)} = P {nenhuma chegada em (0, T ) }P { 1 chegada em (T, T + dt)}
= e−λTe−λdtλdt = λe−λ(T +dt)dt = λe−λTdt (dt → 0)
Observe que a probabilidade de duas ou mais chegadas no intervalo (T, T + dt) ´e O(dt2),
ou seja, cai igual ou mais rapidamente que dt2.
Se f (x) ´e O(xn) com x → 0, ent˜ao lim
x→0 f (x)xn < ∞.
Em geral, a nota¸c˜ao O(g(x)) com x → x0 refere-se a qualquer fun¸c˜ao que (com x → x0)
decai a zero pelo menos t˜ao r´apido quanto g(x) (onde g(x) > 0), isto ´e, lim x→x0 O(g(x)) g(x) < ∞
Por outro lado, a nota¸c˜ao o(g(x)) com x → x0 refere-se a qualquer fun¸c˜ao que (com
x → x0) decai a zero mais r´apido que g(x) (onde g(x) > 0), isto ´e,
lim x→x0 o(g(x)) g(x) = 0
Se levamos em conta apenas os comportamentos O(dt), isto ´e, uma aproxima¸c˜ao de primeira ordem, ent˜ao precisamos considerar apenas uma chegada no evento pelo menos uma chegada acima.
*
Se analisarmos o caminho inverso, isto ´e, supondo o tempo entre chegadas exponencial com parˆametro λ, e assumindo X1 o instante da primeira chegada (assuma que no instante zero
algu´em chegou) e X2 o tempo entre a primeira e a segunda chegada, podemos verificar que:
P {0 chegadas em T } = P (X1 > T ) = e−λT. P {1 chegada em T } = P (X1 < T e X2+ X1 > T ) =R∞ 0 P (X1 < T e X2+ X1 > T | t ≤ X1 ≤ t + dt)P (X1 ∈ (t, t + dt)) =RT O P (X2 > T − t)λe−λtdt = λRT 0 e−λ(T −t)e−λtdt = λT e−λT
Estas probabilidades concordam com o resultado dado pela f´ormula de Poisson.
Demonstra-se que se um processo possui tempo entre chegadas exponencial, ele ´e um Processo Poisson.
O processo Poisson ser´a estudado em Cadeia de Markov como exemplo de um Processo de Nascimento Puro. No cap´ıtulo de Cadeia de Markov, deduziremos a f´ormula de Poisson.
***
10.7
Vari´
avel Aleat´
oria Mista
Uma vari´avel aleat´oria mista ´e aquela que engloba tanto o comportamento discreto, com concentra¸c˜oes de probabilidades em pontos determinados, como o comportamento cont´ınuo em outros intervalos.
Um bom exemplo de vari´avel mista ´e a exponencial truncada ˆX para o intervalo [a, b]. Esta exponencial ´e obtida a partir de uma exponencial X, concentrando no ponto a a pro-babilidade P (X < a) = 1 − e−λa e no ponto b a probabilidade P (X > b) = e−λb. A pdf de
ˆ
X ´e dada por
fXˆ(x) = (1 − e−λa)u0(x − a) + λe−λx[u−1(x − a) − u−1(x − b)] + e−λbu0(x − b)
Para obter a CDF FXˆ = P ( ˆX < x), devemos integrar a pdf mista fXˆ(x). Os termos
(1 − e−λa)u
0(x − a) e e−λbu0(x − b), que envolvem uma constante multiplicando um impulso,
podem ser integrados diretamente fornecendo os degraus (1−e−λa)u
−1(x−a) e e−λbu−1(x−b),
Cuidado maior deve ser tomado ao se integrar λe−λx[u
−1(x−a)−u−1(x−b)], que pode ser
escrita como λe−λxu
−1(x − a) − λe−λxu−1(x − b). Vamos integrar cada termo separadamente,
respeitando o dom´ınio de integra¸c˜ao definido por cada fun¸c˜ao degrau.
Integrando o primeiro termo de a a x, obtemos (e−λa − e−λx) para x > a, ou seja,
(e−λa− e−λx)u
−1(x − a).
Integrando o segundo termo de b a x, obtemos (e−λb− e−λx) para x > b, ou seja,
(e−λb− e−λx)u
−1(x − b).
Ent˜ao, FXˆ(x) = (1 − e−λa)u−1(x − a) + e−λbu−1(x − b) + (e−λa− e−λx)u−1(x − a)
−(e−λb− e−λx)u
−1(x − b) = (1 − e−λx)u−1(x − a) + e−λxu−1(x − b).
De fato, a CDF FXˆ(x) = (1 − e−λx)u−1(x − a) + e−λxu−1(x − b) ´e nula para x < a. Para
a < x < b, a CDF ´e dada por e−λa− e−λx, como esperado. Observe que para x > b os termos
exponenciais se anulam e a CDF fica constante em 1, como deve ser. A express˜ao com uso das fun¸c˜oes singulares simplifica a descri¸c˜ao da fun¸c˜ao, mantendo a clareza matem´atica.
11
Fun¸c˜
oes de Vari´
aveis Aleat´
orias
Quest˜ao:
Assuma Y = G(X) = e−X, onde X e Y s˜ao duas vari´aveis aleat´orias. Se −∞ < X < ∞,
ent˜ao Y > 0. Y ´e uma fun¸c˜ao decrescente de X. Dado fX(x), como obter fY(y)?
Os passos s˜ao os seguintes:
1. {Y ≤ y} = {e−X ≤ y} = {−X ≤ ln y} = {X ≥ − ln y} 2. FY(y) = P {Y ≤ y} = P {X ≥ − ln y} = R∞ − ln yfX(x)dx 3. fY(y) = dyd h R∞ − ln yfX(x)dx i , y > 0
Para realizar o ´ultimo passo, relembrar a Regra de Leibnitz: d dt " Z h(t) g(t) f (τ, t)dτ # = Z h(t) g(t) ∂f (τ, t) ∂t dτ + f (h(t), t) dh dt − f(g(t), t) dg dt Aplicando Leibnitz, temos:
fY(y) = Z ∞ − ln y dfX(x) dy dx + fX(∞) d∞ dy − fX(− ln y) d(− ln y) dy = 0 + 0 − fX(− ln y)(− 1 y) = fX(− ln y) y , y > o Observe que Y = G(X) e X = G−1(Y ) = − ln Y .
E tamb´em que dY /dX = dG(X)/dX = −e−X = −Y e dX/dY = dG−1(Y )/dY = −1/Y .
Pelas rela¸c˜oes obtidas acima, podemos escrever: fY(y) = −fX(G−1(y))dG −1(y) dy = −fX(x) dx dy = fX(x) dx dy A express˜ao dx dy = dG
−1(y)/dy ´e o chamado Jacobiano da transforma¸c˜ao Y = G(X).
Como G ´e uma fun¸c˜ao decrescente, surge o sinal negativo.
***
0
11.1
Metodologia
1. {Y ≤ y} = {X ∈ B(y)} 2. FY(y) = P {Y ≤ y} = P {X ∈ B(y)} = R B(y)fX(x)dx 3. fY(y) = dyd h R B(y)fX(x)dx i, (aplicar regra de Leibnitz).
* Exemplo: Y = X2. 1. {Y ≤ y} = {−√y ≤ X ≤√y} 2. FY(y) = R√y −√yfX(x)dx
3. fY(y) = fX(√y)(12)(y−
1 2) − fX(−√y)(−1 2)(y− 1 2) = fX(√y)+fX(− √y) 2√y *
Exemplo: Seja X uma v.a. com fX(x) e FX(x). Encontre a pdf de Y = FX(X). Observe
que FX(.) ´e uma fun¸c˜ao monotonicamente n˜ao decrescente (pois ´e uma fun¸c˜ao distribui¸c˜ao).
1. {Y ≤ y} = {FX(X) ≤ y} = {X ≤ FX−1(y)}
2. FY(y) =
RFX−1(y)
−∞ fX(x)dx = FX(FX−1(y)) = y
3. fY(y) = dFdyY(y) = 1 0 ≤ y ≤ 10 outros casos
Conclus˜ao: Y ´e uniforme em (0,1).
*
Problema: Dadas X com fX(x) e Y com fY(y), ´e poss´ıvel encontrar a transforma¸c˜ao
Y = G(X)?
Z = FX(X) e W = FY(Y ) s˜ao vari´aveis uniformes em (0,1). Se W ´e uniforme em (0,1),
ent˜ao Y = FY−1(W ) tem pdf fY(y), assumindo que a inversa existe.
Ent˜ao, Y = FY−1(FX(X)) transforma fX(x) em fY(y).
Exemplo: Seja X uniforme em (0,1). Se Y ´e exponencial, podemos afirmar que
Y = FY−1(FX(X)) e lembrando que FX(X) = X, 0 ≤ X ≤ 1, por ser X uma v.a.
uniforme em (0,1), ent˜ao Y = FY−1(X) = −ln(1−X)λ = −ln Xλ , visto que 1 − X = X para distribui¸c˜ao uniforme em (0,1).
* Exerc´ıcio: Seja fX(x) = e −x, x ≥ 0 0, x < 0 e fY(y) = 1 2√y, 0 ≤ y ≤ 1 0, outros casos . Mostre que Y = (1 − e−X)2. Obtendo as PDFs temos; FX(X) = 1 − e −x, x ≥ 0 0, x < 0 FY(y) = Ry 0 1 2√udu = √ u|y0 = √ y, 0 ≤ y ≤ 1 0, y < 0 1, y ≥ 1
Vimos que Z = FX(X) = 1 − e−X ´e uniforme em (0,1). Similarmente, W =
√ Y ´e uniformemente distribu´ıda em (0,1).
Igualando Z = W e resolvendo em Y obtemos Y = (1 − e−X)2.
***
11.2
Gera¸c˜
ao de Distribui¸c˜
oes
O fato de Y = FX(X) ser uma distribui¸c˜ao uniforme ´e usado em simula¸c˜ao para gerar
amos-tas de vari´aveis aleat´orias com uma determinada distribui¸c˜ao. Suponhamos que queremos obter uma amostra da vari´avel aleat´oria X, que possui PDF FX(x).
Princ´ıpio: U = FX(X) ´e uniforme (0,1). Consequentemente FX−1(U) = X.
Procedimento:
• Obter u0, uma amostra da distribui¸c˜ao uniforme em (0,1), a partir de um gerador de
n´umeros aleat´orios
• Obter x0 = FX−1(u0), que ´e uma amostra de X.
Exemplo:
FX(x) = 1 − e−λx, PDF de uma distribui¸c˜ao exponencial
u0 = 1 − e−λx0 1 − u0 = e−λx0 ln(1 − u0) = −λx0 x0 = −ln(1 − u0 ) λ
Como (1 − u0) tem a mesma pdf de u0, na pr´atica usamos x0 = −ln(uλ0), economizando a
opera¸c˜ao de subtra¸c˜ao. No caso discreto:
Assuma P (N = k) = p1u0(k −a1) + p2u0(k −a2) + p3u0(k −a3), ou seja, N assume valores
ai com probabilidade pi, i = 1, 2, 3. Obtemos P (N ≤ k) = p1u−1(k − a1) + p2u−1(k − a2) +
p3u−1(k − a3). Ent˜ao, a partir de u0 podemos determinar k0 da forma abaixo:
0 < u0 ≤ p1 = P (N ≤ 1) =⇒ k0 = a1
p1 = P (N ≤ 1) < u0 ≤ p1+ p2 = P (N ≤ 2) =⇒ k0 = a2
p1+ p2 = P (N ≤ 2) < u0 ≤ 1 =⇒ k0 = a3
Aplica¸c˜ao: Gerar uma amostra de uma distribui¸c˜ao geom´etrica. P (N = k) = pk−1(1 − p), k ≥ 1;
P (N ≤ k) =
k
X
i=1
pi−1(1 − p) = 1 − pk = FN(k); (fa¸ca esta passagem);
E[N] = 1 1 − p. Deveremos ter: 0 < u0≤ P (N ≤ 1) =⇒ k0 = 1 P (N ≤ 1) < u0≤ P (N ≤ 2) =⇒ k0 = 2 .. . P (N ≤ j − 1) < u0 ≤ P (N ≤ j) =⇒ k0 = j ou seja 1 − pj−1 < u 0 ≤ 1 − pj =⇒ k0 = j. Fa¸camos 1 − pk−1 < u
0 ≤ 1 − pk. Tirando o logaritmo, obtemos
ln(1 − u0)
ln p ≤ k <
ln(1 − u0)
ln p + 1
Como a amostra da geom´etrica ´e um n´umero inteiro, e a m´edia da geom´etrica ´e dada por 1
1−p, ent˜ao de forma mais geral podemos escrever que
k0 =
ln(1 − u0)
ln(1 − 1/m´edia)
Como 1 − U ´e tamb´em uniforme, podemos eliminar uma subtra¸c˜ao e escrever
k0 =
ln u0
ln(1 − 1/m´edia)
*
Exerc´ıcio: Mostre como seria gerada uma amostra do tamanho de uma mensagem em uma rede Ethernet, sabendo que a pdf do tamanho da mensagem ´e dada por P (X = i) =
3 4u0(i − 50) + 1 16 1 450(u−1(i − 50) − u−1(i − 500)) + 3 16u0(i − 500), i > 0.
Observe que a PDF poderia ser facilmente obtida integrando cada um dos termos da pdf: P (X ≤ i) = 34u−1(i − 50) + 1 16 1 450(u−2(i − 50) − u−2(i − 500)) + 3 16u−1(i − 500), i > 0. ***
12
Distribui¸c˜
ao Conjunta Cumulativa de V.As.
A fun¸c˜ao de distribui¸c˜ao conjunta cumulativa de duas vari´aveis aleat´orias pode ser definida como:
FXY(a, b) = P (X ≤ a, Y ≤ b), −∞ < a, b < ∞.
A distribui¸c˜ao de X pode ser obtida a partir de FXY(., .) :
FX(a) = P (X ≤ a) = P (X ≤ a, Y ≤ ∞) = FXY(a, ∞)
FX(b) = FXY(∞, b).
No caso discreto temos: fXY(a, b) = P (X = a, Y = b).
fX(a) = P (X = a) =P∞b=−∞fXY(a, b) =P∞b=−∞P (X = a, Y = b)
=P∞
b=−∞P (X = a|Y = b)p(Y = b).
*
Se X e Y s˜ao conjuntamente cont´ınuas, ent˜ao: P (X ∈ A, Y ∈ B) =R
B
R
AfXY(x, y)dxdy
fXY(., .) = fun¸c˜ao densidade de probabilidade conjunta.
Ent˜ao: P (X ∈ A) = P (X ∈ A, Y ∈ (−∞, ∞) =R∞ −∞ R AfXY(x, y)dxdy = R AfX(x)dx Consequentemente, fX(x) = R∞ −∞fXY(x, y)dy *
Vari´aveis Aleat´orias Independentes X e Y s˜ao independentes se, ∀a, ∀b
P (X ≤ a, Y ≤ b) = P (X ≤ a)P (Y ≤ b) ou FXY(a, b) = FX(a)FY(b), ∀a, b ou
fXY(x, y) = fX(x)fY(y)
*
0
Exerc´ıcio: Encontre a pdf da menor de K vari´aveis aleat´orias, cada uma distribu´ıda exponencialmente com parˆametro λ.
Seja Y = min {X1, X2, · · · , XK}.
P (Y > y) = P (X1 > y, X2 > y, · · · , XK > y)
= P (X1 > y)P (X2 > y). · · · .P (XK > y)
= e−λye−λy· · · e−λy = e−Kλy.
Portanto, Y ´e exponencial com parˆametro Kλ. Interpreta¸c˜ao:
Se temos K fontes exponenciais, a fonte i com parˆametro λi, a distribui¸c˜ao do tempo at´e
a pr´oxima partida (de qualquer uma das fontes) ´e exponencial com parˆametroP
iλi.
Dizendo de outra forma: a uni˜ao de K fluxos Poisson ´e tamb´em um fluxo Poisson com taxa igual `a soma das taxas.
*
Exerc´ıcio: Sejam dadas duas vari´aveis aleat´orias X1 e X2, com parˆametros λ1 e λ2. Calcule
P (X1 > X2). P (X1 > X2) = Z ∞ 0 P (X1 > X2|X2 ∈ (t, t + dt))P (X2 ∈ (t, t + dt)) = Z ∞ 0 P (X1 > t)λ2e−λ2tdt = λ2 Z ∞ 0 e−λ1te−λ2tdt = λ2 Z ∞ 0 e−(λ1+λ2)tdt = λ2 e−(λ1+λ2)t −(λ1+ λ2)| ∞ 0 = λ2 λ1+ λ2 Significado: λ2
λ1+λ2 ´e a probabilidade de que uma pessoa com quantidade de servi¸co distribu´ıda
expo-nencialmente com parˆametro λ2 termine de ser atendida primeiro que uma segunda pessoa
com servi¸co exponencialmente distribu´ıdo com taxa λ1, dado que num dado instante
am-bas as pessoas est˜ao sendo servidas simultaneamente. Observe n˜ao ´e preciso que amam-bas as pessoas comecem a ser atendidas no mesmo instante, porque a exponencial ´e sem mem´oria.
Aplica¸c˜ao: Se chegadas ocorrem segundo um Processo Poisson com taxa λ1 e partidas
ocorrem segundo um processo Poisson com taxa λ2, λ1λ+λ1 2 ´e a probabilidade de que uma
chegada ocorra antes de uma partida. Estes processos ocorrem em uma fila M/M/1 (chegada Poisson, servi¸co exponencial).
Tudo se passa como se tiv´essemos dois fluxos Poisson: um de chegada e outro de partida. O tempo at´e o pr´oximo evento (chegada ou partida) ´e exponencial com parˆametro igual `a soma dos parˆametros das exponenciais envolvidas.
*
Exerc´ıcio: Dadas trˆes vari´aveis aleat´orias exponenciais independentes X1, X2 e X3, calcule
a probabilidade de que X1 seja o m´aximo entre elas.
Existem duas maneiras de atacar o problema:
1. Pense em cada uma das vari´aveis como uma fonte Poisson. Para que X1seja o m´aximo
ser´a preciso que a partida desta fonte ocorra por ´ultimo. Os eventos poss´ıveis s˜ao: partida de 2, partida de 3 e partida de 1 ou
partida de 3, partida de 2 e partida de 1. Somando as duas probabilidades temos:
P {X1 > X2, X1 > X3} = λ1+λλ22+λ3λ1λ+λ3 3 +λ1+λλ32+λ3λ1λ+λ2 2 2. P {X1 > X2, X1 > X3} = Z ∞ x=0P {X 1 > X2, X1 > X3|x < X1 ≤ x + dx}P {x < X1 ≤ x + dx} = Z ∞ x=0P {x > X 2, x > X3}λ1e−λ1xdx = Z ∞ x=0(1 − e −λ2x)(1 − e−λ3x)λ 1e−λ1xdx = Z ∞ x=0 λ1e−λ1xdx − λ1 Z ∞ x=0 e−(λ1+λ2)xdx − λ1 Z ∞ x=0 e−(λ1+λ3)xdx + λ 1 Z ∞ x=0 e−(λ1+λ2+λ3)xdx = λ1 e−λ1x −λ1 ∞ 0 − λ1 e−(λ1+λ2)x −(λ1+ λ2) ∞ 0 − λ1 e−(λ1+λ3)x −(λ1+ λ3) ∞ 0 + λ1 e−(λ1+λ2+λ3)x −(λ1+ λ2+ λ3) ∞ 0 = 1 − λ λ1 1 + λ2 − λ1 λ1+ λ3 + λ1 λ1+ λ2+ λ3 = λ2 λ1+ λ2+ λ3 λ3 λ1+ λ3 + λ3 λ1+ λ2+ λ3 λ2 λ1+ λ2 *
Exerc´ıcio: Dadas trˆes vari´aveis aleat´orias exponenciais independentes X1, X2 e X3, calcule a probabilidade de P {X1 > X2|X1 > X3, X2 > X3}. Solu¸c˜ao: P {X1 > X2|X1 > X3, X2> X3} = P {X 1> X2, X1 > X3, X2 > X3} P {X1 > X3, X2 > X3}
Para calcular P {X1 > X2, X1 > X3, X2 > X3} condicione duas vezes: uma em X1 e a
segunda em X2, por exemplo. Obtemos
P {X1> X2, X1 > X3, X2 > X3} = = Z ∞ y=0P {X 1 > X2, X1 > X3, X2 > X3|y < X1 ≤ y + dy}P {y < X1 ≤ y + dy} = Z ∞ y=0P {y > X 2, y > X3, X2> X3}P {y < X1 ≤ y + dy} = Z ∞ y=0 Z ∞ z=0P {y > z, y > X 3, z > X3}P {y < X1 ≤ y + dy}P {z < X2 ≤ z + dz} = Z ∞ y=0 Z y z=0P {z > X 3}P {y < X1 ≤ y + dy}P {z < X2 ≤ z + dz}
= ap´os resolver as integra¸c˜oes e simplificar = λ2 λ1+ λ2 λ3 λ1+ λ2+ λ3
Podemos observar que o primeiro termo da resposta corresponde `a probabilidade de X2
ser menor que X1 e o segundo termo corresponde `a probabilidade de X3 ser menor dos
trˆes Xi. Esta ´e a resposta esperada quando pensamos em trˆes fontes Poisson independentes
e usamos a propriedade da falta de mem´oria da exponencial e a composi¸c˜ao de processos Poisson.
Como P {X1 > X3, X2 > X3} = λ1+λλ32+λ3, a resposta do problema ´e λ1λ+λ2 2. A
inter-preta¸c˜ao ´e: uma vez que X1 e X2 s˜ao ambos maiores que X3, a rela¸c˜ao entre eles n˜ao ´e
influenciada por este fato (o que ´e razo´avel j´a que a exponencial ´e sem mem´oria).
*
Exerc´ıcio: Dado X1 e X2 exponenciais, calcule P (X1 ≤ t|X1 < X2), isto ´e, calcule a
distribui¸c˜ao de uma v.a. exponencial sabendo que ela ´e menor que outra v.a. exponencial. ILUSTRAC¸ ˜AO: Se X2 representa o tempo de servi¸co de um freguˆes num banco, e X1
representa o tempo de chegada do pr´oximo freguˆes que ainda encontra o freguˆes em servi¸co, ent˜ao a distribui¸c˜ao do tempo de chegada ´e dada pela f´ormula solicitada.
Solu¸c˜ao: P (X1 ≤ t|X1 < X2) = P (X1 ≤ t, X1 < X2) P (X1 < X2) = λ1+ λ2 λ1 P (X1 ≤ t, X1 < X2) = λ1+ λ2 λ1 Z ∞ y=0 P (X1 ≤ t, X1 < X2|y < X2 ≤ y + dy)P (y < X2 ≤ y + dy) = λ1+ λ2 λ1 Z t y=0 P (X1 ≤ t, X1 < y)fY(y)dy + Z ∞ y=t P (X1 ≤ t, X1 < y)fY(y)dy = λ1+ λ2 λ1 Z t y=0 P (X1 < y)fY(y)dy + Z ∞ y=t P (X1 ≤ t)fY(y)dy = λ1+ λ2 λ1 Z t y=0(1 − e −λ1y)λ 2e−λ2ydy + Z ∞ y=t(1 − e −λ1t)λ 2e−λ2ydy = λ1+ λ2 λ1 Z ∞ y=0 λ2e−λ2ydy − λ2 Z t y=0 e−(λ1+λ2)ydy − e−λ1t Z ∞ y=t λ2e−λ2ydy = λ1+ λ2 λ1 1 − λ λ2 1+ λ2(1 − e −(λ1+λ2)t) − e−λ1te−λ2t = 1 − e−(λ1+λ2)t
que ´e a distribui¸c˜ao de uma exponencial com taxa λ1+ λ2.
Observe que o conhecimento de que X1 < X2 afeta a distribui¸c˜ao de X1
13
Propriedades de Vari´
aveis Aleat´
orias
13.1
M´
edia, Esperan¸ca ou Valor Esperado
Define-se esperan¸ca (m´edia ou valor esperado) da vari´avel X, repesentada pela nota¸c˜ao Es-peran¸ca de X = E[X] = X, como
• Caso Discreto: E[X] =P
∀kxkP (X = xk).
• Caso Cont´ınuo: E[X] =R∞
−∞xfX(x)dx =
R∞
−∞xP (x < X ≤ x + dx).
Outra forma de calcular E[X], obtida a partir da integra¸c˜ao por partes, ´e a seguinte: E[X] = R∞
0 (1 − FX(x))dx −
R0
−∞FX(x)dx.
Demonstra¸c˜ao: Para demonstrar o resultado usaremos a defini¸c˜ao de PDF como se segue: E[X] =R∞ 0 (1 − FX(x))dx − R0 −∞FX(x)dx =R∞ x=0P {X > x}dx − R0 x=−∞FX(x)dx =R∞ x=0 R∞ y=xfX(y)dydx − R0 x=−∞ Rx y=−∞fX(y)dydx =R∞ y=0 Ry x=0dx fX(y)dy − R0 y=−∞ h R0 x=ydx i fX(y)dy =R∞ y=0yfX(y)dy − R0
y=−∞(−y)fX(y)dy
=R∞ y=0yfX(y)dy + R0 y=−∞yfX(y)dy = R∞ y=−∞yfX(y)dy
Conv´em lembrar que a esperan¸ca ´e um n´umero.
* Teorema fundamental Seja Y = g(X). Ent˜ao, EY[Y ] = EX[g(X)] = R∞ −∞g(x)fX(x)dx.
EY[.] indica que a esperan¸ca ´e tomada em rela¸c˜ao a vari´avel Y .
0
Importante: Seja Y = X1+ X2. E[Y ] = R∞ −∞yfY(y)dy = R∞ x1=−∞ R∞ x2=−∞(x1+ x2)fX1X2(x1, x2)dx1dx2 = R∞ x1=−∞ R∞ x2=−∞x1fX1X2(x1, x2)dx1dx2+ R∞ x1=−∞ R∞ x2=−∞x2fX1X2(x1, x2)dx1dx2 = R∞ x1=−∞x1 n R∞ x2=−∞fX1X2(x1, x2)dx2 o dx1+ R∞ x2=−∞x2 n R∞ x1=−∞fX1X2(x1, x2)dx1 o dx2 = R∞ x1=−∞x1fX1(x1)dx1 + R∞ x2=−∞x2fX2(x2)dx2
= E[X1] + E[X2], mesmo se X1 e X2 n˜ao forem independentes
Podemos, ent˜ao, afirmar que: E [P
iXi] =PiE[Xi].
Observe que uma constante a pode ser definida pela densidade de massa u0(t − a).
Aplicando a esperan¸ca, temos E[a] =R∞
−∞tu0(t − a)dt = a, como dever´ıamos esperar.
Por outro lado, se Y = aX, onde a ´e um n´umero, ent˜ao ´e f´acil ver que E[Y ] = E[aX] = aE[X].
Estas propriedades mostram que a esperan¸ca ´e um operador linear.
Aplicando o operador esperan¸ca E `a express˜ao Y = aX + b , obtemos E[Y ] = aE[X] + b.
*
Suponha Y = X1X2 e que X1 e X2 s˜ao independentes.
Pode-se mostrar facilmente que E[Y ] = E[X1]E[X2].
Em geral, E[g(X1).h(X2)] = E[g(X1)]E[h(X2)], se X1 e X2 forem independentes.