• Nenhum resultado encontrado

Avaliação e Desempenho MAB-515, DCC/UFRJ Apostila. Paulo Aguiar, DCC/IM

N/A
N/A
Protected

Academic year: 2021

Share "Avaliação e Desempenho MAB-515, DCC/UFRJ Apostila. Paulo Aguiar, DCC/IM"

Copied!
164
0
0

Texto

(1)

Avalia¸c˜

ao e Desempenho

MAB-515, DCC/UFRJ

Apostila

Paulo Aguiar, DCC/IM

(2)

Conte´

udo

1 Motiva¸c˜ao 6

2 Revis˜ao de An´alise Combinat´oria 10

3 Aloca¸c˜ao de bolas em urnas 14

4 Teoria de Probabilidade 15

5 Eventos igualmente prov´aveis 18

6 Probabilidade Condicional 21

7 Problemas de Aplica¸c˜ao 23

8 Aplica¸c˜ao: Confiabilidade (”Reliability”) 26

9 Experimentos de Bernoulli 28

10 Vari´aveis Aleat´orias 29

10.1 Vari´avel Discreta . . . 30

10.2 Fun¸c˜ao Distribui¸c˜ao . . . 32

10.3 Fun¸c˜oes Singulares . . . 32

10.4 Vari´avel Aleat´oria Cont´ınua . . . 33

10.5 Propriedade da Falta de Mem´oria . . . 35

10.6 Rela¸c˜ao entre Distribui¸c˜ao Exponencial e Processo Poisson . . . 36

10.7 Vari´avel Aleat´oria Mista . . . 37

11 Fun¸c˜oes de Vari´aveis Aleat´orias 39 11.1 Metodologia . . . 40

11.2 Gera¸c˜ao de Distribui¸c˜oes . . . 41

(3)

13 Propriedades de Vari´aveis Aleat´orias 49

13.1 M´edia, Esperan¸ca ou Valor Esperado . . . 49

13.2 Momentos . . . 51

13.3 Esperan¸ca Condicional . . . 57

13.4 Variˆancia Condicional . . . 58

14 Transformadas 60 14.1 Transformada de Laplace Unilateral para Fun¸c˜oes Cont´ınuas . . . 60

14.1.1 Analiticidade . . . 63

14.1.2 Propriedades da Transformada de Laplace . . . 65

14.1.3 Alguns Pares de Transformadas de Laplace . . . 67

14.2 Transformada Z para Fun¸c˜oes Discretas . . . 68

14.2.1 Analiticidade da Transformada Z dentro do c´ırculo unit´ario . . . 73

14.2.2 Propriedades da Transformada Z . . . 74 14.2.3 Pares de Transformadas Z . . . 75 15 Teoria de Filas 76 15.1 Introdu¸c˜ao . . . 76 15.2 A fila M/M/1 . . . 77 15.3 A fila M/G/1 . . . 81

15.3.1 A Vida Residual do Servi¸co . . . 81

15.3.2 A M´edia do Per´ıodo Ocupado . . . 83

15.3.3 A Transformada de Laplace da pdf do Per´ıodo Ocupado . . . 84

15.3.4 A transformada Z do n´umero presente na fila M/G/1 . . . 85

15.3.5 A transformada de Laplace do tempo gasto na fila M/G/1 FCFS . . . 87

15.4 A Fila M/G/1 com F´erias . . . 88

15.4.1 O Per´ıodo Ocioso na Fila M/G/1 com f´erias . . . 89

15.4.2 O Per´ıodo Ocupado na Fila M/G/1 com F´erias . . . 91

(4)

15.4.4 A transformada de Laplace do tempo gasto na fila M/G/1 com f´erias

FCFS . . . 93

15.5 Fila M/G/1 com disciplina LCFS sem interrup¸c˜ao de servi¸co . . . 94

15.6 M/G/1 com Disciplina LCFS com interrup¸c˜ao de servi¸co e continuidade . . . 95

15.7 M/G/1 com disciplina LCFS com interrup¸c˜ao de servi¸co sem continuidade . 96 15.8 Sistema de Filas com Classes de Usu´arios . . . 98

15.9 Lei da Conserva¸c˜ao . . . 103

15.10Redes de Filas M/M/1 . . . 104

15.10.1 Fila M/M/1 com realimenta¸c˜ao de Bernoulli . . . 106

15.10.2 Gargalos em Redes de Filas . . . 110

15.10.3 Rede BCMP . . . 110

16 Desigualdades e Limites 112 16.1 Normaliza¸c˜ao . . . 112

16.2 Fun¸c˜ao de Gauss ou Distribui¸c˜ao Normal . . . 114

16.3 Teorema do Limite Central . . . 114

16.4 Aproximando Distribui¸c˜oes . . . 117 16.5 Percentil . . . 118 16.6 Estimadores . . . 118 16.6.1 Estimando a M´edia . . . 118 16.6.2 Estimando a Variˆancia . . . 119 16.7 Intervalo de Confian¸ca . . . 120

16.7.1 Intervalo de Confian¸ca para a M´edia de uma Popula¸c˜ao com Variˆancia Desconhecida . . . 120

16.7.2 Intervalo de Confian¸ca para a M´edia de uma Popula¸c˜ao com Variˆancia Conhecida . . . 122

16.7.3 Distribui¸c˜ao χ2 (chi-square) . . . 122

16.7.4 Intervalo de Confian¸ca para a Variˆancia de uma Popula¸c˜ao Normal com M´edia Desconhecida . . . 122

(5)

16.7.6 Intervalo de Confian¸ca para Propor¸c˜oes . . . 125

16.7.7 Compara¸c˜ao de Alternativas . . . 127

17 Simula¸c˜ao 129 17.1 Gera¸c˜ao de N´umeros (Pseudo) Aleat´orios . . . 129

17.2 Simula¸c˜ao de M/M/1 . . . 131

17.3 Medidas de Desempenho . . . 134

17.4 C´alculo das Estat´ısticas . . . 135

17.5 Depura¸c˜ao do Modelo Simulado . . . 135

17.6 M´etodo de An´alise de Resultado . . . 136

17.7 Da Escolha das Sementes . . . 137

18 Cadeia de Markov em Tempo Discreto 139 18.1 Classifica¸c˜ao dos Estados . . . 140

18.2 Teoremas . . . 143

18.3 Tempo m´edio para ir de um estado a outro . . . 146

18.4 Espa¸co de Estados Infinito . . . 147

19 Cadeia de Markov em Tempo Cont´ınuo 154 19.1 CMTC Homogˆenea . . . 156

19.2 Processo Nascimento e Morte (Birth-Death Processes) . . . 157

19.3 Processo de Nascimento Puro com taxa constante . . . 160

19.4 Solu¸c˜ao de CMTC em Equil´ıbrio . . . 161

19.5 Tempo m´edio entre retornos a um estado . . . 162

(6)

1

Motiva¸c˜

ao

Experimento 1: Duas pessoas, A e B, lan¸cam, a cada vez, uma moeda ao ar. Ganha o jogo quem tira CARA primeiro. Suponhamos que A inicia o jogo. Assuma:

• Probabilidade de dar CARA = P{CARA} = p, 0 < p < 1 • Probabilidade de dar COROA = P{COROA} = 1 − p

Pergunta: Seria razo´avel ter p = 1 ou p = 0? O que significaria? Queremos obter:

P{ pessoa A ganhar o jogo } = PA

= P{ quem come¸ca ganha} = Pinicia

Solu¸c˜ao pelo m´etodo da enumera¸c˜ao de todas as possibilidades:

Evento Probabilidade Explica¸c˜ao

A ganha na jogada 1 p

A ganha na jogada 3 (1 − p)2p A perde, B perde e A ganha

A ganha na jogada 5 (1 − p)4p

A ganha na jogada 7 (1 − p)6p

· · · ·

PA = Pinicia P∞n=0(1 − p)2np = 1/(2 − p)

Recorda¸c˜ao: S´erie Geom´etrica

∞ X n=0 qn = 1 + q + q2+ · · · = 1 + q(1 + q + q2+ · · · ) = 1 + q ∞ X n=0 qn e ent˜ao P∞ n=0qn= 1/(1 − q). OBS.: P∞

n=0qn tem que convergir e portanto 0 < q < 1.

Em geral, an= a0qn−1 e P∞n=0an = 1−qa0 .

Tamb´em, Sn=Pni=1ai = a01−q−anq, onde an = aoqn−1.

0

(7)

Solu¸c˜ao recursiva:

Se A n˜ao ganhar na primeira jogada, a partir da segunda jogada seria como se B estivesse iniciando o jogo naquele momento e a probabilidade de B ganhar seria igual a Pinicia = PA.

Vamos montar o pensamento recursivo, condicionando na ocorrˆencia do resultado da primeira jogada. A t´ecnica de condicionamento ´e muito importante na solu¸c˜ao de problemas complexos.

Podemos ent˜ao escrever:

PA = P{A ganhar e deu cara na jogada 1} + P{A ganhar e deu coroa na jogada 1}

= P{ A ganhar | deu cara na jogada 1}× P{deu cara na jogada 1} + P{ A ganhar | deu coroa na jogada 1} × P{deu coroa na jogada 1} = 1 × p + (1 − p)× P{ B n˜ao ganha o jogo a partir da jogada 2} = p + (1 − p)(1−P{B ganha o jogo a partir da jogada 2})

= p + (1 − p)(1 − Pinicia)

= p + (1 − p)(1 − PA), e ent˜ao, PA= 1/(2 − p)

Conceito: probabilisticamente o jogo se repete ap´os o resultado de uma coroa, e tudo acontece como se o pr´oximo jogador estivesse iniciando o jogo novamente.

*

Experimento 2: lance uma moeda trˆes vezes. Seja X o n´umero de caras obtido e Y o n´umero de coroas obtido.

Eventos b´asicos: {coroa,cara}

Espa¸co de amostragem do experimento :

{(cara,cara,cara), (cara,cara,coroa), · · · , (coroa,coroa,coroa)}

Total de amostras = 23 = 8. Suponha uma moeda honesta, P {cara} = P {coroa} = 1/2.

espa¸co amostral prob X Y evento X < Y jogada 1 jogada 2 jogada 3

cara cara cara 1/8 3 0

cara cara coroa 1/8 2 1

cara coroa cara 1/8 2 1

cara coroa coroa 1/8 1 2 x

coroa cara cara 1/8 2 1

coroa cara coroa 1/8 1 2 x

coroa coroa cara 1/8 1 2 x

coroa coroa coroa 1/8 0 3 x

Comprove que:

P {Y = 0} = 1/8, P {Y = 1} = 3/8, P {Y = 2} = 3/8, P {Y = 3} = 1/8.

Vamos analisar o significado do condicionamento. Vamos calcular P {Y = n|X < Y }, para os valores poss´ıveis de n. Pela tabela acima, os eventos que garantem X < Y est˜ao

(8)

Fila de requisi¸c˜oes M´odulos de Mem´oria ---+----+---+----+----| rn+1 ---+----+---+----+----| rn ---+----+---+----+----| ... ---+----+---+----+----| r2 ---+----+---+----+----| r1 ---+----+---+----+----| ---+----+---+----+---- -->| 0 |---> | | | --- / ---| | ---> | S |-- ---| ---> | C |--->| 1 |---> | . | A | ---| . | N |-- ... | . | N | \ ---> | E | -->|n-1| | R |

---Figura 1 - Arquitetura da Mem´oria

marcados com x.

Observe que dos 8 eventos poss´ıveis, apenas 4 satisfazem a condi¸c˜ao X < Y . Isto significa que o espa¸co amostral ficou reduzido a 4 amostras, igualmente prov´aveis. Dentro deste novo espa¸co amostral, cada uma destas amostras tem probabilidade 1/4.

P {Y = n|X < Y } = 0 , n=0

= 0 , n=1

= 3/4 , n=2 = 1/4 , n=3

Observe que P {Y = n|Y > 2} =  0 n = 0, 1, 21 n = 3 . Neste caso s´o um ponto amostral ocorre e nele Y = 3.

*

Aplica¸c˜ao: avalia¸c˜ao de desempenho de mem´orias entrela¸cadas Seja considerada a arquitetura de mem´oria mostrada na Figura 1. < endere¸co de mem´oria > = < # do m´odulo >< palavra > As requisi¸c˜oes ri∈ {0, 1, · · · , n − 1}.

A fila de requisi¸c˜oes ´e analisada no ciclo anterior. M´odulos s˜ao alocados at´e que a requisi¸c˜ao a um m´odulo j´a ocupado ocorra. Um m´aximo de n requisi¸c˜oes ´e analisado por vez.

Seja k = n´umero de m´odulos alocados por ciclo, com pmf ( probability mass function -fun¸c˜ao de massa de probabilidade, pois a distribui¸c˜ao ´e discreta) P (k), k = 1, 2, · · · , n.

(9)

Bn =Pnk=1kP (k) △

= banda de passagem m´edia da mem´oria, B − n ≤ n. M ciclos de processador por ciclo de mem´oria tal que M ≤ n.

Suposi¸c˜ao: P (ri = j) = 1/n, ∀j. Os ri s˜ao i.i.d. (independentes e identicamente

distribu´ıdos).

Forma de escolher Possibilidades

2a. req. diferente da 1a. n−1 n

3a. 6= 2a. 6= 1a. n−2n

4a. 6= 3a. 6= 2a. 6= 1a. n−3n

.. . ... k 6= = anteriores n−k+1n k + 1 = um dos k anteriores k n Ent˜ao: P (k) = (n − 1)(n − 2) · · · (n − k + 1) nk−1 k n = k(n − 1)(n − 2) · · · (n − k + 1) nk Bn = n X k=1 kP (k) ≈ n0,56, 1 ≤ n ≤ 45.

Neste modelo, instru¸c˜oes e dados s˜ao tratados igualmente.

(10)

2

Revis˜

ao de An´

alise Combinat´

oria

Motiva¸c˜ao: C´alculo do N´umero de Placas com trˆes letras e quatro n´umeros LLLNNNN

Quantas placas com 7 identificadores s˜ao poss´ıveis, se as 3 primeiras posi¸c˜oes s˜ao letras e as outras 4 s˜ao n´umeros?

Assuma: alfabeto com 26 letras.

Resposta: 26.26.26.10.10.10.10 = 175.760.000 E se letras nem n´umeros podem ser repetidos? Resposta: 26.25.24.10.9.8.7 = 78.624.000

*

Princ´ıpio B´asico de Contagem

Se r experimentos s˜ao realizados nos quais o primeiro pode ter n1 resultados diferentes, e

para cada um desses n1resultados podemos ter n2 resultados do segundo experimento, e para

cada um desses poss´ıveis resultados dos 2 primeiros experimentos h´a n3 poss´ıveis resultados

do terceiro experimento e assim sucessivamente, o n´umero total de resultados poss´ıveis dos r experimentos ´e n1× n2 × · · · × nr.

*

Permuta¸c˜ao

Permuta¸c˜ao ´e um arranjo ordenado.

Dado o conjunto {a,b,c}, quantas permuta¸c˜oes de 3 letras s˜ao poss´ıveis? abc bac cab

acb bca cba

Use o princ´ıpio b´asico de contagem:

3 × 2 × 1 = 6 resultados poss´ıveis Para n posi¸c˜oes: n(n − 1)(n − 2) · · · 2.1 = n!

*

0

(11)

Aplica¸c˜ao

Temos 10 livros: 4 de matem´atica, 3 de qu´ımica, 2 de hist´oria e 1 de l´ınguas. Quantos arranjos s˜ao poss´ıveis, considerando que livros do mesmo t´opico ficam juntos na prateleira?

Resposta: mat. qu´ımica hist. l´ınguas

4! 3! 2! 1!

Arranjo dos t´opicos: 4!

Total: 4! x(4! x 3! x 2! x 1!) = 6912.

*

Permuta¸c˜ao com elementos repetidos

Quantas s˜ao as permuta¸c˜oes poss´ıveis da palavra P EP P ER?

Assumindo todas as letras diferentes, P1E1P2P3E2R, temos 6! permuta¸c˜oes.

Quando os P s n˜ao s˜ao distintos: 3! das permuta¸c˜oes acima s˜ao idˆenticas. P1E1P2P3E2R P1E1P3P2E2R P2E1P1P3E2R P2E1P3P1E2R P3E1P1P2E2R P3E1P2P1E2R

Se os Es n˜ao s˜ao distintos: 2! permuta¸c˜oes idˆenticas podem ser conseguidas a partir de cada uma das acima.

Ent˜ao, 3!2!6! permuta¸c˜oes s˜ao poss´ıveis. Generalizando:

Existem n1

n1!n2!···nr! permuta¸c˜oes de n objetos, onde n1 s˜ao idˆenticos, n2 s˜ao idˆenticos, etc.,

e n = n1+ n2+ · · · + nr.

Exemplo: Quantos sinais diferentes podem ser conseguidos com 9 bandeiras de igual formato, sendo 4 brancas, 3 vermelhas e 2 azuis?

Resposta: 4!3!2!9! .

(12)

Combina¸c˜oes

Dados n objetos, de quantas maneiras posso escolher r objetos? Exemplo: n=5, conjunto {A,B,C,D,E}, e r=3.

Se a ordem ´e relevante, ou seja, ABC diferente de CBA, ent˜ao:

5 × 4 × 3 = 60 arranjos poss´ıveis

Se a ordem n˜ao ´e relevante, ent˜ao cada uma das 3! permuta¸c˜oes s˜ao idˆenticas para cada grupo de 3 letras.

Ent˜ao: 5.4.33! = 10 = 5 3

 .

As combina¸c˜oes poss´ıveis de cinco elementos trˆes a trˆes s˜ao mostradas abaixo: ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE

5 3 = 5! 3!2! Em geral: n r = n n−r = n! r!(n−r)!, r ≤ n Conven¸c˜ao: n0 = 1, 0! = 1.

Exemplo: Sistema de cobran¸ca de ped´agio com 5 postos. Existem 5 cobradores, dos quais 2 s˜ao surdos e 3 s˜ao saud´aveis. Quantas s˜ao as ordena¸c˜oes em que duas pessoas surdas n˜ao s˜ao vizinhas?

B = cobrador que ouve bem S = cobrador surdo

Enumerando todas as possibilidades:

BBSBS BSBSB BSBBS SBSBB SBBSB SBBBS

Solu¸c˜ao:

Fixe os que ouvem bem : B B B

Preencha os surdos `a vontade nos espa¸cos, ou seja, escolha 2 espa¸cos dentre 4. Resposta: 42.

No caso geral de n cobradores saud´aveis e m surdos a resposta seria n+1m , com m ≤ n+1.

(13)

Identidade Combinatorial n r  =n − 1 r − 1  +n − 1 r  , 1 ≤ r ≤ n

onde convenciona-se que k+1k  = 0, ∀k ≥ 0. * Teorema Binomial (x + y)n= n X k=0 n k  xkyn−k

Aplica¸c˜ao: Quantos subconjuntos de um conjunto de n elementos podem ser formados?

n X k=0 n k  = (1 + 1)n= 2n.

Destes subconjuntos, 2n− 1 cont´em pelo menos 1 elemento.

*

Express˜ao Multinomial

De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr

tal que n =Pr i=1ni? Resposta: nn1 n−n1 n2  n−n1−n2 n3  · · · n−Pr−1 i=1ni nr  = n! n1!n2!···nr!

(14)

3

Aloca¸c˜

ao de bolas em urnas

Problema 1: Dadas n bolas e r urnas, de quantas maneiras podemos alocar as bolas nas urnas, sendo admitido que urnas fiquem vazias?

Solu¸c˜ao: Assuma 5 bolas (n = 5) e 3 urnas (r = 3). Represente o conte´udo das urnas pelo n´umero de bolas em cada urna e separe por v´ırgula estes n´umeros. Assim, uma aloca¸c˜ao de 3 bolas na primeira urna, 1 bola na segunda urna e 1 bola na terceira urna seria representada por <000,0,0>. Ent˜ao a solu¸c˜ao do problema pode ser colocada como:

, ,

- -

-Escolha dois tra¸cos dentre os 7 tra¸cos para posicionar as v´ırgulas, ou seja 72 maneiras. Em geral escolha (r − 1) tra¸cos dentre os (n + r − 1)tra¸cos, ou seja n+r−1r−1  = n+r−1

n  maneiras.

*

Problema 2: Assumindo que n ≥ r, de quantas forma podemos alocar as bolas nas urnas sendo que cada urna contenha pelo menos uma bola?

Solu¸c˜ao: Ap´os alocarmos r bolas para garantir a aloca¸c˜ao m´ınima de 1 bola por urna, sobram (n − r) para serem distribu´ıdas como no problema 1. Portanto, n−r+r−1r−1  = n−1

r−1

 maneiras.

Pelos resultados anteriores, assumindo que xi seja o conte´udo da i-´esima urna, com

Pi=r

i=1xi = N, existem n+r−1n  vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr =

N e xi ≥ 0, e existem n−1r−1



vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr =

N e xi > 0.

*

Aplica¸c˜ao: Capital para investimento $20. Investimento m´ınimo $1. Existem 4 oportuni-dades de investimento.

Pergunta: De quantas formas posso investir? x1+ x2+ x3 + x4 = 20, xi ≥ 0.

23

3 = 1771 maneiras, se todo o dinheiro necessita ser investido.

Se x5 representa a parte n˜ao investida ent˜ao:

x1+ x2+ x3 + x4+ x5 = 20, xi ≥ 0 244 = 10.626 possibilidades.

0

(15)

4

Teoria de Probabilidade

A teoria de probabilidade est´a baseada na observa¸c˜ao de que uma cole¸c˜ao grande de fatos aleat´orios gera regularidade estat´ıstica.

Modelo

• Espa¸co de Amostragem S = cole¸c˜ao de todos os eventos b´asicos exaustivos e exclusivos de um experimento. Os eventos b´asicos s˜ao chamados pontos do espa¸co S.

Exemplos:

– Experimento: lan¸car uma moeda. S= { cara, coroa } = { H,T }.

– Experimento: lan¸car uma moeda 2 vezes. S = { (H,T), (H,H), (T,H), (T,T) }.

– Experimento: tirar uma bola no escuro de uma urna contendo 3 bolas: preta, vermelha, e branca.

S = { p, v, b }. • Fam´ılia de Eventos E.

E ´e um conjunto de pontos de amostragem, satisfazendo determinada propriedade. Cor-responde a uma classe ou resultado no mundo real.

Exemplo:

Dado o experimento: lan¸car uma moeda 2 vezes.

Evento E = pelo menos uma cara ocorre = { (H,T),(T,H),(H,H) }.

Se qualquer um dos eventos b´asicos acima acontece, ent˜ao o evento E acontece. Evento F = pelo menos uma coroa ocorre = { (H,T),(T,H),(T,T) }.

Interse¸c˜ao de E e F = EF = {(H,T),(T,H) } = pelo menos uma cara e uma coroa. Diagramas de Venn

(16)

Leis de DeMorgan (Sn

i=1Ei)C = Tni=1EiC , ou seja, se um ponto n˜ao pertence a nenhum dos eventos Ei,

ent˜ao ele tem que pertencer `a interse¸c˜ao dos complementos destes eventos. (Tn

i=1Ei) C

=Sn

i=1EiC se um ponto n˜ao pertence `a interse¸c˜ao dos eventos Ei, ent˜ao ele

pertence a um dos complementos EC i .

***

Axiomas

1. ∀ evento E, 0 ≤ P (E) ≤ 1. 2. P (S) = 1.

3. Se E1e E2s˜ao eventos mutuamente exclusivos E1T E2 = Φ (”disjoint”) ent˜ao P (E1S E2) =

P (E1) + P (E2).

***

Defini¸c˜ao

{E1, E2, · · · , En} ´e um conjunto exaustivo de eventos se E1S E2S · · · S En= S.

O conjunto {Ei} ´e mutuamente exclusivo se EiT Ej = Φ para todo i 6= j.

Propriedades

ES EC = S, ET EC = Φ, EΦ = Φ, ES S = S, E S Φ = E,

SC = Φ, ΦC = S, ET S = E.

*

Parti¸c˜ao

{Ei} ´e uma parti¸c˜ao de S se e somente se {Ei} ´e exaustivo e mutuamente exclusivo.

Proposi¸c˜oes

1. P (EC) = 1 − P (E).

Demo: 1 = P (S) = P (ES EC) = P (E) + P (EC).

2. Se E ⊂ F , ent˜ao P (E) ≤ P (F ).

Demo: Se E ⊂ F , ent˜ao F = ES ECF . Sendo E e ECF mutuamente exclusivos,

pelo axioma 3 temos P (F ) = P (E) + P (ECF ), o que comprova o resultado pois

(17)

3. P (ES F ) = P (E) + P (F ) − P (EF ) Demo: Fa¸ca como exerc´ıcio.

Para trˆes elementos temos:

P(A S B S C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC). Para quatro elementos temos:

P(A S B S C S D) = P(A) + P(B) + P(C) + P(D) P(AB) P(AC) P(AD) -P(BC) - P(BD) - P(CD) + P(ABC) + P(ABD) + P(BCD) - P(ABCD).

Generalizando: P (E1 [ E2 [ · · ·[En) = n X i=1 P (Ei) − X i1<i2 P (Ei1Ei2) + · · · (−1)r+1 X i1<i2<···ir P (Ei1Ei2· · · Eir) + · · · (−1)n+1P (E1E2· · · En). A somaP

i1<i2<···<irP (Ei1Ei2· · · Eir) ´e feita sobre os

n

r poss´ıveis conjuntos de

(18)

5

Eventos igualmente prov´

aveis

Problema 1: Se duas bolas s˜ao retiradas aleatoriamente de uma urna contendo 6 bolas brancas e 5 pretas, qual ´e a probabilidade de que uma das bolas seja branca e a outra seja preta?

Solu¸c˜ao 1: Assuma cada bola marcada individualmente. Total de resultados poss´ıveis = 11 x 10 = 110 possibilidades. Maneiras em que a 1a bola ´e branca e a 2a ´e preta = 6 x 5 = 30.

Maneiras em que a 1a bola ´e preta e a 2a ´e branca = 5 x 6 = 30.

Probabilidade = # de eventos satisfazendo condi¸c˜ao# total de eventos = 11060 = 116.

Solu¸c˜ao 2: Assuma que a ordem ´e irrelevante. Total de resultados poss´ıveis = 112 = 55.

Resultados com uma bola preta e uma branca = 61 5

1 = 30.

Probabilidade = 3055 = 116.

*

Problema 2: Assuma um jogo de poquer jogado com 52 cartas. Qual a probabilidade de se receber uma sequˆencia (as cartas em sequˆencia e n˜ao todas do mesmo naipe)?

Solu¸c˜ao: Suponha a m˜ao: A, 2, 3, 4 e 5.

Cada carta pode ser de um dos 4 naipes. Existem portanto 45 possibilidades, e destas 4

s˜ao com cartas do mesmo naipe (”flush”).

Portanto temos (45− 4) sequˆencias do tipo (A 2 3 4 5), que n¨ao s˜ao ”flush”.

De quantas maneiras podemos organizar sequˆencias ? Resposta: 10 maneiras. (A 2 3 4 5), (2 3 4 5 6), · · · , (10 J Q K A)

Total de combina¸c˜oes de 5 cartas = 525 Probabilidade da sequˆencia = 10(45−4)

(52

5) ≈ 0, 0039

*

Problema 3: ”Full House”= (par + trinca ). Qual a probabilidade do ”full house”? Solu¸c˜ao: PPTTT 42 4

3 possibilidades na escolha dos naipes.

(19)

Possibilidades de se escolher a trinca depois de escolhido o par = 12 Probabilidade = 12.13.( 4 2).( 4 3) (52 5) ≈ 0, 0014 ***

Aplica¸c˜ao: Suponha que N homens lancem seus chap´eus no centro de uma sala. Os chap´eus s˜ao misturados e ent˜ao cada homem seleciona um chap´eu aleatoriamente.

Qual ´e a probabilidade de que nenhum homem selecione seu pr´oprio chap´eu? Se N → ∞ para que valor deve convergir a probabilidade?

Solu¸c˜ao: Seja Ei = evento de que o i-´esimo homem seleciona seu pr´oprio chap´eu.

P ( N [ i=1 Ei) = n X i=1 P (Ei) − X i1<i2 P (Ei1Ei2) + · · · (−1)n+1 X i1<i2<···in P (Ei1Ei2· · · Ein) + · · · (−1)N +1P (E1E2· · · EN)

= prob. de pelo menos 1 pessoa apanhar seu pr´oprio chap´eu.

Seja i1 o n´umero do chap´eu escolhido pelo homem H1. Se i1 = 1, ent˜ao H1 escolheu

seu pr´oprio chap´eu. Em geral, a amostra do experimento pode ser expressa pela n-tupla (i1, i2, · · · , in), onde ii ´e o chap´eu escolhido pelo homem Hi. O total de amostras ´e N!.

Uma amostra (1, 2, 3, · · · , N) indica que cada homem seleciona o seu pr´oprio chap´eu. Seja (Ei1Ei2· · · Ein) o evento em que cada um dos n homens i1, i2, · · · , in seleciona o seu

pr´oprio chap´eu. Observe que nada ´e assumido quanto aos outros homens. Dos (N − n) que sobraram, o primeiro pode escolher o chap´eu de (N −n) maneiras. O segundo de (N −n−1) e assim sucessivamente. As possibilidades s˜ao (N − n)!.

P (Ei1Ei2· · · Ein) = (N −n)!N ! .

H´a Nn termos em Pi1<i2<···<inP (Ei1Ei2, · · · Ein), ent˜ao

P i1<i2<···<inP (Ei1Ei2· · · Ein) = N n (N −n)! N ! = 1 n!, e ent˜ao P (SN i=1Ei) = 1 − 2!1 +3!1 − · · · + (−1)N +1 1N !.

Portanto a probabilidade de nenhum homem selecionar seu pr´oprio chap´eu ´e

1 2! −

1

3!+ · · · + (−1)N 1N !. Esta probabilidade tende para 1

e = 0, 36755 com N → ∞.

(20)

O problema dos Pontos: Tentativas independentes resultam em sucesso com probabili-dade p e fracasso com probabiliprobabili-dade 1 − p. Qual a probabiliprobabili-dade de que n sucessos ocorram antes de m fracassos?

Solu¸c˜ao (Fermat): Pn,m= prob. de n sucessos antes de m fracassos.

Pn,m = pPn−1,m+ (1 − p)Pn,m−1, n ≥ 1, m ≥ 1, com as condi¸c˜oes de contorno P0,m = 1

e Pn,0= 0.

Solu¸c˜ao (Pascal): Para que n sucessos ocorram antes de m fracassos ´e necess´ario e sufi-ciente que pelo menos n sucessos ocorram em n + m − 1 tentativas.

P (k sucessos em n + m − 1 tentativas ) = n+m−1k p

k(1 − p)n+m−1−k, e ent˜ao

Pn,m =Pn+m−1k=n n+m−1k pk(1 − p)n+m−1−k.

Associa¸c˜ao: A e B jogam um jogo em que A ganha 1 ponto quando um sucesso ocorre e B ganha um ponto quando um fracasso ocorre. A probabilidade desejada ´e a probabilidade de que A ganharia, se ao interromper o jogo, A necessitasse de n e B necessitasse de m pontos para ganhar.

Suponha que cada jogador coloca R$ C e cada um tem chance de ganhar de 1/2 = p. Se n pontos s˜ao necess´arios ao vencedor e o jogador A tem 1 ponto e B nenhum, ent˜ao, sendo o jogo interrompido nesta situa¸c˜ao, A tem o direito a 2CPn−1,n = 2CP2n−2

k=n−1 2n−2k ( 1 2)2n−2.

Mostre que o resultado acima ´e igual a C1 + (1/2)2n−2 2n−2 n−1 .

Explica¸c˜ao do Racioc´ınio de Pascal

Suponha 2 sucessos antes de 3 falhas. Analisamos as n + m − 1 = 4 primeiras tentativas no nosso experimento.

Porque?

Enumere todas as possibilidades, que constituem os eventos b´asicos de nosso espa¸co amostral: ffff,sfff,fsff,ssff,ffsf,sfsf,fssf,sssf,fffs,sffs,fsfs,ssfs,ffss,sfss,fsss,ssss.

Observe que analisando o resultado de 4 tentativas englobamos todos os eventos b´asicos que satisfazem o evento 2 sucessos antes de 3 falhas. Se analis´assemos apenas 3 tentativas isto n˜ao seria mais verdade, pois ter´ıamos por exemplo o evento b´asico ffs e ficar´ıamos na indecis˜ao do que ocorreria na quarta tentativa.

N´umero de sequˆencias com k=2 sucessos = 42 = 6 com prob. associada de p2(1 − p)2;

N´umero de sequˆencias com k=3 sucessos = 43 = 4 com prob. associada de p3(1 − p);

N´umero de sequˆencias com k=4 sucessos = 44 = 1 com prob. associada de p4(1 − p)0.

(21)

6

Probabilidade Condicional

Defini¸c˜ao: P (A|B) = P (AP (B)T B) = P (AB)P (B) , onde P (B) 6= 0.

O condicionamento `a ocorrˆencia do evento B restringe o espa¸co de amostragem aos pontos que satisfazem B. A divis˜ao por P (B) normaliza a medida.

*

Defini¸c˜ao: eventos estatisticamente independentes.

P (AB) = P (A)P (B) =⇒ P (A/B) = P (A), ou seja o conhecimento da ocorrˆencia de B n˜ao afeta a probabilidade do evento A.

*

Teorema da Probabilidade Total

Assuma que {Ai} ´e uma parti¸c˜ao. Ent˜ao P (B) =Pni=1P (AiB). Aplicando o conceito de

probabilidade condicional vem: P (B) =Pn

i=1P (B|Ai)P (Ai).

A probabilidade P (Ai) pode ser conhecida e a probabilidade P (B|Ai) pode ser mais f´acil

de ser calculada.

*

Teorema de Bayes: P (Ai|B) = PnP (B|Ai)P (Ai)

j=1P (B|Aj)P (Aj) =

P (AiB)

P (B) .

*

Aplica¸c˜ao: Dois carteadores gˆemeos jogam em um mesmo cassino, sendo que um deles ´e honesto e o outro desonesto. Suponha que voce jogou com um deles aleatoriamente e perdeu. Qual a probabilidade de que tenha jogado com o carteador desonesto?

DH = evento de jogar com o carteador honesto;

DD = evento de jogar com o carteador desonesto;

L = evento de perder; W = evento de ganhar.

P (L|DH) = 1/2; P (L|DD) = p, p > 1/2.

Quero calcular P (DD|L) = P(ter escolhido o desonesto | perdi).

(22)

P (DD|L) = P (L|DD)P (DP (L|DD)+P (L|DD)P (DD)H)P (DH) = p.1/2+1/2.1/2p.1/2 = 2p+12p .

Se p = 1, ou seja, o carteador ´e totalmente desonesto, ent˜ao P (DD|L) = 2/3. Porque?

(23)

7

Problemas de Aplica¸c˜

ao

O problema da ru´ına do jogador (resolvido por Bernoulli e publicado 8 anos ap´os sua morte em 1713)

Dois jogadores A e B apostam no resultado do lan¸camento de uma moeda. Com proba-bilidade p d´a cara e A ganha 1 de B. Com probaproba-bilidade 1 − p = q d´a coroa e B ganha 1 de A. O jogo termina, quando um dos jogadores est´a falido, e o outro tem todo o capital N.

Qual a probabilidade de A ganhar o jogo, quando ele inicia com i de capital e B com N − i de capital?

Seja Ei o evento em que A fica com todo o dinheiro, quando ele inicia com i e B com

N − i. O capital total ´e de N.

Condicionando no resultado do primeiro lan¸camento, obtemos: Pi = P (Ei) = P (Ei|H)P (H) + P (Ei|Hc)P (Hc)

= pP (Ei|H) + (1 − p)P (Ei|Hc)

= pP (Ei|H) + qP (Ei|Hc)

Observe que se no primeiro lan¸camento a moeda der cara, a situa¸c˜ao ap´os este lan¸camento ser´a A com i + 1 e B com N − (i + 1). Assim,

P (Ei|H) = Pi+1

P (Ei|Hc) = Pi−1, e ent˜ao

Pi = pPi+1+ qPi−1, i = 1, 2, · · · , N − 1

Resolu¸c˜ao da equa¸c˜ao

As condi¸c˜oes de contorno s˜ao P0 = 0 (se o capital inicial de A ´e zero, ent˜ao B j´a est´a com

todo o dinheiro, e o jogo termina instantaneamente) e PN = 1 (se o capital de B ´e zero e o

de A ´e N, ent˜ao A inicialmente est´a com todo o dinheiro, e o jogo termina instantaneamente com A vencedor).

Podemos reescrever a equa¸c˜ao como:

pPi+ qPi = pPi+1+ qPi−1, ou Pi+1− Pi = qp(Pi− Pi−1), i = 1, 2, · · · , N − 1.

0

(24)

Desenvolvendo: P2− P1 = q p(P1− P0) = q pP1 P3− P2 = q p(P2− P1) =  q p 2 P1 .. . Pi− Pi−1 = q p(Pi−1− Pi−2) =  q p i−1 P1 .. . PN − PN −1 = q p(PN −1− PN −2) =  q p N −1 P1

Somando as primeiras i − 1 equa¸c˜oes, obtemos:

Pi − P1 = P1  q p +  q p 2 + · · · +qp i−1 , ou Pi =      1−(qp)i 1−qp P1, se q p 6= 1 ou p 6= 1/2; iP1, se qp = 1 ou p = 1/2.

Usando o fato de que PN = 1, obtemos

P1 =      1−(pq) 1−(qp)N, para p 6= 1/2; 1 N, para p = 1/2. E finalmente, Pi =      1−(qp)i 1−(qp)N, para p 6= 1/2; i N, para p = 1/2.

Se Qi for a probabilidade de B ficar com todo o dinheiro, quando ele inicia com N − i,

por simetria Qi =      1−(pq)N−i 1−(pq)N , para q 6= 1/2; N −i N , para q = 1/2.

Al´em do mais, mostra-se que Pi+ Qi = 1, tanto para p = q = 1/2, como para q 6= 1/2.

Interpreta¸c˜ao: os jogadores n˜ao jogam por tempo indefinido.

Valores num´ericos: Se A come¸ca com 5, B com 10 e p = 1/2, ent˜ao P5 = 1/3. Se p = 0, 6,

(25)

***

Teste de Drogas

Duas drogas devem ser analisadas quanto ao seu poder de cura. A droga i tem probabi-lidade de cura Pi, que n˜ao ´e conhecida. Temos que tentar decidir se P1 > P2 ou P1 < P2.

Experimento: Pares de doentes s˜ao tratados sequencialmente, um membro do par recebendo a droga 1 e o outro membro a droga 2. Os resultados de cada par s˜ao determinados e o teste p´ara, quando o n´umero acumulado de curas de uma das drogas supera o n´umero acumulado de curas da outra droga por um valor M.

Xj = 1 se o paciente do j-´esimo par com droga 1 ´e curado0 em caso contr´ario

Yj = 1 se o paciente do j-´esimo par com droga 2 ´e curado0 em caso contr´ario

O experimento p´ara no N-´esimo par, quandoPN

i=1Xi−PNi=1Yi = M, e ent˜ao assumimos

que P1 > P2, ou PNi=1Yi −PNi=1Xi = M, e, ent˜ao, assumimos que P2 > P1. No primeiro

caso, a droga 1 ´e considerada melhor, e, no segundo caso, a droga 2 ´e a escolhida, como tendo o melhor desempenho.

Qual a probabilidade do teste apontar uma decis˜ao incorreta? Ou seja, na realidade P1 > P2 e o teste aponta P2 > P1?

Solu¸c˜ao: Vamos analisar o comportamento da vari´avel P Xi −P Yi. Esta vari´avel ´e

incrementada de 1 com probabilidade P1(1 − P2), decrementada de 1 com probabilidade

P2(1 −P1), e permanece inalterada com probabilidade P1P2+ (1 −P1)(1 −P2). Considerando

apenas os pares que provocam incrementos ou decrementos nesta vari´avel, podemos calcular PX = P (P Xi−P Yi subir 1| subiu ou desceu 1) = P1(1−PP12(1−P)+P22(1−P) 1), e

PY = P (P Xi−P Yi descer 1| subiu ou desceu 1) = P1(1−PP22(1−P)+P21(1−P) 1) = 1 − PX.

A probabilidade do teste indicar P2 > P1 ´e igual `a probabilidade do jogador 1 que ganha

com probabilidade PX perder M antes de alcan¸car 2M (significa que o outro jogador ´e o

vencedor, ou seja probabilidade QM).

P (teste indicar P2 > P1) = 1 − P (ganhar 2M antes de atingir zero, come¸cando com M)

= P (alcan¸car zero antes de atingir 2M, come¸cando com M )

= 1 − 1−( 1−PX PX )M 1−(1−PXPX )2M = 1 − 1−(PYPX)M 1−(PYPX)2M = 1−(PXPY)M 1−(PXPY)2M

Se P1 = 0, 6 e P2 = 0, 4 , a probabilidade de decis˜ao incorreta ´e 0,017 , quando M = 5, e

reduz a 0,0003 para M = 10.

(26)

8

Aplica¸c˜

ao: Confiabilidade (”Reliability”)

i

Evento Ai = componente i funciona perfeitamente.

Ri = confiabilidade do componente i = P (Ai). 2 1 Sistema S RS = P (A1A2) = P (A1)P (A2) = R1R2. 1 2 Sistema S

Redundˆancia: AS = ASc = A1T A2, ou seja, o sistema S s´o n˜ao funciona, se ambos os

componentes estiverem com defeito.

RS = P (A1 [ A2) 1 − RS = [1 − P (A1)][1 − P (A2)] RS = 1 − 2 Y i=1 (1 − Ri) Redundˆancia RS 1 0,80 2 0,96 3 0,992 4 0,9984 *

(27)

Sistema de Redundˆancia Tripla

Sistema opera com 3 elementos em paralelo, e o sistema est´a operacional, quando pelo menos 2 elementos est˜ao OK. Este sistema se chama TMR, ou seja, Triple Module Redun-dancy. RT M R =P3i=2 3 iR i(1 − R)3−i= 3R2− 2R3. RT M R =    > R se R > 1 2 = R se R = 1 2 < R se R < 12 ***

(28)

9

Experimentos de Bernoulli

Experimento:  sucesso f alha  0 1  bom ruim  cara coroa  probabilidade p probabilidade (1 − p) *

Recorda¸c˜ao: Multinomial

De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr

t.q. n =Pr i=1ni? R: nn 1  n−n1 n2  n−n1−n2 n3  · · · n−Pr−1 i=1ni nr  = n! n1!n2!···nr! *

Sequˆencia de Experimentos de Bernoulli

Repete-se o experimento de Bernoulli de forma independente.

Pergunta: Qual a probabilidade de k caras em n lan¸camentos de uma moeda? R: nkpk(1 − p)(n−k).

*

Problema: Qual a probabilidade de que em n passadas pelo c´odigo abaixo, ni execu¸c˜oes do

comando Si s˜ao efetuadas, sendo que CASE i ocorre com probabilidade pi?

CASE I OF 1: S1 ; 2: S2 ; ... k: Sk; END R: n1!n2n!!···n k!p n1 1 pn22· · · p nk k = n1nn2···nkp n1 1 pn22· · · p nk k Observe que P ∀n=Pk i=0ni h n n1n2···nkp n1 1 pn22· · · pnkk i = (p1+ p2+ · · · + pk)n= 1. ***

(29)

10

Vari´

aveis Aleat´

orias

Seja um espa¸co amostral S, com uma parti¸c˜ao formada de trˆes eventos: ganha, perde e empata. Uma vari´avel aleat´oria X ´e definida como uma associa¸c˜ao de valores aos pontos do espa¸co S. Por exemplo,

X(w) =    +5 w ∈ ganha 0 w ∈ empata −5 w ∈ perde

P (X = −5) = 3/8 = soma das prob. de todos os pontos ∈ perde P (X = 0) = 1/4

P (X = +5) = 3/8

Defini¸c˜ao: Uma vari´avel aleat´oria X no espa¸co amostral S ´e uma fun¸c˜ao X : S → R que associa um n´umero real X(w) a cada ponto de amostra w ∈ S.

Exemplo: Suponha que uma moeda ´e tal que P (H) = p e P (T ) = 1 − p.

A moeda ´e lan¸cada at´e que uma cara ocorra ou um total de n lan¸camentos ocorram. Se X representa o n´umero de vezes que a moeda foi lan¸cada, X ´e uma vari´avel aleat´oria que assume os valores 1, 2, · · · , n com as seguintes probabilidades:

P (X = 1) = P (H) = p P (X = 2) = P (T, H) = (1 − p)p P (X = 3) = P (T, T, H) = (1 − p)2p ... ... P (X = n − 1) = P (T, · · · , T, H) = (1 − p)n−2p P (X = n) = P (T, · · · , T, H) = (1 − p)n−1p + (1 − p)n−1(1 − p) = (1 − p)n−1 Mostrar que Pn i=1P (X = i) = 1. Demo: n X i=1 P (X = i) = p + (1 − p)p + · · · + (1 − p)n−2p + (1 − p)n−1 = p1 + (1 − p) + · · · + (1 − p)n−2 + (1 − p)n−1 = p1 − (1 − p)n−1 1 − (1 − p) + (1 − p) n−1 = 1

X assume um n´umero finito de valores.

*

Exemplo: X representa o n´umero de lan¸camentos at´e se obter uma cara. X ´e uma vari´avel aleat´oria que assume os valores 1, 2, · · · com as seguintes probabilidades:

0

(30)

P (X = 1) = P (H) = p P (X = 2) = P (T, H) = (1 − p)p P (X = 3) = P (T, T, H) = (1 − p)2p ... ... P∞ i=1P (X = i) = p + (1 − p)p + · · · = P∞ i=0p(1 − p)i = p 1−(1−p) = 1

X assume um n´umero infinito, por´em cont´avel, de valores.

***

10.1

Vari´

avel Discreta

Uma vari´avel aleat´oria discreta ´e aquela que assume um n´umero finito ou cont´avel de valores. Definimos P (X = i) como sendo a fun¸c˜ao de massa de probabilidade (PMF - Probability Mass Function) de X.

Vari´avel de Bernoulli

X ´e uma v.a. de Bernoulli, se P (X = 0) = P (fracasso) = 1 − p e P (X = 1) = P (sucesso) = p, com 0 < p < 1.

Vari´avel Binomial

Assuma n experimentos de Bernoulli. Seja Y o n´umero de sucessos nos n experimentos. Y ´e dita binomial com parˆametros (n, p).

P (Y = i) = n i  pi(1 − p)n−i, i = 0, 1, · · · , n n X i=0 P (Y = i) = (p + (1 − p))n= 1 *

Aplica¸c˜ao da Binomial: Um job executa n vezes pela CPU. Seja Xi o n´umero de acessos

ao disco i. No diagrama, p1+ p2 = 1. P (X1 = k) = nkpk1(1 − p1)n−k, 0 ≤ k ≤ n.

(31)

Poisson

Uma vari´avel aleat´oria X ´e Poisson com parˆametro λ > 0, se

P (i) = P (X = i) = λi i!e−λ, λ > 0. Observe que P∞ i=0P (i) = e−λ P∞ i=0λ i i! = e−λe λ = 1.

Muitos processos no mundo real podem ser aproximados pelo processo Poisson. Sabendo que pessoas podem tomar uma decis˜ao afirmativa com probabilidade p ou uma decis˜ao nega-tiva com probabilidade (1 − p), ent˜ao o n´umero de pessoas que tomam a decis˜ao afirmanega-tiva, dentre uma popula¸c˜ao com n pessoas, pode ser expresso pela distribui¸c˜ao binomial, ou seja, probabilidade de i pessoas optarem pela decis˜ao afirmativa = nipi

(1 − p)n−i. Mostra-se que a distribui¸c˜ao binomial tende para Poisson com λ = np, se n >> 1 e λ ´e moderado.

P (X = i) = nipi(1 − p)(n−i) = (n−i)!i!n! λni 1 −nλ n−i = n(n−1)(n−2)···(n−i+1)ni λ i i! (1−λ n)n (1−λ n)i Para n >> 1, (1 −nλ)n≈ e−λ, n(n−1)(n−2)···(n−i+1) ni ≈ 1 e (1 − λn)i ≈ 1. Ent˜ao, P (X = i) ≈ λi i!e−λ. *

Distribui¸c˜ao Geom´etrica

Seja X o tempo de permanˆencia num estado. Muda-se de estado com probabilidade p e permanece-se no estado com probabilidade 1 − p. Transi¸c˜oes de estado ocorrem em instantes bem definidos de tempo.

Ent˜ao:

P (X = n) = (1 − p)n−1p, n ≥ 1.

*

Binomial Negativa

Experimentos independentes com probabilidade p de sucesso (sequˆencia de experimen-tos de Bernoulli). Assuma que X ´e o n´umero de experimentos at´e que r sucessos sejam alcan¸cados.

P (X = n) = n−1r−1pr(1 − p)n−r, n ≥ r, pode ser entendida como

P(r-´esimo sucesso ocorre no n-´esimo experimento)

(32)

Aplica¸c˜ao: Problema de Banach

Duas caixas de f´osforos, uma no bolso esquerdo e outra no bolso direito. Considere o momento em que se descobre que uma das caixas est´a vazia, sendo aleatoriamente escolhidos os bolsos a cada palito. Assumindo que cada caixa tem inicialmente N f´osforos, qual ´e a probabilidade de que existam exatamente k f´osforos na outra caixa?

E = evento de que a caixa da direita est´a vazia e h´a k f´osforos na caixa da esquerda. O evento E acontece se a (N+1)-´esima escolha da caixa da direita ´e feita na N-k+N+1 tentativa, onde (N-k) corresponde ao n´umero de f´osforos j´a retirados da caixa da esquerda e N corresponde ao n´umero de f´osforos retirados da caixa da direita. Observe que j´a retiramos todos os fosforos da caixa da direita, quando, na tentativa de tirar mais um f´osforo do bolso direito, descobrimos que a caixa naquele bolso est´a vazia.

Usando a binomial negativa com p = 1/2, r = N + 1, n = 2N − k + 1 temos P (E) = 2N −kN (1

2)2N −k+1

A probabilidade procurada ´e 2P(E), porque a (N+1) escolha pode ocorrer ao encontrar-mos vazia tanto a caixa da direita quanto a caixa da esquerda.

***

10.2

Fun¸c˜

ao Distribui¸c˜

ao

A fun¸c˜ao de distribui¸c˜ao de probabilidade (PDF - Probability Distribution Function) ou fun¸c˜ao de distribui¸c˜ao acumulativa (CDF - Cummmulative Distribution Function) da vari´avel X ´e definida como

FX(x) = P (X ≤ x), −∞ < X < ∞

Propriedades:

• FX(.) ´e n˜ao decrescente.

• a < b =⇒ FX(a) ≤ FX(b).

• limx→∞FX(x) = 1 e limx→−∞FX(x) = 0.

• P (a < X ≤ b) = FX(b) − FX(a), porque {X ≤ b} = {a < X ≤ b} S {X ≤ a}.

***

10.3

Fun¸c˜

oes Singulares

S˜ao ´uteis para permitir estender o conceito de integra¸c˜ao e deriva¸c˜ao para fun¸c˜oes com discontinuidades. O emprego das fun¸c˜oes singulares ser´a exemplificado na descri¸c˜ao das

(33)

propriedades associadas `as vari´aveis aleat´orias. As fun¸c˜oes singulares mais ´uteis s˜ao:

• Fun¸c˜ao Impulso u0(t) ou δ(t) (Delta de Dirac)

u0(t) =⇒

R0+

0− u0(t)dt = 1

• Fun¸c˜ao Degrau u−1(t) ou u(t)

u−1(t) = 0 , se t < 0 1 , se t ≥ 0 u−1(t) =Rt 0−u0(y)dy • Fun¸c˜ao Rampa u−2(t) u−2(t) = tu−1(t) = t , se t ≥ 0 0 , se t < 0 u−2(t) =Rt 0−u−1(y)dy ***

10.4

Vari´

avel Aleat´

oria Cont´ınua

Uma vari´avel aleat´oria cont´ınua ´e aquela que assume um n´umero infinito e incont´avel de valores. Seja X, uma vari´avel aleat´oria cont´ınua. Dado um intervalo B, podemos exprimir P (X ∈ B) da forma abaixo:

P (X ∈ B) =R

BfX(x)dx

A fun¸c˜ao fX(x) ´e chamada de densidade de probabilidade ou comumente pdf (probability

density function) de X. Observe que P (X ∈ (−∞, ∞)) =R∞

−∞fX(x)dx = 1.

Por outro lado, podemos obter FX(a) = P (X ≤ a) = P (X < a) como

FX(a) =

Ra

−∞fX(x)dx

A fun¸c˜ao FX(.) ´e definida como a PDF (Probability Distribution Function) de X, ou

fun¸c˜ao de distribui¸c˜ao de probabilidade de X, ou ainda fun¸c˜ao de distribui¸c˜ao acumulativa (CDF) de X. Observamos ainda que,

P (X > a) = 1 − P (X ≤ a) = 1 − FX(a) =

R∞

a fX(x)dx

P (a < X ≤ b) =Rb

a fX(x)dx

Simplificando a nota¸c˜ao, representaremos fX(x) = f (x). Ent˜ao:

(34)

Observe que: P (x < X ≤ x + dx) = f(x)dx.

E se a fun¸c˜ao f (x) n˜ao possui impulsos em a e b, ent˜ao ser´a sempre v´alido dizer: P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b).

*

Distribui¸c˜ao Uniforme no intervalo (0,1)

X ´e uma vari´avel aleat´oria com distribui¸c˜ao uniforme no intervalo (0,1), se f (x) = u−1(x) − u−1(x − 1) e F (x) = u−2(x) − u−2(x − 1).

Exerc´ıcio: desenhar a pdf e a PDF de uma distribui¸c˜ao uniforme em (0,1).

*

Distribui¸c˜ao Uniforme no intervalo (a,b)

X ´e uma vari´avel aleat´oria com distribui¸c˜ao uniforme no intervalo (a,b), se f (x) = 1

b−a[u−1(x − a) − u−1(x − b)] e F (x) = 1

b−a[u−2(x − a) − u−2(x − b)].

Exerc´ıcio: desenhar a pdf e a PDF de uma distribui¸c˜ao uniforme em (a,b).

*

Distribui¸c˜ao Exponencial

X tem distribui¸c˜ao exponencial, se pdf f (x) = λe−λx , x ≥ 0

0 , x < 0 = λe−λxu−1(x) e CDF F (x) =Rx −∞f (y)dy =  1 − e−λx , x ≥ 0 0 , x < 0 = (1 − e−λx)u−1(x) *

Uma vari´avel aleat´oria ´e perfeitamente caracterizada pela sua pdf ou PDF.

*

O uso da fun¸c˜ao degrau na descri¸c˜ao da PDF e da CDF serve para explicitar as restri¸c˜oes no dom´ınio da fun¸c˜ao de forma clara e concisa.

(35)

10.5

Propriedade da Falta de Mem´

oria

Uma vari´avel X n˜ao negativa ´e sem mem´oria se P (X > s + t | X > t) = P (X > s), para s, t ≥ 0.

Se pensarmos que X ´e o tempo de vida de um componente, a probabilidade de que ele sobreviva mais s segundos dado que j´a funcionou t segundos, onde s ´e independente de t, ´e igual `a probabilidade inicial de que ele funcione por s segundos.

P (X > s + t | X > t) = P (X>s+t e X>t)P (X>t) =

P (X>s+t)

P (X>t) = P (X > s)

Uma condi¸c˜ao equivalente para definir falta de mem´oria seria

P (X > s + t) = P (X > s)P (X > t) ou 1 − F (s + t) = (1 − F (s))(1 − F (t)),

e pode-se provar que s´o a distribui¸c˜ao exponencial satisfaz a rela¸c˜ao dentre as fun¸c˜oes cont´ınuas.

*

Taxa de falha em Distribui¸c˜ao Exponencial

X ´e a vida de um componente. Suponha que o componente j´a funcionou por t segundos e queremos a probabilidade de que ele falhar´a num tempo adicional dt, ou seja X ≤ (t, t + dt).

P (X ∈ (t, t + dt) | X > t) = P (t<X≤t+dt)P (X>t) = f (t)dt 1−F (t)

λ(t) = 1−F (t)f (t) ´e chamada taxa de falha e representa a densidade de probabilidade de que um item com t segundos de vida ir´a falhar.

No caso de distribui¸c˜ao exponencial, λ(t) = λe−λt

e−λt = λ , ou seja, a taxa de falha ´e constante.

*

Falta de Mem´oria em Distribui¸c˜ao Discreta

Seja a distribui¸c˜ao geom´etrica P (N = k) = p(1 − p)k−1, k ≥ 1. Se N representa o

tempo de permanˆencia em um estado, pela pr´opria obten¸c˜ao de N a distribui¸c˜ao ´e sem mem´oria. A decis˜ao de deixar (probabilidade p) ou permanecer no estado (probabilidade (1 − p)) independe do passado. P (N > k1) =P∞k=k1+1p(1 − p) k−1 = p(1 − p)k1P∞ k−k1=1(1 − p) k−k1−1 = p(1 − p)k11 p = (1 − p) k1 P (N > k2) = (1 − P )k2 P (N > k1+ k2) = (1 − p)k1+k2 = P (N > k1) P (N > k2)

(36)

*

Pode-se provar que a ´unica distribui¸c˜ao cont´ınua sem mem´oria ´e a exponencial. Da mesma forma, prova-se que a ´unica distribui¸c˜ao discreta sem mem´oria ´e a geom´etrica.

***

10.6

Rela¸c˜

ao entre Distribui¸c˜

ao Exponencial e Processo Poisson

Suponha que chegadas ocorram num intervalo T , segundo um processo Poisson. O n´umero de chegadas durante um determinado intervalo de tempo T ´e dado pela f´ormula de Poisson:

P {k chegadas durante T } = Pk(T ) =

(λT )k

k! e

−λT

onde λ ´e a taxa m´edia de chegadas de fregueses por segundo.

Pode-se ver que para o Processo Poisson P {nenhuma chegada em T } = e−λT. Supondo

que uma chegada ocorreu no instante zero, a probabilidade de que a pr´oxima chegada ocorra entre T e (T + dt), assumindo independˆencia entre eventos, ´e:

P {pr´oxima chegada em (T, T + dt) } =

= P {nenhuma chegada em (0, T ) e pelo menos 1 chegada em (T, T + dt)} = P {nenhuma chegada em (0, T ) }P { 1 chegada em (T, T + dt)}

= e−λTe−λdtλdt = λe−λ(T +dt)dt = λe−λTdt (dt → 0)

Observe que a probabilidade de duas ou mais chegadas no intervalo (T, T + dt) ´e O(dt2),

ou seja, cai igual ou mais rapidamente que dt2.

Se f (x) ´e O(xn) com x → 0, ent˜ao lim

x→0 f (x)xn < ∞.

Em geral, a nota¸c˜ao O(g(x)) com x → x0 refere-se a qualquer fun¸c˜ao que (com x → x0)

decai a zero pelo menos t˜ao r´apido quanto g(x) (onde g(x) > 0), isto ´e, lim x→x0 O(g(x)) g(x) < ∞

Por outro lado, a nota¸c˜ao o(g(x)) com x → x0 refere-se a qualquer fun¸c˜ao que (com

x → x0) decai a zero mais r´apido que g(x) (onde g(x) > 0), isto ´e,

lim x→x0 o(g(x)) g(x) = 0

Se levamos em conta apenas os comportamentos O(dt), isto ´e, uma aproxima¸c˜ao de primeira ordem, ent˜ao precisamos considerar apenas uma chegada no evento pelo menos uma chegada acima.

(37)

*

Se analisarmos o caminho inverso, isto ´e, supondo o tempo entre chegadas exponencial com parˆametro λ, e assumindo X1 o instante da primeira chegada (assuma que no instante zero

algu´em chegou) e X2 o tempo entre a primeira e a segunda chegada, podemos verificar que:

P {0 chegadas em T } = P (X1 > T ) = e−λT. P {1 chegada em T } = P (X1 < T e X2+ X1 > T ) =R∞ 0 P (X1 < T e X2+ X1 > T | t ≤ X1 ≤ t + dt)P (X1 ∈ (t, t + dt)) =RT O P (X2 > T − t)λe−λtdt = λRT 0 e−λ(T −t)e−λtdt = λT e−λT

Estas probabilidades concordam com o resultado dado pela f´ormula de Poisson.

Demonstra-se que se um processo possui tempo entre chegadas exponencial, ele ´e um Processo Poisson.

O processo Poisson ser´a estudado em Cadeia de Markov como exemplo de um Processo de Nascimento Puro. No cap´ıtulo de Cadeia de Markov, deduziremos a f´ormula de Poisson.

***

10.7

Vari´

avel Aleat´

oria Mista

Uma vari´avel aleat´oria mista ´e aquela que engloba tanto o comportamento discreto, com concentra¸c˜oes de probabilidades em pontos determinados, como o comportamento cont´ınuo em outros intervalos.

Um bom exemplo de vari´avel mista ´e a exponencial truncada ˆX para o intervalo [a, b]. Esta exponencial ´e obtida a partir de uma exponencial X, concentrando no ponto a a pro-babilidade P (X < a) = 1 − e−λa e no ponto b a probabilidade P (X > b) = e−λb. A pdf de

ˆ

X ´e dada por

fXˆ(x) = (1 − e−λa)u0(x − a) + λe−λx[u−1(x − a) − u−1(x − b)] + e−λbu0(x − b)

Para obter a CDF FXˆ = P ( ˆX < x), devemos integrar a pdf mista fXˆ(x). Os termos

(1 − e−λa)u

0(x − a) e e−λbu0(x − b), que envolvem uma constante multiplicando um impulso,

podem ser integrados diretamente fornecendo os degraus (1−e−λa)u

−1(x−a) e e−λbu−1(x−b),

(38)

Cuidado maior deve ser tomado ao se integrar λe−λx[u

−1(x−a)−u−1(x−b)], que pode ser

escrita como λe−λxu

−1(x − a) − λe−λxu−1(x − b). Vamos integrar cada termo separadamente,

respeitando o dom´ınio de integra¸c˜ao definido por cada fun¸c˜ao degrau.

Integrando o primeiro termo de a a x, obtemos (e−λa − e−λx) para x > a, ou seja,

(e−λa− e−λx)u

−1(x − a).

Integrando o segundo termo de b a x, obtemos (e−λb− e−λx) para x > b, ou seja,

(e−λb− e−λx)u

−1(x − b).

Ent˜ao, FXˆ(x) = (1 − e−λa)u−1(x − a) + e−λbu−1(x − b) + (e−λa− e−λx)u−1(x − a)

−(e−λb− e−λx)u

−1(x − b) = (1 − e−λx)u−1(x − a) + e−λxu−1(x − b).

De fato, a CDF FXˆ(x) = (1 − e−λx)u−1(x − a) + e−λxu−1(x − b) ´e nula para x < a. Para

a < x < b, a CDF ´e dada por e−λa− e−λx, como esperado. Observe que para x > b os termos

exponenciais se anulam e a CDF fica constante em 1, como deve ser. A express˜ao com uso das fun¸c˜oes singulares simplifica a descri¸c˜ao da fun¸c˜ao, mantendo a clareza matem´atica.

(39)

11

Fun¸c˜

oes de Vari´

aveis Aleat´

orias

Quest˜ao:

Assuma Y = G(X) = e−X, onde X e Y s˜ao duas vari´aveis aleat´orias. Se −∞ < X < ∞,

ent˜ao Y > 0. Y ´e uma fun¸c˜ao decrescente de X. Dado fX(x), como obter fY(y)?

Os passos s˜ao os seguintes:

1. {Y ≤ y} = {e−X ≤ y} = {−X ≤ ln y} = {X ≥ − ln y} 2. FY(y) = P {Y ≤ y} = P {X ≥ − ln y} = R∞ − ln yfX(x)dx 3. fY(y) = dyd h R∞ − ln yfX(x)dx i , y > 0

Para realizar o ´ultimo passo, relembrar a Regra de Leibnitz: d dt " Z h(t) g(t) f (τ, t)dτ # = Z h(t) g(t) ∂f (τ, t) ∂t dτ + f (h(t), t) dh dt − f(g(t), t) dg dt Aplicando Leibnitz, temos:

fY(y) = Z ∞ − ln y dfX(x) dy dx + fX(∞) d∞ dy − fX(− ln y) d(− ln y) dy = 0 + 0 − fX(− ln y)(− 1 y) = fX(− ln y) y , y > o Observe que Y = G(X) e X = G−1(Y ) = − ln Y .

E tamb´em que dY /dX = dG(X)/dX = −e−X = −Y e dX/dY = dG−1(Y )/dY = −1/Y .

Pelas rela¸c˜oes obtidas acima, podemos escrever: fY(y) = −fX(G−1(y))dG −1(y) dy = −fX(x) dx dy = fX(x) dx dy A express˜ao dx dy = dG

−1(y)/dy ´e o chamado Jacobiano da transforma¸c˜ao Y = G(X).

Como G ´e uma fun¸c˜ao decrescente, surge o sinal negativo.

***

0

(40)

11.1

Metodologia

1. {Y ≤ y} = {X ∈ B(y)} 2. FY(y) = P {Y ≤ y} = P {X ∈ B(y)} = R B(y)fX(x)dx 3. fY(y) = dyd h R B(y)fX(x)dx i

, (aplicar regra de Leibnitz).

* Exemplo: Y = X2. 1. {Y ≤ y} = {−√y ≤ X ≤√y} 2. FY(y) = R√y −√yfX(x)dx

3. fY(y) = fX(√y)(12)(y−

1 2) − fX(−√y)(−1 2)(y− 1 2) = fX(√y)+fX(− √y) 2√y *

Exemplo: Seja X uma v.a. com fX(x) e FX(x). Encontre a pdf de Y = FX(X). Observe

que FX(.) ´e uma fun¸c˜ao monotonicamente n˜ao decrescente (pois ´e uma fun¸c˜ao distribui¸c˜ao).

1. {Y ≤ y} = {FX(X) ≤ y} = {X ≤ FX−1(y)}

2. FY(y) =

RFX−1(y)

−∞ fX(x)dx = FX(FX−1(y)) = y

3. fY(y) = dFdyY(y) = 1 0 ≤ y ≤ 10 outros casos

Conclus˜ao: Y ´e uniforme em (0,1).

*

Problema: Dadas X com fX(x) e Y com fY(y), ´e poss´ıvel encontrar a transforma¸c˜ao

Y = G(X)?

Z = FX(X) e W = FY(Y ) s˜ao vari´aveis uniformes em (0,1). Se W ´e uniforme em (0,1),

ent˜ao Y = FY−1(W ) tem pdf fY(y), assumindo que a inversa existe.

Ent˜ao, Y = FY−1(FX(X)) transforma fX(x) em fY(y).

Exemplo: Seja X uniforme em (0,1). Se Y ´e exponencial, podemos afirmar que

Y = FY−1(FX(X)) e lembrando que FX(X) = X, 0 ≤ X ≤ 1, por ser X uma v.a.

uniforme em (0,1), ent˜ao Y = FY−1(X) = −ln(1−X)λ = −ln Xλ , visto que 1 − X = X para distribui¸c˜ao uniforme em (0,1).

(41)

* Exerc´ıcio: Seja fX(x) = e −x, x ≥ 0 0, x < 0 e fY(y) =  1 2√y, 0 ≤ y ≤ 1 0, outros casos . Mostre que Y = (1 − e−X)2. Obtendo as PDFs temos; FX(X) = 1 − e −x, x ≥ 0 0, x < 0 FY(y) = Ry 0 1 2√udu = √ u|y0 =    √ y, 0 ≤ y ≤ 1 0, y < 0 1, y ≥ 1

Vimos que Z = FX(X) = 1 − e−X ´e uniforme em (0,1). Similarmente, W =

√ Y ´e uniformemente distribu´ıda em (0,1).

Igualando Z = W e resolvendo em Y obtemos Y = (1 − e−X)2.

***

11.2

Gera¸c˜

ao de Distribui¸c˜

oes

O fato de Y = FX(X) ser uma distribui¸c˜ao uniforme ´e usado em simula¸c˜ao para gerar

amos-tas de vari´aveis aleat´orias com uma determinada distribui¸c˜ao. Suponhamos que queremos obter uma amostra da vari´avel aleat´oria X, que possui PDF FX(x).

Princ´ıpio: U = FX(X) ´e uniforme (0,1). Consequentemente FX−1(U) = X.

Procedimento:

• Obter u0, uma amostra da distribui¸c˜ao uniforme em (0,1), a partir de um gerador de

n´umeros aleat´orios

• Obter x0 = FX−1(u0), que ´e uma amostra de X.

Exemplo:

FX(x) = 1 − e−λx, PDF de uma distribui¸c˜ao exponencial

u0 = 1 − e−λx0 1 − u0 = e−λx0 ln(1 − u0) = −λx0 x0 = −ln(1 − u0 ) λ

(42)

Como (1 − u0) tem a mesma pdf de u0, na pr´atica usamos x0 = −ln(uλ0), economizando a

opera¸c˜ao de subtra¸c˜ao. No caso discreto:

Assuma P (N = k) = p1u0(k −a1) + p2u0(k −a2) + p3u0(k −a3), ou seja, N assume valores

ai com probabilidade pi, i = 1, 2, 3. Obtemos P (N ≤ k) = p1u−1(k − a1) + p2u−1(k − a2) +

p3u−1(k − a3). Ent˜ao, a partir de u0 podemos determinar k0 da forma abaixo:

0 < u0 ≤ p1 = P (N ≤ 1) =⇒ k0 = a1

p1 = P (N ≤ 1) < u0 ≤ p1+ p2 = P (N ≤ 2) =⇒ k0 = a2

p1+ p2 = P (N ≤ 2) < u0 ≤ 1 =⇒ k0 = a3

Aplica¸c˜ao: Gerar uma amostra de uma distribui¸c˜ao geom´etrica. P (N = k) = pk−1(1 − p), k ≥ 1;

P (N ≤ k) =

k

X

i=1

pi−1(1 − p) = 1 − pk = FN(k); (fa¸ca esta passagem);

E[N] = 1 1 − p. Deveremos ter: 0 < u0≤ P (N ≤ 1) =⇒ k0 = 1 P (N ≤ 1) < u0≤ P (N ≤ 2) =⇒ k0 = 2 .. . P (N ≤ j − 1) < u0 ≤ P (N ≤ j) =⇒ k0 = j ou seja 1 − pj−1 < u 0 ≤ 1 − pj =⇒ k0 = j. Fa¸camos 1 − pk−1 < u

0 ≤ 1 − pk. Tirando o logaritmo, obtemos

ln(1 − u0)

ln p ≤ k <

ln(1 − u0)

ln p + 1

Como a amostra da geom´etrica ´e um n´umero inteiro, e a m´edia da geom´etrica ´e dada por 1

1−p, ent˜ao de forma mais geral podemos escrever que

k0 =



ln(1 − u0)

ln(1 − 1/m´edia) 

Como 1 − U ´e tamb´em uniforme, podemos eliminar uma subtra¸c˜ao e escrever

k0 =



ln u0

ln(1 − 1/m´edia) 

(43)

*

Exerc´ıcio: Mostre como seria gerada uma amostra do tamanho de uma mensagem em uma rede Ethernet, sabendo que a pdf do tamanho da mensagem ´e dada por P (X = i) =

3 4u0(i − 50) + 1 16 1 450(u−1(i − 50) − u−1(i − 500)) + 3 16u0(i − 500), i > 0.

Observe que a PDF poderia ser facilmente obtida integrando cada um dos termos da pdf: P (X ≤ i) = 34u−1(i − 50) + 1 16 1 450(u−2(i − 50) − u−2(i − 500)) + 3 16u−1(i − 500), i > 0. ***

(44)

12

Distribui¸c˜

ao Conjunta Cumulativa de V.As.

A fun¸c˜ao de distribui¸c˜ao conjunta cumulativa de duas vari´aveis aleat´orias pode ser definida como:

FXY(a, b) = P (X ≤ a, Y ≤ b), −∞ < a, b < ∞.

A distribui¸c˜ao de X pode ser obtida a partir de FXY(., .) :

FX(a) = P (X ≤ a) = P (X ≤ a, Y ≤ ∞) = FXY(a, ∞)

FX(b) = FXY(∞, b).

No caso discreto temos: fXY(a, b) = P (X = a, Y = b).

fX(a) = P (X = a) =P∞b=−∞fXY(a, b) =P∞b=−∞P (X = a, Y = b)

=P∞

b=−∞P (X = a|Y = b)p(Y = b).

*

Se X e Y s˜ao conjuntamente cont´ınuas, ent˜ao: P (X ∈ A, Y ∈ B) =R

B

R

AfXY(x, y)dxdy

fXY(., .) = fun¸c˜ao densidade de probabilidade conjunta.

Ent˜ao: P (X ∈ A) = P (X ∈ A, Y ∈ (−∞, ∞) =R∞ −∞ R AfXY(x, y)dxdy = R AfX(x)dx Consequentemente, fX(x) = R∞ −∞fXY(x, y)dy *

Vari´aveis Aleat´orias Independentes X e Y s˜ao independentes se, ∀a, ∀b

P (X ≤ a, Y ≤ b) = P (X ≤ a)P (Y ≤ b) ou FXY(a, b) = FX(a)FY(b), ∀a, b ou

fXY(x, y) = fX(x)fY(y)

*

0

(45)

Exerc´ıcio: Encontre a pdf da menor de K vari´aveis aleat´orias, cada uma distribu´ıda exponencialmente com parˆametro λ.

Seja Y = min {X1, X2, · · · , XK}.

P (Y > y) = P (X1 > y, X2 > y, · · · , XK > y)

= P (X1 > y)P (X2 > y). · · · .P (XK > y)

= e−λye−λy· · · e−λy = e−Kλy.

Portanto, Y ´e exponencial com parˆametro Kλ. Interpreta¸c˜ao:

Se temos K fontes exponenciais, a fonte i com parˆametro λi, a distribui¸c˜ao do tempo at´e

a pr´oxima partida (de qualquer uma das fontes) ´e exponencial com parˆametroP

iλi.

Dizendo de outra forma: a uni˜ao de K fluxos Poisson ´e tamb´em um fluxo Poisson com taxa igual `a soma das taxas.

*

Exerc´ıcio: Sejam dadas duas vari´aveis aleat´orias X1 e X2, com parˆametros λ1 e λ2. Calcule

P (X1 > X2). P (X1 > X2) = Z ∞ 0 P (X1 > X2|X2 ∈ (t, t + dt))P (X2 ∈ (t, t + dt)) = Z ∞ 0 P (X1 > t)λ2e−λ2tdt = λ2 Z ∞ 0 e−λ1te−λ2tdt = λ2 Z ∞ 0 e−(λ1+λ2)tdt = λ2 e−(λ1+λ2)t −(λ1+ λ2)| ∞ 0 = λ2 λ1+ λ2 Significado: λ2

λ1+λ2 ´e a probabilidade de que uma pessoa com quantidade de servi¸co distribu´ıda

expo-nencialmente com parˆametro λ2 termine de ser atendida primeiro que uma segunda pessoa

com servi¸co exponencialmente distribu´ıdo com taxa λ1, dado que num dado instante

am-bas as pessoas est˜ao sendo servidas simultaneamente. Observe n˜ao ´e preciso que amam-bas as pessoas comecem a ser atendidas no mesmo instante, porque a exponencial ´e sem mem´oria.

(46)

Aplica¸c˜ao: Se chegadas ocorrem segundo um Processo Poisson com taxa λ1 e partidas

ocorrem segundo um processo Poisson com taxa λ2, λ1λ1 2 ´e a probabilidade de que uma

chegada ocorra antes de uma partida. Estes processos ocorrem em uma fila M/M/1 (chegada Poisson, servi¸co exponencial).

Tudo se passa como se tiv´essemos dois fluxos Poisson: um de chegada e outro de partida. O tempo at´e o pr´oximo evento (chegada ou partida) ´e exponencial com parˆametro igual `a soma dos parˆametros das exponenciais envolvidas.

*

Exerc´ıcio: Dadas trˆes vari´aveis aleat´orias exponenciais independentes X1, X2 e X3, calcule

a probabilidade de que X1 seja o m´aximo entre elas.

Existem duas maneiras de atacar o problema:

1. Pense em cada uma das vari´aveis como uma fonte Poisson. Para que X1seja o m´aximo

ser´a preciso que a partida desta fonte ocorra por ´ultimo. Os eventos poss´ıveis s˜ao: partida de 2, partida de 3 e partida de 1 ou

partida de 3, partida de 2 e partida de 1. Somando as duas probabilidades temos:

P {X1 > X2, X1 > X3} = λ1λ223λ1λ3 3 +λ1λ323λ1λ2 2 2. P {X1 > X2, X1 > X3} = Z ∞ x=0P {X 1 > X2, X1 > X3|x < X1 ≤ x + dx}P {x < X1 ≤ x + dx} = Z ∞ x=0P {x > X 2, x > X3}λ1e−λ1xdx = Z ∞ x=0(1 − e −λ2x)(1 − e−λ3x 1e−λ1xdx = Z ∞ x=0 λ1e−λ1xdx − λ1 Z ∞ x=0 e−(λ1+λ2)xdx − λ1 Z ∞ x=0 e−(λ1+λ3)xdx + λ 1 Z ∞ x=0 e−(λ1+λ2+λ3)xdx = λ1  e−λ1x −λ1 ∞ 0 − λ1  e−(λ1+λ2)x −(λ1+ λ2) ∞ 0 − λ1  e−(λ1+λ3)x −(λ1+ λ3) ∞ 0 + λ1  e−(λ1+λ2+λ3)x −(λ1+ λ2+ λ3) ∞ 0 = 1 − λ λ1 1 + λ2 − λ1 λ1+ λ3 + λ1 λ1+ λ2+ λ3 =  λ2 λ1+ λ2+ λ3   λ3 λ1+ λ3  +  λ3 λ1+ λ2+ λ3   λ2 λ1+ λ2  *

(47)

Exerc´ıcio: Dadas trˆes vari´aveis aleat´orias exponenciais independentes X1, X2 e X3, calcule a probabilidade de P {X1 > X2|X1 > X3, X2 > X3}. Solu¸c˜ao: P {X1 > X2|X1 > X3, X2> X3} = P {X 1> X2, X1 > X3, X2 > X3} P {X1 > X3, X2 > X3}

Para calcular P {X1 > X2, X1 > X3, X2 > X3} condicione duas vezes: uma em X1 e a

segunda em X2, por exemplo. Obtemos

P {X1> X2, X1 > X3, X2 > X3} = = Z ∞ y=0P {X 1 > X2, X1 > X3, X2 > X3|y < X1 ≤ y + dy}P {y < X1 ≤ y + dy} = Z ∞ y=0P {y > X 2, y > X3, X2> X3}P {y < X1 ≤ y + dy} = Z ∞ y=0 Z ∞ z=0P {y > z, y > X 3, z > X3}P {y < X1 ≤ y + dy}P {z < X2 ≤ z + dz} = Z ∞ y=0 Z y z=0P {z > X 3}P {y < X1 ≤ y + dy}P {z < X2 ≤ z + dz}

= ap´os resolver as integra¸c˜oes e simplificar =  λ2 λ1+ λ2   λ3 λ1+ λ2+ λ3 

Podemos observar que o primeiro termo da resposta corresponde `a probabilidade de X2

ser menor que X1 e o segundo termo corresponde `a probabilidade de X3 ser menor dos

trˆes Xi. Esta ´e a resposta esperada quando pensamos em trˆes fontes Poisson independentes

e usamos a propriedade da falta de mem´oria da exponencial e a composi¸c˜ao de processos Poisson.

Como P {X1 > X3, X2 > X3} = λ1λ323, a resposta do problema ´e λ1λ2 2. A

inter-preta¸c˜ao ´e: uma vez que X1 e X2 s˜ao ambos maiores que X3, a rela¸c˜ao entre eles n˜ao ´e

influenciada por este fato (o que ´e razo´avel j´a que a exponencial ´e sem mem´oria).

*

Exerc´ıcio: Dado X1 e X2 exponenciais, calcule P (X1 ≤ t|X1 < X2), isto ´e, calcule a

distribui¸c˜ao de uma v.a. exponencial sabendo que ela ´e menor que outra v.a. exponencial. ILUSTRAC¸ ˜AO: Se X2 representa o tempo de servi¸co de um freguˆes num banco, e X1

representa o tempo de chegada do pr´oximo freguˆes que ainda encontra o freguˆes em servi¸co, ent˜ao a distribui¸c˜ao do tempo de chegada ´e dada pela f´ormula solicitada.

(48)

Solu¸c˜ao: P (X1 ≤ t|X1 < X2) = P (X1 ≤ t, X1 < X2) P (X1 < X2) = λ1+ λ2 λ1 P (X1 ≤ t, X1 < X2) = λ1+ λ2 λ1 Z ∞ y=0 P (X1 ≤ t, X1 < X2|y < X2 ≤ y + dy)P (y < X2 ≤ y + dy) = λ1+ λ2 λ1 Z t y=0 P (X1 ≤ t, X1 < y)fY(y)dy + Z ∞ y=t P (X1 ≤ t, X1 < y)fY(y)dy  = λ1+ λ2 λ1 Z t y=0 P (X1 < y)fY(y)dy + Z ∞ y=t P (X1 ≤ t)fY(y)dy  = λ1+ λ2 λ1 Z t y=0(1 − e −λ1y 2e−λ2ydy + Z ∞ y=t(1 − e −λ1t 2e−λ2ydy  = λ1+ λ2 λ1 Z ∞ y=0 λ2e−λ2ydy − λ2 Z t y=0 e−(λ1+λ2)ydy − e−λ1t Z ∞ y=t λ2e−λ2ydy  = λ1+ λ2 λ1  1 − λ λ2 1+ λ2(1 − e −(λ1+λ2)t) − e−λ1te−λ2t  = 1 − e−(λ1+λ2)t

que ´e a distribui¸c˜ao de uma exponencial com taxa λ1+ λ2.

Observe que o conhecimento de que X1 < X2 afeta a distribui¸c˜ao de X1

(49)

13

Propriedades de Vari´

aveis Aleat´

orias

13.1

edia, Esperan¸ca ou Valor Esperado

Define-se esperan¸ca (m´edia ou valor esperado) da vari´avel X, repesentada pela nota¸c˜ao Es-peran¸ca de X = E[X] = X, como

• Caso Discreto: E[X] =P

∀kxkP (X = xk).

• Caso Cont´ınuo: E[X] =R∞

−∞xfX(x)dx =

R∞

−∞xP (x < X ≤ x + dx).

Outra forma de calcular E[X], obtida a partir da integra¸c˜ao por partes, ´e a seguinte: E[X] = R∞

0 (1 − FX(x))dx −

R0

−∞FX(x)dx.

Demonstra¸c˜ao: Para demonstrar o resultado usaremos a defini¸c˜ao de PDF como se segue: E[X] =R∞ 0 (1 − FX(x))dx − R0 −∞FX(x)dx =R∞ x=0P {X > x}dx − R0 x=−∞FX(x)dx =R∞ x=0 R∞ y=xfX(y)dydx − R0 x=−∞ Rx y=−∞fX(y)dydx =R∞ y=0 Ry x=0dx fX(y)dy − R0 y=−∞ h R0 x=ydx i fX(y)dy =R∞ y=0yfX(y)dy − R0

y=−∞(−y)fX(y)dy

=R∞ y=0yfX(y)dy + R0 y=−∞yfX(y)dy = R∞ y=−∞yfX(y)dy

Conv´em lembrar que a esperan¸ca ´e um n´umero.

* Teorema fundamental Seja Y = g(X). Ent˜ao, EY[Y ] = EX[g(X)] = R∞ −∞g(x)fX(x)dx.

EY[.] indica que a esperan¸ca ´e tomada em rela¸c˜ao a vari´avel Y .

0

(50)

Importante: Seja Y = X1+ X2. E[Y ] = R∞ −∞yfY(y)dy = R∞ x1=−∞ R∞ x2=−∞(x1+ x2)fX1X2(x1, x2)dx1dx2 = R∞ x1=−∞ R∞ x2=−∞x1fX1X2(x1, x2)dx1dx2+ R∞ x1=−∞ R∞ x2=−∞x2fX1X2(x1, x2)dx1dx2 = R∞ x1=−∞x1 n R∞ x2=−∞fX1X2(x1, x2)dx2 o dx1+ R∞ x2=−∞x2 n R∞ x1=−∞fX1X2(x1, x2)dx1 o dx2 = R∞ x1=−∞x1fX1(x1)dx1 + R∞ x2=−∞x2fX2(x2)dx2

= E[X1] + E[X2], mesmo se X1 e X2 n˜ao forem independentes

Podemos, ent˜ao, afirmar que: E [P

iXi] =PiE[Xi].

Observe que uma constante a pode ser definida pela densidade de massa u0(t − a).

Aplicando a esperan¸ca, temos E[a] =R∞

−∞tu0(t − a)dt = a, como dever´ıamos esperar.

Por outro lado, se Y = aX, onde a ´e um n´umero, ent˜ao ´e f´acil ver que E[Y ] = E[aX] = aE[X].

Estas propriedades mostram que a esperan¸ca ´e um operador linear.

Aplicando o operador esperan¸ca E `a express˜ao Y = aX + b , obtemos E[Y ] = aE[X] + b.

*

Suponha Y = X1X2 e que X1 e X2 s˜ao independentes.

Pode-se mostrar facilmente que E[Y ] = E[X1]E[X2].

Em geral, E[g(X1).h(X2)] = E[g(X1)]E[h(X2)], se X1 e X2 forem independentes.

Referências

Documentos relacionados

Este trabalho buscou, através de pesquisa de campo, estudar o efeito de diferentes alternativas de adubações de cobertura, quanto ao tipo de adubo e época de

O enfermeiro, como integrante da equipe multidisciplinar em saúde, possui respaldo ético legal e técnico cientifico para atuar junto ao paciente portador de feridas, da avaliação

Esta  tela  mostra  a  confirmação  do  agendamento  que  inclui  as  datas  de  realização,  os  dias  dimensionados  versus  os  ofertados  e  o  registro 

Mas, afinal, quem são os Ministros ou Conselheiros dos Tribunais de Contas? A Constituição trata do tema no art. 73, que estabelece os requisitos para o preenchimento do cargo

Essas arestas têm como origem o vértice que representa o início da apresentação de cada componente (elemento filho) desse contexto. Para que essa condição seja atendida, basta que

Na proposta do Método 2L sugere-se, com objetivo de estimação, utilizar o Carregamento do Fator para cada um de seus itens característicos como o grau de dificuldade do item (bi),

Podem treinar tropas (fornecidas pelo cliente) ou levá-las para combate. Geralmente, organizam-se de forma ad-hoc, que respondem a solicitações de Estados; 2)

Rotinas cliente Stub 1 10 Processo cliente Rotinas servidor Stub 5 6 Processo servidor square_clnt.c d square_svc.c server.c client.c In sti tuto de In for m áti ca - U FRGS