• Nenhum resultado encontrado

Estimating Population from Samples

N/A
N/A
Protected

Academic year: 2021

Share "Estimating Population from Samples"

Copied!
70
0
0

Texto

(1)

Estimating Population

from Samples

• Sample mean is a random variable

 Mean has some distribution

 Multiple sample means have

“mean of means”

• Knowing distribution of means can

(2)

Confidence Intervals

• Sample mean value is only an estimate of the true

population mean

• Bounds c

1

and c

2

such that there is a high

probability, 1-

, that the population mean is in the

interval (c

1

,c

2

):

Prob{ c

1

<

 < c

2

} =1-

where

 is the significance level and

100(1-

) is the confidence level

(3)

Confidence Interval

of Sample Mean

• Knowing where 90% of sample means fall,

we can state a 90% confidence interval

• Key is Central Limit Theorem:

– Sample means are normally distributed

– Only if independent

– Mean of sample means is population

mean

(4)
(5)

Estimating

Confidence Intervals

• Two formulas for confidence intervals

– Large sample (over 30 observations from

any distribution): z-distribution

– Small sample from normally distributed

population: t-distribution

• Common error: using t-distribution for

non-normal population

(6)

The z Distribution

• Interval on either side of mean:

• Significance level

is small for large

confidence levels

• Tables of z are tricky: be careful!

x z

s

n

1





2

(7)

Example of z Distribution

• 35 samples: 10 16 47 48 74 30 81 42 57 67

7 13 56 44 54 17 60 32 45 28 33 60 36 59 73

46 10 40 35 65 34 25 18 48 63

• Sample mean = 42.1.

Standard deviation s = 20.1. n = 35

• 90% confidence interval is

x

42 1

1 645

20 1

35

36 5 47 7

.

( .

)

.

( . ,

. )

(8)

The t Distribution

• Formula is almost the same:

• Usable only for normally distributed

populations!

• But works with small samples

x t

s

n

n

1





2 1

;

(9)

Example of t Distribution

• 10 height samples: 148 166 170 191 187 114 168 180 177 204 • Sample mean = 170.5. Standard deviation s = 25.1, n = 10 • 90% confidence interval is • 99% interval is (144.7, 196.3)

x

170 5

1 833

251

10

156 0 185 0

.

( .

)

.

(

. ,

. )

(10)

Getting More Confidence

• Asking for a higher confidence level

widens the confidence interval

– Counter-intuitive?

• How tall is Fred?

– 90% sure he’s between 155 and 190 cm

– We want to be 99% sure we’re right

– So we need more room: 99% sure he’s

(11)

Intervalos de Confiança e

Testes de Hipótese

• Teste de hipótese:

– Hipótese nula H0 versus hipótese alternativa Ha

• H0 = dois métodos A e B produzem resultados estatisticamente iguais

Ha = dois métodos produzem resultados estatisticamente diferentes

Ho: μA B HA: μA ≠μB

– Computa alguma estatística dos dados que permita testar as

hipóteses Computa

– Faz referência a alguma distribuição que mostra como a

estatística seria distribuída se a hipótese nula fosse verdadeira

• Ex: já sabemos que a distribuição das médias segue uma

Normal



(12)

Intervalos de Confiança e

Testes de Hipótese

– Com base na distribuição de referência, computa a

probabilidade de se obter uma discrepância tão grande quanto a observada e Ho ainda ser verdadeira

• p-value

– Quanto menor o p-value, menos provável é que a hipótese

nula seja verdadeira e mais significativo (estatisticamente) o resultado é

• Quanto menor o p-value, maior a chance de : μA ≠μB

– Rejeita hipótese nula se p-value < nível de significância α

• Intervalos de confiança e testes de hipótese: mesmo

(13)

Distribuições Comuns de Variáveis

Aleatórias Discretas

1. Uniforme

2. Bernoulli

3. Binomial

4. Geometrica

5. Poisson

(14)

Distribuição Discreta Uniforme

• A v.a. discreta X que assume n valores discretos

com probabilidade p

X

(i) = 1/n, 1

i

n

• pmf

• CDF:

contrário

caso

X

x

se

n

x

p

X i i

,

0

,

/

1

)

(

n

t

i

p

t

F

t i X

1

)

(

)

(

(15)

Variável de Bernoulli

– V.A gerada por um experimento único de Bernoulli

tem um resultado binário {1, 0} ou {sucesso, falha}

– A v.a. binária X é chamada variável de Bernoulli tal

que:

–Função de massa de probabilidade

:

)

0

(

1

)

1

(

X

P

p

q

X

P

p

(16)

Distribuição de Bernoulli

• CDF

x 0.0 1.0 q p+q=1

0

(17)

Binomial

A v.a. X representa o numero de sucessos

em uma sequencia de experimentos de

Bernoulli.

Todos experimentos são independentes.

Cada resultado é um “sucesso” ou “falha”.

A probabilidade de sucesso de um

experimento é dado por p. A probabilidade

de uma falha é 1- p.

Uso do modelo: número de processadores

“down” num cluster; número de pacotes

que chegam ao destino sem erro.

(18)

Distribuição Binomial

A distribuição binomial com parâmetros n 0 and 0 < p < 1, is

A média e variância da binomial são:

p x

n

x

p

p

x n x

( )

(

)





1

np

2

np

(

1

p

)

(19)

V.A. Binomial: pmf

(20)

Distribuição Geométrica

• Número de experimentos até incluir o 1o sucesso.

• Em geral , S pode ter um tamanho infinitamente contável

• Definir a v.a Z ( S):

(21)

Geométrica

A distribuição geometrica é a única distribuição

discreta que exibe a propriedade MEMORYLESS.

Resultados futuros são independentes de eventos

passados.

• Exemplo:

– Z: numero de experimentos ate sucesso. Ja

observamos n experimentos: todos com falhas.

– Y: numero de experimentos adicionais

necessarios ate que um sucesso ocorra, i.e.

(22)

Geométrica: ausência de memória

• Y=Z-n

) ( ) 1 ( 1 ) ( 1 ) ( ) ( 1 ) ( ) ( ) ( ) ( ) ( ) | ( ) | ( ) | ( 1 1 i p pq q pq n F i n p n F i n Z P n Z P i n Z P n Z P n Z and i n Z P n Z i n Z P n Z i n Z P n Z i Y P Z i n i n Z Z Z                                   

(23)

VA Poisson

• Número de eventos independentes que ocorrem em um

intervalo de tempo (veja discussão em Ross, 4.8)

• Número de chegadas em um servidor em 1 hora

• Número de erros de impressão em uma página de um

livro

 = # médio de eventos que ocorrem no período

• Aproximação para VA Binomial com n grande e p

pequeno (Ross)

(24)

VA Poisson: Aplicacao

• A V.A. de Poisson é boa para modelar vários fenômenos,

como o número de transações que chegam a um servidor em uma hora, ou o número de queries que chegam a uma

máquina de busca em 1 minuto ou número de pacotes que chegam num roteador em 1 segundo.

• Muito comumente usado para modelar chegada de sessões de

usuários

– servidores Web, multimídia, banco de dados, ftp, e-mail • Sessões são iniciadas por usuários

– Chegada de duas sessões tendem a ser independentes:

Poisson é uma boa aproximação

• Contra-exemplo:

– Chegada de requisições em um servidor Web – Premissa de independência não é válida: existe

dependência entre requisições para o arquivo HTML e as imagens embutidas nele

(25)

Poisson

• Uma v.a. de Poisson X tem sua pmf::

Onde

> 0 é uma constante

E(X)= Var(X) =

(26)

Search Algorithms:

Is the Web-Graph a Random graph?

• Random graph Gn,p:

– n nodes

– every directed edge occurs with probability p • Is the Web-graph a random graph Gn,p?

• In a random graph. degrees are distributed according

(27)

Is the Internet (router-level) a

random graph?

• Em 1999, foi publicado um resultado supreendente

sobre a topologia de roteadores da Internet [FFF99]

• Distribuição segue lei de

potência

• Medidas de traceroute

posteriores confirmaram resultados

Slide inspirado na apresentação de Bruno Ribeiro: “Entendendo Redes Complexas através de Informação Experimental Incompleta: Mitos, Erros e Acertos”, WPerformance 2010

(28)

Rede de roteadores da Internet

• Porém, em 2003, mostrou-se que método traceroute produz

amostras tendenciosas [Byers 2003]:

• Verificado teoricamente

Slide inspirado na apresentação de Bruno Ribeiro: “Entendendo Redes Complexas através de Informação Experimental Incompleta: Mitos, Erros e Acertos”, WPerformance 2010

(29)

Exercícios

1. Considere que o número de mails que chegam a um servidor de mails no intervalo t segundos é distribuído como Poisson com parâmetro 0.3t. Calcule a

seguintes probabilidades:

Exatamente tres mensagens chegarão num intervalo de 10 seg.

No máximo 20 msgs chegarão num período de 20seg.

O número de msgs num intervalo de 5 seg está entre 3 e 7 mails.

2. A probabilidade de um query falhar (não ser bem

sucedido) é 10(-4). Qual a probabilidade de falharem

(30)

Solução do Exercício 1

1) P(X10 = 3) = 0.224 2) P(X20  20) = 0.973 2)

0

.

1909

!

)

5

.

1

(

)

7

3

(

7 ( 1.5) 3 5

 

e

k

X

P

k k

(31)

Solução do Exercício 2

Evento falha de uma query: distribuição Bernoulli com p = 10-4

Evento # de falhas: distribuição Binomial com n = 1000 e p = 10-4

(32)

Distribuições Discretas

• Zipf()

– Comumente usada quando a distribuição é altamente

concentrada em poucos valores

• Popularidade de arquivos em servidores

Web/multimídia

– 90% dos acessos são para 10% dos arquivos • Popularidade de palavras na língua inglesa

– Seja i, o elemento que ocupa a i-esima posição no

ranking de concentração

C é a constante de normalização Zipf: lei das Potências

,...

2

,

1

)

(

i

i

C

i

X

P

(33)

Distribuição Zipf

• Modela popularidade dos remetentes de e-mails

(34)

Distribuições de Variáveis

Aleatórias Contínuas

• Normal

• Exponencial

• Weibull

• Lognormal

• Pareto

• ....

(35)

Distribuições de Variáveis

Aleatórias Contínuas

• Variáveis aleatórias contínuas

– Assumem um intervalo infinito de diferentes valores – W= percentual de crescimento do PIB em 2005

– V=tempo para retornar a resposta de um “query”

– Valores específicos-particulares de uma v.a. contínua

tem probabilidade 0

(36)

Distribuição Normal (Gaussiana)

• Distribuição mais comum na análise de

dados

• pdf is:

• -x +

• Média é

, desvio padrão

f x

e

x

( )

(

)

 

1

2

2 2

2

(37)

Normal

• Função de densidade para =0, =1

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 -5 -4 -3 -2 -1 -6E-14 1 2 3 4 5 x f( x )

(38)

Normal

• Função de densidade para =1

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 =2 =5

(39)

Normal

• Funções de densidade para =1

=1 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 =2

(40)

Notação para Distribuições

Gaussianas

• Geralmente denotada N(,)

• Normal unitária é N(0,1)

• Se x tem N(,), tem N(0,1)

• O -quantil de uma normal unitária z ~ N(0,1) é

denotado por ztal que

x

P

(

x

)

z

P x

( )

z





 

(41)

Distribuicao Exponencial

• Quantidade de tempo até que determinado evento

ocorra

= taxa de chegadas

1/  = tempo médio entre chegadas

 

 

1

for x

0

0

for x

-

λx X λx X

e

x

F

e

x

f

(42)

Exemplo: v.a. exponencial

• pdf:

• CDF:

• V.A. muito frequentemente usada em computacao • Modelos:

– Tempo entre duas submissões de queries – Tempo de execução de processos

– Tempo entre chegadas de pacotes em um roteador

– Tempo entre chegadas de sessões em um servidor

0

,

)

(

x

e

x

f

x x

e

x

F

(

)

 1

 pdf x f(x)

(43)

Distribuicao Exponencial

P(X  1/ ) = 1 – e

-1/

= 1 – 1/e

E(X) = 1/ 

Var(X) = 1/

2

 SD(X) = 1/ 

CV(X) = 1

CV = 1  exponencial

(44)

Distribuições Exponencial e Poisson

• Seja uma distribuição Poisson que denote o número de eventos N em um intervalo de tempo t

• Seja T1 o momento do 1o evento

• Seja Tn o tempo entre o (n-1)-esimo e o n-esimo eventos

• Sequência {Tn, n=1, 2, ...}: tempos entre chegadas

P(T1  t) = P(N(t) = 0) = e -t  T

1  exponencial()

P(T2  t | T1 = s) = Prob (0 eventos em (s, s+t) | T1 = s)

= Prob (0 eventos em (s, s+t)) (eventos Poisson são independentes) = e -t  T

2  exponencial()

T1 ,T2, ..., Tn são independentes e têm mesma distribuição exponencial()

(45)

Distribuições Exponencial e Poisson

Processo de Chegadas Poisson Tempo entre Chegadas Exponencial Independência entre eventos

(46)

Distribuição Exponencial

• Exponencial () :

) ( 1 ) 1 ( 1 1 ) 1 ( 1 ) 1 ( 1 ) ( 1 ) ( ) ( ) ( 1 ) ( ) ( ]) [ ] ([ ) | ( ) ( x X P e e e e e e e e e e e t X P t X P x t X P t X P x t X t P t X P t X x t X P t X x t X P x t x t t t x t t t x t                                                              Propriedade sem memória (memoryless)

(47)

Propriedade Memoryless

• Distribuição

exponencial

é a única

distribuição contínua que tem a

propriedade memoryless

• Por sua vez, distribuição

geométrica

é a

única discreta

que tem a

propriedade

(48)

Outras Distribuições Contínuas

• Weibull

• Lognormal

• Pareto

(49)

Distribuição de Weibull

A VA contínua T tem uma distribuição

de

Weibull

se:

Onde os parâmetros satisfazem

t

0  > 0  > 0

    



t t

e

t

F

e

t

t

f

  

1

)

(

)

(

1

(50)

Distribuição Lognormal

Uma VA X tem uma

distribuição lognormal

se a VA Y = ln(X) (ou ) tem uma

distribuição normal com parâmetros

 e 

Y

e

X

 



 

0

0

0

2

1

)

,

;

(

(2 ) 2 2 ) ln(

x

x

e

x

x

f

x  

Muito utilizada para modelar duracao de

sessao de usuarios em servicos web

(51)

Média e Variância

A média e variância de uma VA X que

tem uma distribuição lognormal são:

(

)

2 / 2 2 2 2

( )

( )

1

(52)

-Distribuição Lognormal

(53)

Distribuição de Pareto

Uma das distribuições heavy tailed.

1

)

(

( 1)

ab

x

( 1)

x

x

ab

x

f

a a a a

(54)
(55)

Erlang: Soma de Exponenciais

• Genericamente: X1, X2, ... Xr, todas independentes e seguindo

exponencial():

Z = X1 + X2 + ... Xr  Erlang de n estágios

• Ex: tempo de processamento dividido em várias (r) etapas. A

duração de cada etapa é exponencialmente distribuída com mesmo 

• Se Xi  exponencial (i), onde i são diferentes

Z = X1 + X2 + ... Xr Hipoexponencial

Exp() Exp() Exp() Exp()

Erlang(r,)

(56)

Distribuição de Erlang

• As pdf e CDF de uma variavel X que tem distribuicao

Erlang com parametros  e r são:

for x > 0 and r = 1, 2 , …

)!

1

(

)

(

1

 

r

e

x

x

f

x r r

r x k k

e

k

x

x

F

 

1 0

!

)

(

1

)

(

(57)

Exercícios

• O tempo de CPU de um query típico medida em ms segue

uma distribuição de Erlang de três estágios com  = 0.5. Determine qual a probabilidade que a demanda de CPU da

query excederá 1 milisegundo.

• O tempo de vida em dias de um componente de software é

modelado por uma distribuição de Weibull com  = 2. A partir de um grande número de componentes, foi

observado que 15% dos componentes que duraram mais de 90 dias falharam antes de 100 dias. Determine o

(58)

Solução #1

O tempo de CPU de um query típico medida em ms segue uma

distribuição de Erlang de três estágios com  = ½. Determine qual a probabilidade que a demanda de CPU da query excederá 1

milisegundo. r = 3 e  = ½ x r k k

e

k

x

x

F

 

1 0

!

)

(

1

)

(

(59)

Solução #2

• O tempo de vida em dias de um componente de software é modelado por uma distribuição de Weibull com  = 2. A partir de um grande número de componentes, foi observado que 15% dos componentes que duraram mais de 90 dias falharam antes de 100 dias. Determine o parâmetro .

(60)

Distribuição dos Mínimos

• Sistema composto de n componentes. Sistema funciona se

todos componentes estão operando corretamente

• Tempo de falha : X1, X2, ...., Xn exponencial ()

• Tempo de de vida do sistema Z = min (X1, X2, ...., Xn)

P(Z  z) = P (pelo menos um Xi  z) = ? P (exatamente um Xi  z) = ?

(61)

Distribuição dos Mínimos

• Sistema composto de n componentes. Sistema funciona se

todos componentes estão operando corretamente

• Tempo de falha : X1, X2, ...., Xn exponencial ()

• Tempo de de vida do sistema Z = min (X1, X2, ...., Xn)

P(Z  z) = P (pelo menos um Xi  z) = ? P (exatamente um Xi  z) = ?



1 1 ) 1 ( 1 1 1 ) ( 1 ) ( 1 ) (                        n z z n X X i e e n z F z F n z X um exatamente P  

(62)

Distribuição dos Mínimos

(63)

Distribuição dos Mínimos

• P(Z  z) = P (pelo menos um Xi  z)

 

  

z

n nz n n n j j n j n j j n j n j j n z j z n j j n X j X i e e p p p n p p j n p p j n e e j n z F z F j n z X um menos pelo P                                                                  

1 1 1 1 ) 1 ( 1 1 0 1 1 1 ) ( 1 ) ( ) ( 0 0 1 1 1 p = (1-e-z) Z tem distribuição exponencial com parâmetro n

(64)

Distribuição dos Máximos

• n tarefas independentes : X1, X2,...., Xn: exponencial ()

• Tempo de resposta = tempo de execução da tarefa mais

longa

Z = max (X1, X2, ...., Xn)

– Ex: tempo de resposta de máquina de busca composta

de n processadores executando em paralelo. Cada máquina processa consulta em uma partição do dicionário

Front-end: atraso desprezível

(65)

Distribuição dos Máximos

• n tarefas independentes : X1, X2,...., Xn: exponencial ()

• Tempo de resposta = tempo de execução da tarefa mais

longa Z = max (X1, X2, ...., Xn) n z z z z n n n i

e

e

e

e

z

X

P

z

X

P

z

X

P

z

X

z

X

z

X

P

z

X

P

z

Z

P

)

1

(

)

1

)...(

1

)(

1

(

)

(

)...

(

)

(

)

...

(

)

)

(max(

)

(

2 2 1        

(66)

Gerando Distribuições

• Como gerar amostras de uma distribuição

a partir de um gerador de números

aleatórios uniformemente distribuídos

(Unix: random(), drand48())?

(67)

Gerando Distribuições

0 0.2 0.4 0.6 0.8 1 0 20 40 60 80 100 x F (X ) = P (X < x ) Z : un if or m e (0 ,1 ) X: distribuição que você quer gerar

Gerador de números aleatórios retorna valor entre 0 e 1. Ex: 0.52

Aplicando o número aleatório na função inversa de F(X), consegue-se gerar um ponto amostral

(68)

Gerando Distribuições

• Teorema da Transformada Inversa: Seja

X uma variavel contínua com CDF F(x).

Então:

Z = F(X) ~ uniforme (0,1)

Prova:

(69)

Gerando Distribuições

Ex: geração de amostras de uma distribuição

exponencial

Z = F(X) = 1 – e

-x

(CDF da exponencial)

X’ = F

-1

(X) =

X’ = - 1/ ln(1 – Z), onde Z  uniforme(0,1)

F(Z  z) = z

Qual a distribuição de X’ ?

(70)

Gerando Distribuições

Ex: geração de amostras de uma distribuição exponencial

F(X) = 1 – e

-x

X’ = F

-1

(X) = - 1/ ln(1 – Z), onde Z  uniforme(0,1)

F(Z  z) = z

F(X’) = P(X’  y) = P(- 1/ ln(1 – Z)  y )

= P (ln(1 – Z)  -y)

= P( 1 – Z  e

-y

)

= P(Z  1 - e

-y

) = 1 - e

-y

 X’ é exponencial

O mesmo procedimento pode ser utilizado para gerar

amostras de diferentes distribuições, partindo da inversa da CDF da distribuição desejada

Referências

Documentos relacionados

Nível III: Por último, na Abordagem da Criação de Conhecimento (AV), os professores devem demonstrar competência já a um nível mais avançado tal como: elaborar

As técnicas de coleta de dados serão: (a) a pesquisa documental, a partir da consulta à página eletrônica das organizações, aos relatórios de gestão e demais documentos

a) há um continuum de padrões de liderança dado pelo grau de autoridade utilizado pelo líder e o grau de liberdade disponível para os subordinados. c) para tarefas rotineiras

Assim, os modelos epidemiol´ ogicos s˜ ao muitas vezes concebidos seguindo os padr˜ oes de fluxos de transmiss˜ ao de informa¸c˜ ao com uma abordagem baseada em rede que pode

A Corticeira Amorim (CA), apresenta uma estrutura repartida, na medida em que é constituída por um conjunto de UN semiautónomas (Amorim Revestimentos, Matérias

In this work, improved curves are the head versus flow curves predicted based on the correlations presented in Table 2 and improved by a shut-off head prediction

ç2.. § 1 11 A conferência por amostragem será realizada em até 3% das urnas preparadas para cada Zona, observado o mínimo de uma urna por Zona, escolhidas pelos representantes

COMISSÃO EXECUTIVA NACIONAL do PPLE Presidente Nacional Secretário de Relações Internacionais Assistente I Secretário Geral Assistente I Assistente II Assistente III