• Nenhum resultado encontrado

NI04 - Entropia e Medidas de Informação I

N/A
N/A
Protected

Academic year: 2021

Share "NI04 - Entropia e Medidas de Informação I"

Copied!
42
0
0

Texto

(1)

BC-0504

Natureza da Informação

Santo André, Dezembro de 2013 Prof. Irineu

(2)

Quantas perguntas preciso fazer para saber qual número você pensou dentre este conjunto de números:

1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16 • Um dos alunos pensa um número.

• O professor faz as perguntas enquanto que outro aluno escreve um 1 no quadro branco se a resposta for sim e zero se a resposta for não

(3)

Supúnhamos que o aluno pensou cinco.

• O número é maior do que 8? Não 0

• O número é maior que 4? Sim 01 • O número é maior que 6? Não 010 • O número é maior que 5? Não 0100

Então é o 5

Se as questões estão corretamente formuladas é possível

identificar o número somente com log2(16)=4 questões ou 4 bits.

(4)

E se for para identificar um 1 entre quinze zeros:

(5)

Supúnhamos que o 1 está na quinta posição, o

professor poderá perguntar:

• O número 1 esta numa posição maior do que 8? Não 0 • O número 1 esta numa posição maior que 4? Sim 01 • O número 1 esta numa posição maior que 6? Não 010 • O número 1 esta numa posição maior que 5? Não 0100

Então o 1 está na quinta posição

Foram feitas 4 questões bem formuladas, 4 bits de informação

(6)

Quantas perguntas preciso fazer para identifica um algarismo dentro deste outro conjunto de números:

(7)

Codificação binária (em 0 e 1)

• Permite identificar qualquer

magnitude em termos de sim ou não

Exemplo: Para identificar número entre 1 e n precisaríamos realizar log2(n) questões (bem formuladas).

• Exemplo para identificar um átomo no meio do universo que têm 1080 átomos

(8)

Codificação binária permite

responder qualquer pergunta

• Exemplo: Qual é a capital da Islândia?

• Reikiavic. Poderia ser escrito em ASCII que é código binário que utilizam os computadores na hora de digitar as letras.

(9)

Outros benefícios da codificação binária

• Favorece a transmissão e armazenagem da informação em forma de níveis de voltagem. • Existem códigos corretores de erro que evitam

perdas da informação (exemplo: código de

controle dos cartões VISA ou número de ISBN) • Permite conversão A-D e D-A.

• A codificação binária permite facilmente as operações aritméticas e as operações

(10)

O jogo do truco: um exemplo de

codificação de informação

• Algumas sinais do truco: • Piscar um olho = Zap (Paus)

• Subir as sobrancelhas = Sete Copas (Copas)

• Fazer um montinho na bochecha usando a língua = Espadilha (Espadas)

• Mostrar a ponta da língua = Pica Fumo (Ouros) • Levantar um ombro = Três

• Levantar dois ombros = Um par de três

• Encher as bochechas de ar = "To cheio de manilha" • Tocar no peito = "deixa aqui que eu faço"

• Passar a mão no pescoço como se estivesse cortando-o= "Peça Truco”

(11)
(12)

Um código mais enxuto

• Pro "Pica-fumo" as cartas do baralho bem abertas, como um leque de três carta.

• Pra "Espadilha" as cartas do baralho bem abertas, como um leque de duas cartas só, vc coloca uma carta sobre uma outra, assim abre um leque somente como se fosse duas cartas só. • Pro "Sete Copas" vc fecha o baralho como num maço de uma

carta só

(13)

S=log

2

(w)

• Se W é o numero de diferentes mensagens que precisamos transmitir o código mais enxuto é aquele que tem log2(w) bits.

• No caso do “truco”, se quisermos transmitir os quatro naipes, com dois bits seria suficiente

usando, tal vez, os dois olhos.

• Para transmitir o número (de 1 para 7)

poderíamos usar três cartas, algumas deitadas (viradas para abaixo) representando os zeros, e algumas em pé representando os uns, formando um código binário.

(14)

Redundância

• Não é preciso escrever todas as letras para entender um texto.

• -s –v-nç-s d- c--nc-- e d- t-cn-l-g-- -st–- m-lt-pl-c-ndo -s n-ss-s c-p-c-d-d-s d- c-l-t-r,

tr-t-r, g-r-r - -t-l-z-r -nf-rm-ç-es. No linguagem existe muita redundância

(15)

• Informação é aquelo que sobra num

(16)

• Existem diversos métodos de compressão de informação.

• O que resta depois de compremir um texto é um núcleo que não pode ser mais

comprimido.

(17)

Claude Elwood Shannon (1916-2001)

• Trabalhava nos Laboratórios Bell • Estudou quanta

informação pode

passar por uma linha de telefone.

• Inventou o término bi(gi)t ou bit

(18)
(19)

Verdadeira contribuição de

Shannon

• Quanta informação cabe num mensagem.

• Como arranjar melhor a informação para que a mensagem seja mais enxuta.

• Vimos alguns exemplos como os programa de compressão de arquivos.

• Outro exemplo são as sinais em jogos de cartas como o “truco”.

(20)

O Bit

• Mede o grau de incerteza ou imprevisibilidade.

• O bit é a quantidade de informação necessária para tomar uma decisão perante duas opções igualmente prováveis

• Cálculo da incerteza segundo fórmula de Boltzmann: S=k log(W) com k=1 e a base do logaritmo =2 W são

possíveis configurações que toma um determinado arranjo.

• Cálculo segundo fórmula de Shannon.

i

i

p

p

(21)

A informação é medida em bits

21

)

(

log

2

W

S

(22)

A informação é medida em bits

22

)

(

log

2

W

S

Bom dia Bom dia bits S  log2(1)  0

(23)

A informação é medida em bits

23 Bom dia Bom dia

bit

S

log

2

(

2

)

1

bits S  log2(1)  0

)

(

log

2

W

S

(24)

A informação é medida em bits

24 Bom dia Bom dia

bits

S

log

2

(

6

)

2

,

58

bits

S

log

2

(

2

)

1

bits S  log2(1)  0

)

(

log

2

W

S

(25)

• Para o cálculo anterior

aplicamos S=log2W uma

versão simplificada da fórmula de Boltzman S=klogW onde k=1 e a base do logaritmo é 2.

(26)

• Mas podemos utilizar também a fórmula de Shannon utilizando probabilidades

que leva ao mesmo resultado

i

i

p

p

(27)

Para isto precisamos lembrar de

algumas propriedades dos logaritmos:

)

(

log

322

,

3

2

log

)

(

log

)

(

log

10 10 10 2

W

W

W

)

log(

1

log

x

x

(28)

28 Bom dia Bom dia bits S  1log2(1)  0 i i

p

p

S

log

2

(29)

29

bit

p

p

p

p

p

p

p

p

S

coroa coroa cara cara i i i i i

1

5

,

0

5

,

0

2

log

5

,

0

2

log

5

,

0

))

2

/

1

(

log

5

,

0

)

2

/

1

(

log

5

,

0

5

,

0

log

5

,

0

5

,

0

log

5

,

0

log

log

log

log

2 2 2 2 2 2 2 2 2 1 2 2

Dois eventos (cara e coroa), cada um deles com

(30)

30

 

   

   

 

 

   

   

 

 

 

 

bits p p p p p p p p p p p p p p p p S i i i i i 58 , 2 6 log 32 , 3 6 log log log 6 log log log log log log log log log log log log log log 10 2 6 1 2 6 1 2 6 1 6 1 2 6 1 6 1 2 6 1 6 1 2 6 1 6 1 2 6 1 6 1 2 6 1 6 1 2 6 1 6 2 6 5 2 5 4 2 4 3 2 3 2 2 2 1 2 1 6 1 2 2                              

 Seis eventos 1,2,3,4,5,6 cada um deles com

(31)

Então... Se a fórmula de

Boltzmann é a de Shannon são

equivalentes.. para que usamos

(32)

• Vejamos...

• Primeiro...lembrem-se que: Um emissor que fornece sempre o

mesmo mensagem, fornece zero bits de informação.

• Enquanto que o

conteúdo informativo de uma mensagem pouco previsível é grande Bom dia Bom dia

0

)

1

(

log

2

S

(33)
(34)

• Numa seqüência de 10 números, se todos são um, não há informação. Ex: 1111111111

• Mas se numa sequência de 10 números, o número 1 aparece uma vez só, por exemplo:

0000010000

• o número 1 possui log2(10) de informação ou

segundo a fórmula de Shannon (ou a fórmula de Boltzmann)

–log2(p)=-log2 (0,1)=log2 (10)=3,3219 bits • Enquanto que o número 0 possui segundo a

fórmula de Shannon

(35)

• Então, quanta informação temos neste mensagem?

0000010000

Poderia se pensar que como temos 10 dígitos teríamos 10 bits de informação, mas na

verdade cada 0 vale 0,152bits porque tem pouca incerteza (imprevisibilidade ou

surpresa) enquanto que o único 1 tem um monte de informação 3,321 bits. A entropia ou informação total do mensagem seria:

Stotal=9x(informação do zero)+1x(informação do 1)=

(36)

Fórmula de Shanonn calcula a informação

ou entropia S média por dígito

• Dividindo a informação total pelo número de dígitos, 10, temos a informação ou entropia média de cada dígito:

Smédia=4.689bits/10dígitos= 0.4689 bits/digito

que é a fórmula de Shannon

) ( log ) ( log 10 1 log 10 1 10 9 log 10 9 10 1 9 2 2 zeros um um zeros um zeros média p p p p I I S                                                 

(37)

• Esta fórmula representa uma média das informações de cada um dos eventos possíveis.

• Um outro exemplo: 1000 lançamento de uma moeda. Informação em cada cara Icara= -log2(0,5)=log(2)=1 Informação em cada coroa Icoroa= -log2(0,5)=log(2)=1

i i

p

p

S

log

2 ) ( log ) ( log ) 5 , 0 ( log 5 , 0 ) 5 , 0 ( log 5 , 0 ) 2 ( log 5 , 0 ) 2 ( log 5 , 0 1000 500 500 2 2 2 2 2 2 coroa coroa cara cara coroa cara média p p p p I I I             

(38)

• Exemplo: Informação contida na jogada de uma moeda alterada para cair 60% das vezes em cara e 40% do tempo em coroa.

• Observar que a soma das duas probabilidades é 1. 0,6+0,4=1

38

bits S  0,6log2(0,6)  (0,4)log2(0,4)  0,97

(39)

Exemplo de cálculo de entropia de Shannon para distintas probabilidades de cair cara

• Dois tipos de resposta cara e coroa, onde P(cara)+P( coroa)=1.

39 )) ( 1 ( log ) ( 1 ( )) ( ( log ) ( )) ( ( log ) ( )) ( ( log ) ( 2 2 2 2 cara P cara P cara P cara P coroa P coroa P cara P cara P S         1. Codificação frequêncial

(40)

40

S 1 bit

1

0,5 P(cara)

• Quando ambas possibilidades têm a mesma probabilidade de

acontecer P(cara)=P(coroa)=0,5 a entropia ou imprevisibilidade é máxima, e igual a 1 bit.

(41)

Exercícios

1. Uma fonte de informação emite um dentre quatro

símbolos possíveis durante cada intervalo de sinalização. Os símbolos ocorrem com as probabilidades p0 = 0,4; p1 = 0,3; p2 = 0,2 e p3 = 0,1. Encontre a quantidade de

informação obtida ao se observar cada um dos símbolos.

R: 1,322; 1,737; 2,322; 3,322 [bits];

2. Uma fonte emite um dentre quatro símbolos s0, s1, s2 e

s3 possíveis, respectivamente, com probabilidades de 1/3, 1/6, 1/4 e 1/4. Os símbolos sucessivos emitidos pela

fonte são estatisticamente independentes. Calcule a entropia da fonte.

(42)

Exercícios

3. Calcule a velocidade de transferência, em bits/s,

necessária para enviar a informação emitida pela fonte do “Exercício 2” por uma conexão de internet, supondo que esta fonte emite 2 símbolos a cada segundo.

R: 3,918 bits/s.

4. Para a fonte do “Exercício 2”, calcule o menor intervalo entre símbolos, supondo que estes sejam emitidos a uma taxa constante, para que a informação da fonte possa ser escoada por uma conexão que transfere 1Mbits/s.

Referências

Documentos relacionados

•   O  material  a  seguir  consiste  de  adaptações  e  extensões  dos  originais  gentilmente  cedidos  pelo 

Os resultados mostram que 3º Grau Indígena realizado pela UNEMAT se configura como “zonas de contato” (SANTOS, 2006:808-809), em que se relacionam, além de

3) As áreas exploradas podem dar origem as seguintes features: AUAS e AEX dos tipos: ADS, ACAR, AQC, AL- RP, AFP. Todas devem seguir o padrão da SEMA de cor, espessura, sobreposição

auditivos têm mencionado a ocorrência de zumbido nos aparelhos auditivos quando usam telefones celulares, indicando que o telefone celular e o aparelho auditivo podem não

professor de ensino superior predomina na inexistência de experiências como estudante universitário. A deficiência na formação do professor na universidade reflete

Este argumento é alicerçado pela teoria da preferência pela liquidez de Keynes (1985, TG, cap. 13), segundo a qual há um incentivo à aquisição de ativos mais líquidos, quanto

estéril, descartável*, embalagem com 10 unidades, para utilização com aparelhos de insuflação com fluxo de gás até 50 l/min (KARL STORZ Electronic ENDOFLATOR ® , THERMOFLATOR ®

variáveis sexo, idade, escolaridade, número de pessoas que vivem com o idoso, percepção do estado de saúde, quan- tidade de doenças e de medicamentos utilizados, além do