• Nenhum resultado encontrado

L.J. Amoreira UBI. Dezembro 2010

N/A
N/A
Protected

Academic year: 2021

Share "L.J. Amoreira UBI. Dezembro 2010"

Copied!
15
0
0

Texto

(1)

Definic¸ ˜ao de informac¸ ˜ao

L.J. Amoreira

UBI

(2)

Entropia (ou incerteza [ou ignor ˆancia])

I A incerteza associada a uma vari ´avel aleat ´oria X que pode tomar os valores x1, x2,. . . , xncom probabilidades p1, p2,. . . , pn

´e (definic¸ ˜ao)

H(X ) = −X

i

pilog pi.

I Quais as entropias associadas `as seguintes distribuic¸ ˜oes de probabilidade?

1. 1/2, 1/2 2. 1/3, 1/3, 1/3 3. 1/2, 1/4, 1/4

4. 1/12, 1/12, 1/3, 1/4, 1/4

I Pod´ıamos ter ordenado estas distribuic¸ ˜oes por ordem crescente de entropia antes de fazermos as contas?

(3)

Entropia — Significados intuitivos (I)

I A incerteza de um resultado particular de uma experi ˆencia aleat ´oria ´e tanto maior quanto mais improv ´avel ele for I Um resultado mais improv ´avel (logo mais incerto) causa-nos

maior surpresa. Se ele ´e certo, a surpresa a ele associada ´e nula; se ´e imposs´ıvel, a surpresa a ele associada ´e infinita. I Podemos definir incerteza (ou surpresa) associada a um valor

particular Xi de uma vari ´avel aleat ´oria como

h(Xi) = −log pi,

se pi for a probabilidade desse valor particular.

I Mas ent ˜ao a entropia associada a uma vari ´avel aleat ´oria X , H(X ) = −X i pilog pi = X i pih(Xi),

´e o valor expect ´avel da incerteza associada aos v ´arios valores poss´ıveis dessa vari ´avel aleat ´oria.

(4)

Entropia — Significados intuitivos (II)

I A entropia associada ao lanc¸amento de um dado ´e log 6 ' 2, 5850 bit

I Em m ´edia, quantas perguntas com resposta sim/n ˜ao devemos fazer para sermos informados do resultado do lanc¸amento de um dado? Estrat ´egia 1: hNi =X k pkNk ' 3, 3333 Estrat ´egia 2: hNi =X k pkNk ' 2, 6667

I H ´a estrat ´egias melhores? H ´a limites a essa melhoria? Sim:N ≥ H I A entropia associada a uma vari ´avel aleat ´oria ´e o n ´umero m´ınimo

expect ´avel de perguntas sim/n ˜ao necess ´arias para determinarmos o seu valor.

(5)

Entropia — Significados intuitivos (III)

I Seja X a vari ´avel aleat ´oria

X = 

a b c

0, 495 0, 495 0, 01 

I Repetindo muitas vezes a experi ˆencia que produz X esperamos encontrar sequ ˆencias de resultadost´ıpicas, como (aababbbaab) ou (bbcaaabbba), mas n ˜ao (acccbccbcc)

I O n ´umero de sequ ˆencias t´ıpicas dos resultados da repetic¸ ˜ao n vezes de uma experi ˆencia aleat ´oria ´e 2Hn, onde H ´e a entropia

(6)

Entropia conjunta

I SejamX eY duas vari ´aveis aleat ´orias

X =x1 x2 . . . xN p1 p2 . . . pN  Y =y1 y2 . . . yM p1 p2 . . . pM 

I Seja pij=P(X = xi∩Y = yj)a distribuic¸ ˜ao de probabilidade

conjunta das duas vari ´aveis

I A entropia conjunta das duas vari ´aveis ´e

H(X , Y ) = − N X i=1 M X j=1 pijlog pij

(7)

Entropia conjunta — Exemplos

I X ´e o resultado do lanc¸amento de uma moeda; Y ´e o resultado do lanc¸amento de um dado.

pij =1/2 × 1/6 = 1/12

H(X , Y ) = log 12 ' 3, 585 bits = H(X ) + H(Y )

I Lanc¸am-se duas moedas. Seja X o n ´umero de caras (0 ou 1) que “saem” na primeira das moedas e Y o n ´umero total de caras obtido nas duas moedas X =  0 1 1/2 1/2  Y =  0 1 2 1/4 1/2 1/4  Probabilidades conjuntas: Y = 0 Y = 1 Y = 2 X = 0 1/4 1/4 0 X = 1 0 1/4 1/4 H(X , Y ) = −4 ×1 4log 1 4 =2 bits H(X ) = 1 bit H(Y ) = 1, 5 bits

(8)

Entropia condicional

I Entropia associada ao lanc¸amento de um dado:

p(k ) = 1

6 ⇒ Hi =log 6 I Sabendo que o resultado ´e par,

p(k ) = p(k |k ´e par) =1 2 3 4 5 6

0 1/3 0 1/3 0 1/3



⇒ Hf =log 3

I Calcul ´amos esta ´ultima entropia atrav ´es da f ´ormula

H(d |d ´e par) = −

6

X

k =1

p(k |k ´e par) log p(k |k ´e par)

´

E a entropia de uma vari ´avel aleat ´oria, condicionada a um determinado valor de outra vari ´avel aleat ´oria.

(9)

Exemplo: o jogo do total

I Tr ˆes amigos pensam num n ´umero entre 1 e 3 (inclusive). O objectivo ´e tentar adivinhar a soma dos tr ˆes n ´umeros I Para cada jogador, a incerteza ´e a da associada `a soma dos

n ´umeros escolhidos pelos seus dois advers ´arios. I As v ´arias possibilidades e as suas probabilidades s ˜ao

 a + b p(a + b)  =  2 3 4 5 6 1/9 2/9 3/9 2/9 1/9 

A incerteza da situac¸ ˜ao ´e H(a + b) = 2, 1972 bits

I Suponhamos que um dos jogadores faz batota e descobre que um dos seus parceiros escolheu o “3”. As probabilidades alteram-se ent ˜ao para

 a + b p(a + b|b = 3)  =2 3 4 5 6 0 0 1/3 1/3 1/3 

A incerteza da situac¸ ˜ao ´e agora

H(a + b|b = 3) = log 3 ' 1, 5850 bits,

a entropia da soma condicionada ao valor de uma das parcelas ser 3.

(10)

Entropia condicional

I Lanc¸amos um dado (d). Se “sai” 1,2,3,4 (A), lanc¸amos uma moeda; se no dado “sai” 5,6 (B), lanc¸amos duas moedas. Qual a incerteza relativa ao n ´umero (m) de caras que obtemos no lanc¸amento da ou das moedas?

I Probabilidades condicionadas: m→ 0 1 2 d = A 1/2 1/2 0 d = B 1/4 1/2 1/4 Probabilidades conjuntas: m→ 0 1 2 d = A 1/3 1/3 0 d = B 1/12 1/6 1/12 I Probabilidade marginal: m =  0 1 2 5/12 1/2 1/12 

I Ent ˜ao H(m) = 1, 3250 bits

I Mas H(m|d = A) = 1 bit e H(m|d = B) = 1, 5 bit

I Chama-seincerteza condicional associada a m dado d ao valor expect ´avel da incerteza relativamente a m dado o valor de d :

H(m|d ) = p(d = A)H(m|d = A) + p(d = B)H(m|D = B) =1, 1667 bits

(11)

Entropia condicional e informac¸ ˜ao m ´utua

I Em geral, dadas duas vari ´aveis aleat ´orias X e Y , se for p(xi)a

distribuic¸ ˜ao de probabilidades associada `a vari ´avel X , chama-se entropia condicional de Y dado X ao valor espect ´avel da entropia condicional de Y para os diferentes valores de X :

H(Y |X ) =X

i

p(xi)H(Y |X = xi)

I Se nada sabemos sobre X , a entropia associada a Y ´e, simplesmente, H(Y ).

I Se observarmos X , haver ´a uma maior ou menor reduc¸ ˜ao de incerteza, conforme o valor observado. O valor expect ´avel da incerteza associada a Y depois da observac¸ ˜ao de X ´e a incerteza condicional H(Y |X )

I O valor expect ´avel daquantidade de informac¸ ˜aoque recebemos ao observar X ´e ent ˜ao

I(Y |X ) = H(Y ) − H(Y |X )

(12)

Informac¸ ˜ao — Exemplos

I No problema do dado e das moedas, tinhamos H(m) = 1, 3250 bits H(m|d ) = 1, 1667 bits.

Logo,

I(m|d ) = 0, 1583 bits I No exemplo do jogo do total,

H(a + b) = 2, 1872 bits H(a + b|b) = 1, 5850 bits. ⇒ I(a + b|b) = 0, 6122 bits

(13)

Informac¸ ˜ao — Exemplos

I Uma pessoa escolhe uma carta de um baralho normal de 52. Quanta informac¸ ˜ao nos transmite se nos disser qual ´e o naipe?

I A incerteza associada com a escolha da carta ´e H(C) = log 52 = 5, 7004 bits

I Ao dizer-nos o naipe, a incerteza passa a H(C|N) = log 13 = 3, 7004 bits

I A informac¸ ˜ao recebida ´e ent ˜ao I(C|N) = H(C) − H(C|N) = 2 bits

I Tentamos adivinhar um n ´umerox, secretamente escolhido por outra, pessoa por tentativas. Sugerimos um valor e essa pessoa diz-nos se o n ´umerox ´e menor, igual ou maior do que o que n ´os sugerimos.

Se1 ≤ x ≤ 50e se n ´os sugerimos o 15, qual informac¸ ˜ao que recebemos se ela nos disser que o n ´umero secreto ´e menor?

I a incerteza inicial ´e H(x ) = log 50 ' 5, 6439 bits I a incerteza final ´e H(x |x < 15) = log 14 ' 3, 8074 bits

I I(x |x < 15) = H(x ) − H(x |x < 15) = 1, 8365 bits

I De igual modo se deduz

I(x |x = 15) = H(x ) − H(x |x = 15) = H(x ) ' 5, 6439 bits I(x |x > 15) = H(x ) − H(x |x > 15) ' 0, 5146 bits

(14)
(15)

Para os alunos de n ´umero par 1. A probabilidade de chuva, ama-nh ˜a `as 15:00, ´e 0,69. Qual o valor da incerteza associada `a ocorr ˆencia (ou n ˜ao) de chuva a essa hora?

A 0,27 bits B 0,62 bits C 0,89 bits

2. Num grupo com 15 mulheres e 10 homens ´e escolhido uma pessoa ao calhas. Qual a quantidade de informac¸ ˜ao recebida se nos dizem que ´e uma mulher?

A 1,00 bit B 0,75 bits C 1,32 bits

Para os alunos de n ´umero ´ımpar 1. A probabilidade de chuva, ama-nh ˜a `as 9:00, ´e 0,88. Qual o valor da incerteza associada `a ocorr ˆencia (ou n ˜ao) de chuva a essa hora?

A 0,53 bits B 0,37 bits C 0,16 bits

2. Num grupo com 15 mulheres e 10 homens ´e escolhido uma pessoa ao calhas. Qual a quantidade de informac¸ ˜ao recebida se nos dizem que ´e um homem?

A 1,00 bit B 0,75 bits C 1,32 bits

Referências

Documentos relacionados

[r]

Na montagem do processo, após dissolução do SurTec 874 Sal é necessário que se analise o sulfato, para posterior acerto com ácido sulfúrico e a manutenção do processo deve

Artigo 40.º Falta, insuficiência e irregularidade do mandato Artigo 41.º Patrocínio a título de gestão de negócios Artigo 42.º Assistência técnica aos advogados Artigo 43.º

Altera a Constituição Federal para disciplinar o contencioso administrativo fiscal no âmbito da União, dos Estados, do Distrito Federal e dos Municípios e a

A paleontologia ocupa-se da descrição e classificação de fósseis, cuja idade pode variar desde o surgimento de vida no planeta, há mais de 3,5 bilhões de anos, até o Holoceno

Quadro 13: Posição relativa da U.Porto entre as universidades de cada país do espaço iberoamericano, considerando a produção científica geral nos últimos 15 anos e

Considere que desejemos estimar o valor m ´edio da vari ´avel aleat ´oria x numa populac¸ ˜ao com base em uma amostra simples aleat ´oria.. Quantos animais devem ser pesados para

Nesta nota técnica, pesquisadores do Climate Policy Initiative/ Pontifícia Universidade Católica do Rio de Janeiro (CPI/ PUC-Rio) analisam a tramitação legislativa do projeto da