Definic¸ ˜ao de informac¸ ˜ao
L.J. Amoreira
UBI
Entropia (ou incerteza [ou ignor ˆancia])
I A incerteza associada a uma vari ´avel aleat ´oria X que pode tomar os valores x1, x2,. . . , xncom probabilidades p1, p2,. . . , pn
´e (definic¸ ˜ao)
H(X ) = −X
i
pilog pi.
I Quais as entropias associadas `as seguintes distribuic¸ ˜oes de probabilidade?
1. 1/2, 1/2 2. 1/3, 1/3, 1/3 3. 1/2, 1/4, 1/4
4. 1/12, 1/12, 1/3, 1/4, 1/4
I Pod´ıamos ter ordenado estas distribuic¸ ˜oes por ordem crescente de entropia antes de fazermos as contas?
Entropia — Significados intuitivos (I)
I A incerteza de um resultado particular de uma experi ˆencia aleat ´oria ´e tanto maior quanto mais improv ´avel ele for I Um resultado mais improv ´avel (logo mais incerto) causa-nos
maior surpresa. Se ele ´e certo, a surpresa a ele associada ´e nula; se ´e imposs´ıvel, a surpresa a ele associada ´e infinita. I Podemos definir incerteza (ou surpresa) associada a um valor
particular Xi de uma vari ´avel aleat ´oria como
h(Xi) = −log pi,
se pi for a probabilidade desse valor particular.
I Mas ent ˜ao a entropia associada a uma vari ´avel aleat ´oria X , H(X ) = −X i pilog pi = X i pih(Xi),
´e o valor expect ´avel da incerteza associada aos v ´arios valores poss´ıveis dessa vari ´avel aleat ´oria.
Entropia — Significados intuitivos (II)
I A entropia associada ao lanc¸amento de um dado ´e log 6 ' 2, 5850 bit
I Em m ´edia, quantas perguntas com resposta sim/n ˜ao devemos fazer para sermos informados do resultado do lanc¸amento de um dado? Estrat ´egia 1: hNi =X k pkNk ' 3, 3333 Estrat ´egia 2: hNi =X k pkNk ' 2, 6667
I H ´a estrat ´egias melhores? H ´a limites a essa melhoria? Sim:N ≥ H I A entropia associada a uma vari ´avel aleat ´oria ´e o n ´umero m´ınimo
expect ´avel de perguntas sim/n ˜ao necess ´arias para determinarmos o seu valor.
Entropia — Significados intuitivos (III)
I Seja X a vari ´avel aleat ´oria
X =
a b c
0, 495 0, 495 0, 01
I Repetindo muitas vezes a experi ˆencia que produz X esperamos encontrar sequ ˆencias de resultadost´ıpicas, como (aababbbaab) ou (bbcaaabbba), mas n ˜ao (acccbccbcc)
I O n ´umero de sequ ˆencias t´ıpicas dos resultados da repetic¸ ˜ao n vezes de uma experi ˆencia aleat ´oria ´e 2Hn, onde H ´e a entropia
Entropia conjunta
I SejamX eY duas vari ´aveis aleat ´orias
X =x1 x2 . . . xN p1 p2 . . . pN Y =y1 y2 . . . yM p1 p2 . . . pM
I Seja pij=P(X = xi∩Y = yj)a distribuic¸ ˜ao de probabilidade
conjunta das duas vari ´aveis
I A entropia conjunta das duas vari ´aveis ´e
H(X , Y ) = − N X i=1 M X j=1 pijlog pij
Entropia conjunta — Exemplos
I X ´e o resultado do lanc¸amento de uma moeda; Y ´e o resultado do lanc¸amento de um dado.
pij =1/2 × 1/6 = 1/12
H(X , Y ) = log 12 ' 3, 585 bits = H(X ) + H(Y )
I Lanc¸am-se duas moedas. Seja X o n ´umero de caras (0 ou 1) que “saem” na primeira das moedas e Y o n ´umero total de caras obtido nas duas moedas X = 0 1 1/2 1/2 Y = 0 1 2 1/4 1/2 1/4 Probabilidades conjuntas: Y = 0 Y = 1 Y = 2 X = 0 1/4 1/4 0 X = 1 0 1/4 1/4 H(X , Y ) = −4 ×1 4log 1 4 =2 bits H(X ) = 1 bit H(Y ) = 1, 5 bits
Entropia condicional
I Entropia associada ao lanc¸amento de um dado:
p(k ) = 1
6 ⇒ Hi =log 6 I Sabendo que o resultado ´e par,
p(k ) = p(k |k ´e par) =1 2 3 4 5 6
0 1/3 0 1/3 0 1/3
⇒ Hf =log 3
I Calcul ´amos esta ´ultima entropia atrav ´es da f ´ormula
H(d |d ´e par) = −
6
X
k =1
p(k |k ´e par) log p(k |k ´e par)
´
E a entropia de uma vari ´avel aleat ´oria, condicionada a um determinado valor de outra vari ´avel aleat ´oria.
Exemplo: o jogo do total
I Tr ˆes amigos pensam num n ´umero entre 1 e 3 (inclusive). O objectivo ´e tentar adivinhar a soma dos tr ˆes n ´umeros I Para cada jogador, a incerteza ´e a da associada `a soma dos
n ´umeros escolhidos pelos seus dois advers ´arios. I As v ´arias possibilidades e as suas probabilidades s ˜ao
a + b p(a + b) = 2 3 4 5 6 1/9 2/9 3/9 2/9 1/9
A incerteza da situac¸ ˜ao ´e H(a + b) = 2, 1972 bits
I Suponhamos que um dos jogadores faz batota e descobre que um dos seus parceiros escolheu o “3”. As probabilidades alteram-se ent ˜ao para
a + b p(a + b|b = 3) =2 3 4 5 6 0 0 1/3 1/3 1/3
A incerteza da situac¸ ˜ao ´e agora
H(a + b|b = 3) = log 3 ' 1, 5850 bits,
a entropia da soma condicionada ao valor de uma das parcelas ser 3.
Entropia condicional
I Lanc¸amos um dado (d). Se “sai” 1,2,3,4 (A), lanc¸amos uma moeda; se no dado “sai” 5,6 (B), lanc¸amos duas moedas. Qual a incerteza relativa ao n ´umero (m) de caras que obtemos no lanc¸amento da ou das moedas?
I Probabilidades condicionadas: m→ 0 1 2 d = A 1/2 1/2 0 d = B 1/4 1/2 1/4 Probabilidades conjuntas: m→ 0 1 2 d = A 1/3 1/3 0 d = B 1/12 1/6 1/12 I Probabilidade marginal: m = 0 1 2 5/12 1/2 1/12
I Ent ˜ao H(m) = 1, 3250 bits
I Mas H(m|d = A) = 1 bit e H(m|d = B) = 1, 5 bit
I Chama-seincerteza condicional associada a m dado d ao valor expect ´avel da incerteza relativamente a m dado o valor de d :
H(m|d ) = p(d = A)H(m|d = A) + p(d = B)H(m|D = B) =1, 1667 bits
Entropia condicional e informac¸ ˜ao m ´utua
I Em geral, dadas duas vari ´aveis aleat ´orias X e Y , se for p(xi)a
distribuic¸ ˜ao de probabilidades associada `a vari ´avel X , chama-se entropia condicional de Y dado X ao valor espect ´avel da entropia condicional de Y para os diferentes valores de X :
H(Y |X ) =X
i
p(xi)H(Y |X = xi)
I Se nada sabemos sobre X , a entropia associada a Y ´e, simplesmente, H(Y ).
I Se observarmos X , haver ´a uma maior ou menor reduc¸ ˜ao de incerteza, conforme o valor observado. O valor expect ´avel da incerteza associada a Y depois da observac¸ ˜ao de X ´e a incerteza condicional H(Y |X )
I O valor expect ´avel daquantidade de informac¸ ˜aoque recebemos ao observar X ´e ent ˜ao
I(Y |X ) = H(Y ) − H(Y |X )
Informac¸ ˜ao — Exemplos
I No problema do dado e das moedas, tinhamos H(m) = 1, 3250 bits H(m|d ) = 1, 1667 bits.
Logo,
I(m|d ) = 0, 1583 bits I No exemplo do jogo do total,
H(a + b) = 2, 1872 bits H(a + b|b) = 1, 5850 bits. ⇒ I(a + b|b) = 0, 6122 bits
Informac¸ ˜ao — Exemplos
I Uma pessoa escolhe uma carta de um baralho normal de 52. Quanta informac¸ ˜ao nos transmite se nos disser qual ´e o naipe?
I A incerteza associada com a escolha da carta ´e H(C) = log 52 = 5, 7004 bits
I Ao dizer-nos o naipe, a incerteza passa a H(C|N) = log 13 = 3, 7004 bits
I A informac¸ ˜ao recebida ´e ent ˜ao I(C|N) = H(C) − H(C|N) = 2 bits
I Tentamos adivinhar um n ´umerox, secretamente escolhido por outra, pessoa por tentativas. Sugerimos um valor e essa pessoa diz-nos se o n ´umerox ´e menor, igual ou maior do que o que n ´os sugerimos.
Se1 ≤ x ≤ 50e se n ´os sugerimos o 15, qual informac¸ ˜ao que recebemos se ela nos disser que o n ´umero secreto ´e menor?
I a incerteza inicial ´e H(x ) = log 50 ' 5, 6439 bits I a incerteza final ´e H(x |x < 15) = log 14 ' 3, 8074 bits
I I(x |x < 15) = H(x ) − H(x |x < 15) = 1, 8365 bits
I De igual modo se deduz
I(x |x = 15) = H(x ) − H(x |x = 15) = H(x ) ' 5, 6439 bits I(x |x > 15) = H(x ) − H(x |x > 15) ' 0, 5146 bits
Para os alunos de n ´umero par 1. A probabilidade de chuva, ama-nh ˜a `as 15:00, ´e 0,69. Qual o valor da incerteza associada `a ocorr ˆencia (ou n ˜ao) de chuva a essa hora?
A 0,27 bits B 0,62 bits C 0,89 bits
2. Num grupo com 15 mulheres e 10 homens ´e escolhido uma pessoa ao calhas. Qual a quantidade de informac¸ ˜ao recebida se nos dizem que ´e uma mulher?
A 1,00 bit B 0,75 bits C 1,32 bits
Para os alunos de n ´umero ´ımpar 1. A probabilidade de chuva, ama-nh ˜a `as 9:00, ´e 0,88. Qual o valor da incerteza associada `a ocorr ˆencia (ou n ˜ao) de chuva a essa hora?
A 0,53 bits B 0,37 bits C 0,16 bits
2. Num grupo com 15 mulheres e 10 homens ´e escolhido uma pessoa ao calhas. Qual a quantidade de informac¸ ˜ao recebida se nos dizem que ´e um homem?
A 1,00 bit B 0,75 bits C 1,32 bits