• Nenhum resultado encontrado

ee371-semana-10-quantizacao-uniforme

N/A
N/A
Protected

Academic year: 2021

Share "ee371-semana-10-quantizacao-uniforme"

Copied!
5
0
0

Texto

(1)

Codifica¸c˜

ao e Compress˜

ao de Dados

Ad˜

ao Souza Jr.

May 2, 2018

Abstract

Teoria da quantiza¸c˜ao. Atividade de reconstru¸c˜ao de sinal quantizado. As notas de aula sobre quantiza¸c˜ao seguem a referˆencia 5, cap´ıtulo 4, com especial aten¸c˜ao ao exemplo 4.1

1

Quantidade de informa¸

ao em sinais cont´ınuos

At´e agora trabalhamos com mensagens constitu´ıdas de conjuntos de dados dis-cretos cujos s´ımbolos podem ser representados por um alfabeto finito. Podemos, assim, dizer que a mensagem a se comprimir ´e uma sequˆencia de N c´odigos C0, C1, C2, ...CN −1 e que cada c´odigo Cn∈ ζ = {σ0, σ1, σ2...σM −1}, onde ζ ´e o

alfabeto com M diferentes s´ımbolos.

A codifica¸c˜ao da mensagem em um trem de bits ´e realizada por diferentes processos em que se transforma a sequencia de c´odigos Cnem uma sequencia de

bits bj. O tamanho m´edio de cada c´odigo ¯L ´e dado pelo n´umero de bits utilizados

para representar a mensagem dividido pelo n´umero de s´ımbolos representado. Pode-se atribuir a cada s´ımbolo uma probabilidade de ocorrˆencia (pk) e uma

quantidade de informa¸c˜ao (Ik). Com isso ´e poss´ıvel determinar a entropia do

conjunto H(ζ) que determina o limite m´ınimo de bits necess´ario para representar os mesmos.

Em muitas situa¸c˜oes reais, no entanto, nosso conjunto de dados ´e repre-sentando por algum tipo de grandeza cont´ınua que ´e amostrado e quantizado. Assumindo que se tenha um sinal cont´ınuo que foiamostrado s(nT ), como seria poss´ıvel determinar a codifica¸c˜ao mais eficiente para esse sinal?

1.1

Entropia diferencial

Em primeiro lugar poderiamos tentar substituir as probabilidades discretas que usamos para o calculo de quantidade de informa¸c˜ao pela fun¸c˜ao densidade de probabilidade da v´ari´avel cont´ınua (fs) e buscar um an´alogo para a entropia.

Lembrando que H(ζ) = PM −1

0 pk· Ik = −P M −1

0 pk· log2(pk). Para um

intervalo de valores ∆sa partir de s a probabilidade ´e dada por fs(s)∆s.

Assim: H(ζ) = − M −1 X 0 fs(s)∆s·log2(fs(s)∆s) = − M −1 X 0 fs(s)∆s·log(fs(s))− M −1 X 0 fs(s)∆s·log2(∆). (1)

(2)

Ou seja: H(ζ) = −PM −1

0 fs(s)∆s · log2(fs(s)) − log2(∆). Onde M ´e o

n´umero de subdivis˜oes de s pelo intervalo ∆s.

Quando se aproxima o intervalo para zero a primeira parte da express˜ao pode ser transformada em uma integral e a segunda diverge. Se define a en-tropia diferencial h(s) de uma vari´avel cont´ınua s utilizando a vers˜ao integral da primeira parte dessa express˜ao:

h(s) = − Z ∞

−∞

fs(s) · log2[fs(s)]dS (2)

Exemplo 1: Uma v´ari´avel x com distribui¸c˜ao uniforme no intervalo x ∈ [−A, A], tera entropia diferencial h(x) = −RA

−A 1 2A· log2[

1 2A]dS

Exemplo 2: Uma vari´avel x com ditribui¸c˜ao gaussiana fx= √2πσ1 2exp[−

(x−µx)2

2σ2 ]

pode ter sua entropia diferencial calculada como h(x) = 12log22πeσ2

Obs: ´E poss´ıvel provar que para qualquer distribui¸c˜ao com variˆancia dada por σ a entropia diferencial ser´a sempre menor ou igual a dada para uma dis-tribui¸c˜ao gaussiana.

1.2

Entropia diferencial e informa¸

ao

Note-se que a entropia diferencial n˜ao ´e igual a defini¸c˜ao de entropia que temos para fontes discretas e n˜ao se pode atribuir a ela as mesmas propriedades. De fato n˜ao existe um equivalente ao teorema da codifica¸c˜ao que possa ser aplciado diretamente a vari´avel cont´ınua.

Pode-se, no entanto, usar a entropia diferencial de forma similar a entropia para se definir a informa¸c˜ao mutua para vari´aveis cont´ınuas. Em vari´aveis discretas a informa¸c˜ao m´utua I(x—y) ´e a quantidade de informa¸c˜ao de uma dada vari´avel x quando se sabe da ocorrˆencia de uma segunda vari´avel y e ´e calculada usando-se as distribui¸c˜oes de probabilidade condicionais (Px—y).

A entropia condicional H(X—Y) pode ser considerada a incerteza restante a respeito da vari´avel X quando se tem conhecimento da vari´avel Y. Desse modo ´

e sempre menor ou igual a entropia de X. Ou seja: H(X|Y ) ≤ H(X). Note-se que estamos usando X e Y ma´ıusculos para denotar os alfabetos de x e y respectivamente. Pode-se mostrar que I(x|y) = H(Y ) − H(Y |X) = I(y|x)

Em vari´aveis cont´ınuas pode-se ober uma rela¸c˜ao similar usando a entropia condicional: I(X|Y ) = h(X) − h(X|Y ). Ou seja, mesmo n˜ao sendo poss´ıvel atribuir uma quantidade de informa¸c˜ao ´unica a uma vari´avel cont´ınua ´e poss´ıvel determinar a quantidade de informa¸c˜ao m´utua entre vari´aveis cont´ınuas. De fato a informa¸c˜ao m´utua pode ser usada, assim como outros crit´erios como o erro quadr´atico, a fim de avaliar a qualidade de uma representa¸c˜ao discreta de um sinal cont´ınuo. Isso ´e feito atrav´es de uma fun¸c˜ao de taxa de distor¸c˜ao (Rate Distortion Function) e pode ser visto em detalhes na bibliografia (Sayood, se¸c˜ao 8.5, por exemplo).

2

Quantiza¸

ao

A fim de se poder melhor compreender o processo de quantiza¸c˜ao e seu papel na codifica¸c˜ao e compress˜ao de dados devemos aborda-lo de forma incremental.

(3)

Inicialmente vamos estudar a quantiza¸c˜ao escalar, tanto uniforme, quanto n˜ao uniforme para, em seguida, nos preocuparmos com a quantiza¸c˜ao diferencial.

Algumas defini¸c˜oes s˜ao importantes: o processo de quantiza¸c˜ao ir´a transfor-mar uma uma vari´avel cont´ınua j´a amostrada x[n] em uma nova s´erie xq[n], onde

cada elemento de xq´e um valor discreto selecionado de um alfabeto finito X de M

poss´ıveis s´ımbolos. Assim, xq ∈ X = {...σ−1, σ0, σ1],σ2,.... Para isso ser poss´ıvel

´

e necess´ario que os valores de entrada cont´ınuos sejam limitados. Chamamos de faixa dinˆamica a varia¸c˜ao m´axima do valor de x (ou seja DR = |Xmax− Xmin|).

A resolu¸c˜ao de um quantizador ´e dada por r = log2(M ), onde M ´e o n´umero de

s´ımbolos usados para representar o sinal quantizado.

O valor de entrada ´e comparado com um conjunto de limiares que deter-minam os limites de cada s´ımbolo. Para M s´ımbolos haver˜ao M-1 limiares de compara¸c˜ao. Os simbolos podem ser representandos pelos seus ´ınidces no alfa-beto, ou pelo valor que representam. O conjunto dos M valores representandos ´e chamado de codebook. Para uma resolu¸c˜ao r, haver˜ao 2rs´ımbolos no codebook

e 2r− 1 limiares.

2.1

Quantiza¸

ao uniforme

Uma das maneiras que se pode realizar a quantiza¸c˜ao ´e definir que a mesma seja feita de forma uniforme. Ou seja, que os limiares de quantiza¸c˜ao sejam uniformente espa¸cados. Nesse caso chamamos a menor diferen¸ca observada entre valores de sa´ıda quantizados de passo de quantiza¸c˜ao, ou q. Onde:

q = DR 2r− 1 =

DR

M − 1 (3)

O gr´afico que indica os valores de sa´ıda que ser˜ao atribu´ıdos a cada um dos s´ımbolos ´e chamado de rela¸c˜ao entrada-sa´ıda e, de fato, existem duas diferentes formas de se converter um conjunto de valores cont´ınuos, pode-se optar por representar o zero como um dos s´ımbolos (meio-piso ou mid-thread). Isso ´e representado na figura 1.

Figure 1: Entrada-sa´ıda e quantiza¸c˜ao de senoide usando mid-thread

A express˜ao para calcular os valores de sa´ıda de um quantizador uniforme meio passo ´e dada por:

xq= q · b

x q +

1

(4)

Alternativamente, pode-se colocar um limiar de compara¸c˜ao em zero, gerado-se uma rela¸c˜ao entrada sa´ıda conhecida como meio passo (mid rise) que pode ser vista na figura 2.

Figure 2: Entrada-sa´ıda e quantiza¸c˜ao de senoide usando mid-thread

Nesse caso a equa¸c˜ao para a quatiza¸c˜ao fica sendo:

xq = q · (b

x qc +

1

2) (5)

2.2

Teoria do ruido aditivo de quantiza¸

ao

Quando o sinal ´e quantizado a entrada ´e comparada com diferentes limiares para definir o c´odigo de sa´ıda. Se observarmos a distribui¸c˜ao de probabilidades de entrada e a de sa´ıda a rela¸c˜ao entre elas pode ser vista na figura 3. No exemplo se esta considerando um quantizador mid-thread com M=7. Note-se que a distribui¸c˜ao de probabilidade da sa´ıda ´e discreta e cada um dos seis impulsos tem uma amplitude que corresponde a ´area da distribui¸c˜ao de entrada entre os dois limiares que definem o simbolo. Na figura, a ´area pintada de cinza corresponde a probabilidade do s´ımbolo zero.

−3 −2 −1 1 2 3

x q

fx

Figure 3: Distribui¸c˜ao de uma vari´avel cont´ınua gaussiana fx e quantizada fxq

A distribui¸c˜ao de probabilidades da sa´ıda pode ser calculada como um trem de impulsos em que cada amplitude ´e calculada pela ´area respectiva:

fxq = i=M/2 X i=−M/2,i6=0 ( Z q·i+q/2 q·i−q/2 fx(x)dx) · δ(x − i · q) (6)

(5)

Utilizando a rela¸c˜ao entre a convolu¸c˜ao com um pulso quadrado e a ´area delimitada pela base desse quadrado ´e poss´ıvel reescrever a equa¸c˜ao 6 da seguinte forma. fxq= q · rect(x q) fx· i=M/2 X i=−M/2,i6=0 δ(x − i · q) (7)

Ou seja, a distribui¸c˜ao discreta da sa´ıda corresponde a convoluirmos a dis-tribui¸c˜ao da entrada com uma distribui¸c˜ao uniforme de largura q e amostrarmos essa distribui¸c˜ao resultante com nosso passo de quantiza¸c˜ao.

A partir dessa express˜ao ´e poss´ıvel perceber que essa distribui¸c˜ao ´e a mesma que se obteria caso se somasse a entrada com ruido uniforme de amplitude q/2 (ou seja, ruido uniforme n que teria a disribui¸c˜ao de probabilidade dada por fn = 1/q · rect(xq). Lembrando-se que quando se somam duas vari´aveis n˜ao

correlacionadas suas distribui¸c˜oes de probabilidade convoluem.

Isso pode ser interpretado pensando-se o seguinte: se a quantiza¸c˜ao for boa o bastante o erro ser´a aproximadamente uma fun¸c˜ao dente de serra n˜ao correla-cionada com a entrada. Essa fun¸c˜ao teria uma distribui¸c˜ao de probabilidade exatamente retangular como esperado. Ou seja: o efeito da quantiza¸c˜ao vai ser a adi¸c˜ao de um ruido uniforme com distribui¸c˜ao fn.

A quest˜ao ´e: qual o passo de quantiza¸c˜ao suficiente para isso? A resposta vem dos teoremas de quantiza¸c˜ao I e II que podem ser lidos em detalhes nos capitulo 4 de Quantization Noise por Widrow e Kollar que pode ser lido online. (http://oldweb.mit.bme.hu/books/quantization/)

2.3

Simula¸

ao

´

E esse principio que ´e ilustrado na simula¸c˜ao dessa semana. Para um conjunto de dados se aproxima primeiro a densidade de probabilidade (PDF). A partir dai se calcula sua fun¸c˜ao caracteristica CF (transformada da PDF). Em cima dessa transformada se aplica o teorema escolhendo um q o qual obedece a condi¸c˜ao QT I.

Leia atentamente os coment´arios do c´odigo e fa¸ca as propostas de mudan¸ca observando os resultados. Depois disso, efetue a leitura do capitulo 4 da refer-encia (Widrow e Kollar) e realize a tarefa de hoje.

Referências

Documentos relacionados

Realizando o pr´ e-processamento de textos utilizando a nova vers˜ ao da ferramenta Pre- TexT ´ e poss´ıvel calcular uma grande quantidade de informa¸c˜ ao referente aos

Realizando o pr´ e-processamento de textos utilizando a nova vers˜ ao da ferramenta Pre- TexT ´ e poss´ıvel calcular uma grande quantidade de informa¸c˜ ao referente aos

Estando o investigador por vezes sujeito a algumas restri¸c˜ oes t´ ecnicas quando tem de realizar uma investiga¸c˜ ao, nem sempre ´ e poss´ıvel extrair essa informa¸c˜ ao,

Assim, considerando o uso do solo conflitante na Zona de Amortecimento – ZA do PEPF, a partir de 2006 foram desenvolvidas atividades de monitoramento ambiental

A partir do modelo exposto por Batista (2012), no capítulo 2 – fundamentação teórica, seção 2.3.8 etapas da implementação do plano de Gestão do Conhecimento, foi elaborado

Revisão geral do procedimento para incluir como a DIRF fará a gestão no ciclo de um novo radiofármaco (Transferência de Tecnologia da Função Pesquisa e Desenvolvimento para

Em relação aos dados disponibilizados pela Corregedoria-Geral da Justiça do Estado de Santa Catarina, pode-se observar, conforme a Tabela 1, que os números aumentaram

Uma poss´ıvel explica¸c˜ao para as diferen¸cas encontradas nas estimativas poderia ser pensada como sendo uma parte das informa¸c˜oes que n˜ao podem ou n˜ao foram observadas,