Sumário
1.1 Trabalhos Relacionados
Diversos trabalhos descrevem métodos de compressão para eletrocardiogramas (ECGs)
e EEGs, mas, em sua maioria, esses trabalhos são voltados para a codificação de um
único tipo de exame, usando características intrínsecas aos seus respectivos sinais para
obter melhores resultados de compactação. Nesta seção serão apresentados os principais
trabalhos relacionados à compressão de sinais biomédicos encontrados na literatura. O
único método autoadaptativo anterior ao presente trabalho que se propõe a abranger
Capítulo 1. Introdução 4
dele, apenas técnicas tratando da compressão de ECGs e EEGs serão descritas.
Batista (2002) propõe uma série de métodos semelhantes ao descrito neste trabalho,
usando uma minimização de multiplicadores de Lagrange para encontrar os vetores
ótimos de quantização e de zona-morta, mas considera apenas ECGs em seus testes. A
principal diferença dos métodos apresentados por Batista (2002) para a estratégia de
compressão com perdas de informação do presente trabalho está na etapa de codificação
de entropia, que considerou principalmente codificadores de Golomb-Rice (Golomb, 1966) e codificadores aritméticos (Bell et al., 1990). Batista (2002) realizou testes
com o MIT/BIH Arrhythmia Database (Moody e Mark, 2001), reportando razões de compressão médias entre 6,2 : 1 e 13,3 : 1, dependendo da distorção escolhida.
Zou e Gallagher (1993) usaram uma combinação de transformadas trigonométricas e
waveletspara codificar áreas diferentes de sinais de ECG. As partes do sinal que contêm complexos 𝑄𝑅𝑆 foram compactadas usando wavelets e as áreas correspondentes às ondas 𝑃, 𝑇 e 𝑈 foram comprimidas com a quantização de coeficientes gerados por transformações baseadas na função cosseno. Os sinais estudados nesse trabalho foram
divididos em blocos de 512 amostras, transformados e, posteriormente, subamostrados,
de forma que apenas 91 amostras eram mantidas. Dessa forma, o trabalho conseguia diminuições nos arquivos da ordem de 5,6 : 1 com uma boa qualidade de reconstrução.
Ranjeet et al. (2013) usam uma estratégia de Corte e Alinhamento (Cut and Align – CAB) para seccionar ECGs e reorganizá-los para executar transformadas wavelet bidimensionais com blocos de tamanho 180×20. Os coeficientes transformados são passados para um codificador de Huffman (Huffman, 1952), atingindo ganhos de 65%
em eficácia de compressão e uma correlação de 0,999 entre o registro original e o comprimido. Os testes dessa técnica de compressão quase sem perdas foram novamente
realizados com o MIT/BIH Arrhythmia Database (Moody e Mark, 2001).
O método descrito por Mukhopadhyay et al. (2011) usa uma técnica de diferenciação
5 1.1. Trabalhos Relacionados
métodos de predição linear nessas regiões, favorecendo a compressão. As áreas próximas
a ondas 𝑅 são passadas para um codificador sem perdas de informação, enquanto as áreas entre ondas 𝑅 são codificadas com perdas de informação. Mukhopadhyay et al. (2011) usaram o banco de dados diagnóstico de ECGs Physikalisch-Technische Bundesanstalt (PTB) (Oeff et al., 2012) em seus testes, reportando ganhos de espaço de armazenamento na ordem de 23,10 : 1 com métricas de distorção baseadas no Percentual da Raiz Média Quadrática das Diferenças (Percent Root-mean-square Difference– PRD) de 7,55%.
O trabalho apresentado por Lai et al. (2013) usa variações da transformada discreta
do cosseno para a compressão de ECGs. Lai et al. (2013) reportam razões de compressão
com perdas de informação de 5,25 : 1 usando distorções baseadas na PRD de 0,19% em arquivos do MIT/BIHArrhythmia Database (Moody e Mark, 2001).
Antoniol e Tonella (1997) descrevem vários métodos de compressão sem perdas ou
quase sem perdas de EEGs, variando principalmente a etapa de predição dos sinais.
Para os testes do método, os autores usaram um banco de dados próprio capturado
no S. Chiara Hospital. Bons resultados são obtidos com o uso de um preditor linear
alimentando um codificador de entropia, o que resultou em razões de compressão de aproximadamente 2,51 : 1. Os melhores resultados foram obtidos ao se usar uma quantização vetorial seguida de um codificador de Huffman (Huffman, 1952), chegando
a eliminar 62% do sinal original.
Memon et al. (1999) comparam diversas técnicas de compressão sem perdas
exis-tentes para a compressão de EEGs. Os melhores resultados são obtidos ao se modelar
o EEG usando um processo autorregressivo, o que resultou em arquivos comprimidos
com tamanhos próximos a 1/3dos originais.
Srinivasan et al. (2013) propõem um método para a codificação de EEGs com canais
múltiplos baseado em transformadas wavelet bidimensionais e tridimensionais. Essa estratégia permite que o algoritmo explore tanto as similaridades dos canais individuais
Capítulo 1. Introdução 6
quanto as similaridades entre os diversos canais do registro de EEG. Esse trabalho
reporta razões de compressão de 6,63 : 1 com distorções de 9,21% baseadas na PRD. Oliveira et al. (2014) descrevem uma técnica de compressão com perdas de
infor-mação para PSGs, baseando-se na minimização de multiplicadores de Lagrange para
a otimização de uma quantização vetorial de coeficientes no domínio da frequência.
Os coeficientes transformados e quantizados são passados em uma ordem específica
dependendo do índice para um codificador preditivo contextual. O método foi testado
usando o MIT/BIHPolysomnographic Database (Ichimaru e Moody, 1999) e reportou resultados de razão de compressão entre 2,16 : 1 e 67,48 : 1, dependendo do tipo de registro biomédico e da quantidade de distorção selecionada.
1.2 Objetivos
Este trabalho tem por objetivo desenvolver métodos inovadores de compressão de sinais
biomédicos e testar a eficácia de métodos de compressão comumente usados para a compactação de outros tipos de dados – como imagens e vídeos – no contexto dos sinais
biomédicos.
1.2.1 Objetivos Gerais
O principal objetivo desse trabalho é avançar o estado da arte da área de compressão
de sinais biomédicos. Para isso, serão realizados testes de compressão com perdas e sem
perdas de informação usando tanto técnicas de compressão de sinais biomédicos quanto
métodos originários de outras áreas associadas à Teoria da Informação. Dessa forma,
serão analisadas as eficácias de compactação nos resultados obtidos após a execução
7 1.2. Objetivos
1.2.2 Objetivos Específicos
Visando obter uma análise mais completa sobre os métodos de compactação que
apre-sentam os melhores resultados de compressão de sinais biomédicos unidimensionais, diversos tipos de combinação de técnicas serão avaliados e testados. Primeiramente,
vários tipos de transformadas que aumentem a suscetibilidade dos sinais à compressão
serão avaliadas. Entre as transformadas que se pretende avaliar estão:
1. Transformadas trigonométricas (Britanak et al., 2006);
2. Transformadas baseadas em wavelets (Calderbank et al., 1998).
Em uma segunda etapa, diversos métodos de codificação de entropia serão
execu-tados tanto como um pós-processamento para as transformadas quanto sozinhos para
avaliar o desempenho de técnicas de compressão clássicas (de propósitos gerais) nos
sinais em questão. Nesse trabalho, o foco será direcionado para codificadores de
entro-pia baseado na modelagem estatística direta dos símbolos da mensagem. Os métodos
clássicos de codificação de entropia que serão avaliados são:
1. Codificadores de Golomb (Golomb, 1966);
2. O algoritmo de Predição por Casamento Parcial (Cleary e Witten, 1984);
3. O algoritmo de Predição por Casamento Parcial Binário (Brasileiro e Cavalcanti,
2012);
4. Codificadores de Particionamento de Conjuntos em Árvores Hierárquicas (Said e
Pearlman, 1996).
Por último, pretende-se testar métodos de pré e pós-processamento que auxiliem na
Capítulo 1. Introdução 8
1. Preditores lineares como pré-processamento para algoritmos de codificação de
entropia;
2. Estratégias de quantização;
3. Minimização Lagrangiana para a otimização de parâmetros de compressão, de
acordo com Ratnakar e Livny (1995) e Ratnakar e Livny (1996);
4. Técnicas diferenciais, como a Modulação por Código de Pulso Diferencial ( Diffe-rential Pulse-Code Modulation – DPCM) (Meares, 1974).