• Nenhum resultado encontrado

CELSO GARCIA DE OLIVEIRA ANÁLISE DE COMPONENTES INDEPENDENTES NA SEPARAÇÃO DE MISTURAS CONVOLUTIVAS

N/A
N/A
Protected

Academic year: 2021

Share "CELSO GARCIA DE OLIVEIRA ANÁLISE DE COMPONENTES INDEPENDENTES NA SEPARAÇÃO DE MISTURAS CONVOLUTIVAS"

Copied!
75
0
0

Texto

(1)

UNIVERSIDADE DE BRASILIA

CELSO GARCIA DE OLIVEIRA

ANÁLISE DE COMPONENTES INDEPENDENTES NA

SEPARAÇÃO DE MISTURAS CONVOLUTIVAS

Trabalho de Conclusão de Curso submetido ao Departamento de Engenharia Elétrica, como exigência parcial de obtenção de graduação em bacharel em Engenharia Elétrica, sob a orientação do professor Dr. - Ing. João Paulo Carvalho Lustosa da Costa.

(2)

UNIVERSIDADE DE BRASÍLIA

CELSO GARCIA DE OLIVEIRA

ANÁLISE DE COMPONENTES INDEPENDENTES NA

SEPARAÇÃO DE MISTURAS CONVOLUTIVAS

Trabalho de Conclusão de Curso submetido ao Departamento de Engenharia Elétrica, como exigência parcial de obtenção de graduação em Bacharel em Engenharia Elétrica, sob a orientação do professor Dr. - Ing. João Paulo Carvalho Lustosa da Costa.

Aprovado em 28 / SET /2012 por:

Dr. João Paulo C. Lustosa da Costa . .

Orientador (ENE UnB) Assinatura

Dr. Ricardo Zelenovsky . .

Examinador (ENE UnB) Assinatura

Dr. Adson Ferreira Rocha . .

Examinador (ENE UnB) Assinatura

Menção:_________

Aprovado Aprovado com Restrições Reprovado

(3)

Dedico este trabalho de conclusão à Malu Gadu. Sua alegria e o seu modo de ser contagia a mim no momento que tenho contato com ela. Malu, exemplo de desinteresse e humildade.

(4)

AGRADECIMENTOS

O resultado deste trabalho é fruto de inúmeros eventos e participação contínua de pessoas que me apoiaram desde o início de minha vida. Às pessoas que me ajudaram ao longo desta jornada - com conselhos, afetos, ensinamentos e companheirismo – devo gratidão e reciprocidade.

Primeiramente, agradeço aos meus pais, Celso Nazário e Lázara Garcia, por dar-me a vida, por ensinar-me a comportar-me em sociedade e por me apoiarem, até mesmo quando me encontrava descrente. A lembrança de seus atributos e de demonstração de carinho estará sempre presente em minha consciência.

Agradeço à minha irmã, Priscila, por me ajudar na revisão e na formatação deste trabalho e, principalmente, por se mostrar uma grande amiga em qualquer momento da minha vida.

Também devo gratidão aos meus orientadores do trabalho de conclusão: Dr. João Paulo da Costa e Dr. Ricardo Zelenovsky. Estes são homens de grande conhecimento e exemplo de perseverança no aprofundamento contínuo de suas habilidades, além de possuírem bastante paciência para instruir no aprendizado.

À divindade máxima, da qual emana todo o meu poder de continuar e persistir, eu devo mencionar neste trabalho. O milagre e o propósito de vida sempre se mostraram presentes no momento em que tinha dúvidas e receios sobre minha formação. Portanto, obrigado Deus.

(5)

RESUMO

A Separação Cega de Fontes – BSS – é um tema bastante atual e em fase de desenvolvimento, mesmo que o interesse pelo assunto por matemáticos e físicos seja razoavelmente antigo. O melhoramento contínuo da computação e o desenvolvimento de métodos matemáticos como estatística, cálculo, álgebra linear facilitam e servem de apoio para separação de misturas antes consideradas impossíveis. O modelo BSS é uma formalização matemática que representa misturas de fontes desconhecidas em ambientes desconhecidos. O trabalho aborda a Análise de Componentes Independentes – ICA – como método de solução do problema BSS. O ICA, inicialmente, foi utilizado na solução de problemas relativamente simples, como misturas lineares e instantâneas. No entanto, a utilização de transformadas, em especial a Transformada de Fourier, possibilitou tornar o algoritmo do BSS mais leve computacionalmente por aproximar misturas convolutivas de misturas lineares. Então o método ICA pôde ser aplicado em ambientes mais complexos como o de Múltiplas Entradas e Múltiplas Saídas – MIMO. O sistema MIMO é uma boa representação para misturas convolutivas em sinais de áudio e em sinais biológicos de exames biomédicos. A transformada que merece destaque no trabalho é a Transformada de Fourier por Janelas – STFT – que é um exemplo de uma transformada de representação tempo-frequência.

Palavras-chave: Separação Cega de Fontes, Transformada de Fourier, Transformada

de Fourier por Janelas, Análise de Componentes Independentes, Múltiplas Entradas e Múltiplas Saídas.

(6)

ABSTRACT

Blind Source Separation – BSS is a modern issue which is still being developed, although mathematicians and physicists have a fairly old interest on this subject. The permanent improvement on computation and development of mathematic methods such as statistics, calculation, linear algebra help and support separating mixtures considered impossible in the past. The BSS model is a mathematical formalization which represents unknown mixed sources in unknown environments. This report broaches the Independent Analysis Components – ICA as a solution for the BSS problem. ICA, at first, was used to solve quite simple problems, such as linear and instantaneous mixtures. However, using transforms, especially Fourier Transform, enabled BSS to become computationally lighter by approaching convolutive and linear mixtures. Thus the ICA method could be applied to complex environments such as Multiple Input Multiple Output System – MIMO, which is a great approach for convolutive mixed sources in audio and biological signal tests from the medical area. Short Time Fourier Transform – STFT is also mentioned in this paper as an important example of a time-frequency representation transform.

Keywords: Blind Source Separation, Fourier Transform, Short-Time Fourier

(7)

“A nossa razão deve ser considerada como uma espécie de causa cujo efeito natural é a verdade; mas um efeito tal que pode ser facilmente evitado pela intrusão de outras causas e pela inconstância das nossas faculdades mentais. Dessa maneira, todo o conhecimento degenera em probabilidade; essa probabilidade é maior ou menor segundo a nossa experiência da veracidade ou da falsidade do nosso entendimento e segundo a simplicidade ou a complexidade da questão.”

(8)

SUMÁRIO

Folha de Aprovação ... Resumo ... Abstract ... Capítulo 1 – Introdução ... 1.1 Organização do trabalho ...

Capítulo 2 – Separação Cega de Fontes ...

2.1 Mistura linear ... 2.2 Mistura convolutiva ... 2.3 Ambiguidades do BSS ...

Capítulo 3 – Estatísticas Matriciais de Variáveis Complexas ...

3.1 Estatística de uma variável ... 3.2 Estatística matricial complexa ... 3.3 Curtose e Gaussiaidade ... 3.4 Verossimilhança ...

Capítulo 4 – Análise de Componentes Independentes ...

4.1 Branqueamento ... 4.2 Separação através da curtose ... 4.3 Recuperando o escalonamento da função ... 4.4 ICA utilizando Transformada Rápida de Fourier ...

Capítulo 5 – ICA para Misturas Convolutivas ...

5.1 Transformada de Fourier por Janelas ... 5.2 Transformada Inversa de Fourier por Janelas ... 5.3 Solução para ambiguidade de permutação ...

Capítulo 6 – Conclusão ...

Referências Bibliográficas ... Anexo Códigos em MATLAB® ...

A.1 Misturas lineares ... A.2 Misturas convolutivas de banda estreita ... A.3 Método utilizando STFT ...

ii v vi 9 10 11 11 14 18 21 22 24 26 32 36 37 40 44 47 50 51 53 55 61 63 65 65 67 70

(9)

CAPITULO 1

Introdução

A separação Cega de Fontes – do inglês, Blind Source Separation (BSS) – é um método utilizado em várias aplicações: separação de áudio, telecomunicações, RADAR, SONAR, eletroencefalograma (EEG) [3], mamografia [2]. A denominação BSS vem do fato que se sabe quase nada ou muito pouco a respeito das fontes ou o modo como são realizadas as misturas – ou seja, caminho percorrido pelas fontes através do ambiente. O BSS engloba métodos matematicamente complexas de misturas de sinais, como por exemplo, um conjunto de fontes sonoras em um ambiente fechado: Cocktail Party Effect [10] e Múltiplas Entradas e Múltiplas Saídas – do inglês Multiple Input Multiple Output (MIMO) [4]. O Cocktail Party

Effect é uma denominação advinda da mistura de sons ocorridas em um ambiente, e o sistema

MIMO é ocasionado devido à existência de ambientes reverberantes (reflexão em obstáculos). Este trabalho estuda e expõe o método de separação através da Análise de Componentes Independentes – do inglês, Independent Analysis Components (ICA) – como uma alternativa da solução do problema BSS e do problema MIMO. O método ICA [2, 4] é bastante simples e eficaz nos casos de misturas instantâneas e lineares como em ambientes de telecomunicações. O método pôde ser ampliado com relativa simplicidade através da utilização da Transforma Rápida de Fourier [7] – do inglês, Fast Fourier Transform (FFT) – e conjugando-se as frequências “negativas” da transformada (Conjugado Negativo CN) com o intuito de separar misturas convolutivas de sinais de banda estreita. CN é um método muito simples que foi sugerido neste trabalho.

O trabalho também aborda a ampliação do método ICA na separação de misturas convolutivas, MIMO, de sinais de banda larga através da utilização da Transformada de Fourier por Janelas – do inglês, Short Time Fourier Transform (STFT). A STFT, um exemplo de transformada tempo-frequência [3], é a ferramenta utilizada para aproximar as misturas convolutivas em misturas lineares, como pode ser visto em [1], que é o principal motivador deste trabalho.

(10)

O método ICA é totalmente baseado em análise estatística e utilização de números complexos [6] devido à inserção de transformadas no método. A quantidade de fontes processadas pelos algoritmos a serem apresentados também necessita de uma análise de álgebra matricial mais formalizada.

1.1. Organização do trabalho

Este trabalho encontra-se dividido em seis capítulos. O primeiro capítulo corresponde à introdução do trabalho que já foi previamente abordada. No segundo capítulo, abordar-se-á uma formalização algébrica para o BSS; tanto para as misturas lineares e instantâneas, quanto para as misturas convolutivas (sistema MIMO).

No terceiro capítulo, serão expostos métodos matriciais complexos de estatística, como média, variância e correlação. Também serão abordadas medidas que revelam a respeito da desordem de um sinal como a curtose e a sua relação com a Gaussianidade. No Capítulo 3, também será introduzido uma ideia a respeito da distribuição de um sinal através da verossimilhança.

A separação, propriamente dita, virá à tona com a descrição do método ICA no quarto capítulo. Abordar-se-ão todas as etapas de separação para misturas lineares e instantâneas, incluindo o branqueamento e a separação através da curtose de maneira iterativa. Também será exposta a maneira de solucionar misturas convolutivas de sinais de banda estreita através do ICA, da aplicação da FFT e do CN.

No quinto capítulo, o método ICA será aperfeiçoado para se englobar misturas convolutivas utilizando-se a Transformada de Fourier por Janelas – STFT. A solução da ambiguidade de permutação será exposta através da análise da correlação espectral.

O sexto, ou o ultimo capítulo corresponde às conclusões finais deste trabalho de conclusão de curso.

(11)

CAPITULO 2

Separação Cega de Fontes

A Separação Cega de Fontes - do inglês, Blind Source Separation, BSS [2] - é um conceito que formaliza a ocorrência de misturas de sinais de maneira geral, embora essa seja a representação mais comum de misturas de sinais sonoros através do ambiente, bem como sua capitação por microfones. Uma das dificuldades do processo de separação de fontes através do BSS é que se sabe muito pouco ou quase nada sobre as fontes de sinais que se deseja separar ou sobre a maneira como os sinais são misturados.

Neste capítulo, abordar-se-á o significado algébrico das misturas de fontes de sinais: tanto as lineares instantâneas, caso em que considera um ambiente ideal; quanto as misturas convolutivas, que se aproximam mais da realidade quando se trata de sinais de áudio ou em casos genéricas, em que o atraso e/ou reflexões devam ser consideradas.

2.1. Mistura linear

O conceito mais simples para o BSS é o linear instantâneo. Este caso restrito de separação cega de fontes não é o mais comum na ocorrência de eventos físicos reais; no entanto, sua simplicidade serve como base para o entendimento de casos mais complexos.

Suponhamos um conjunto de fontes independentes S em função do tempo. Uma fonte i no instante temporal discreto n pode ser definida como sendo si(n). Então é possível

idealizar-se um conjunto de sinais X dos idealizar-sensores, de modo que cada mistura (idealizar-sensor) possa idealizar-ser representada pela forma algébrica xj(n) referente à mistura do sensor j no instante de tempo n.

, 1 ( ) ( ) Q j i j i i x n h s n  

(2.1)

(12)

Na expressão (2.1), Q representa a quantidade de fontes; e na expressão (2.2) P a quantidade de sensores que captam as fontes.

Percebe-se que os sinais das fontes são superpostas linearmente com um peso de valor

hi,j, que é o fator multiplicativo da fonte i para o sensor j. Deseja-se encontrar os fatores wj,i

que separam cada fonte do sinal S. Seja yi(n) a estimação dos sinais separados da fonte i no

instante de tempo n. É possível se estimar yi(n) da seguinte maneira:

, 1 ( ) ( ) P i j i j j y n w x n  

. (2.2)

Este tipo de representação matemática pode não ser muito intuitiva e de fácil entendimento, pois somente conseguimos verificar o que acontece para cada sensor em apenas um determinado instante de tempo. Já em uma representação matricial, é possível enxergar todos os sinais em qualquer instante de tempo, mas para isso é necessário definir cada matriz de forma sistemática antes de se realizar qualquer operação.

A matriz de fontes S pode ser representada como sendo um vetor coluna de tamanho

Q, em que Q é a quantidade de fontes disponíveis no sistema. Cada elemento do vetor S é um

vetor linha de K elementos, que mostra como o sinal si se comporta em função do tempo.

Portanto as fontes S podem ser representadas por uma matriz de dimensão Q linhas por K colunas, em que cada linha refere-se a um determinado sinal i, e cada coluna indica um instante de tempo n. 1 1 1 2 2 2 (1) (2) ( ) (1) (2) ( ) (1) (2) ( ) Q Q Q s s s K s s s K s s s K                           1 2 Q s s S s (2.3)

A matriz de mistura X pode ser representada de forma semelhante mudando-se apenas a quantidade de colunas da matriz, que é igual à quantidade P de sensores no sistema.

1 1 1 2 2 2 (1) (2) ( ) (1) (2) ( ) (1) (2) ( ) P P P x x x K x x x K x x x K                           1 2 P x x X x (2.4)

Então podem relacionar-se as duas matrizes através de uma matriz de misturas H de tamanho P linhas por Q colunas. Cada elemento hi,j da matriz H representa um “ganho” à

(13)

1,1 1,2 1, 2,1 2,2 2, ,1 ,2 , Q Q P P P Q h h h h h h h h h              Η (2.5)

Agora pode-se escrever a matriz X em função de S e H na forma matricial compacta X=H.S ou na forma matricial estendida:

1,1 1,2 1, 2,1 2,2 2, ,1 ,2 , . Q Q P P P Q h h h h h h h h h                                         1 1 2 2 Q P s x s x s x . (2.6)

O objetivo é encontrar uma matriz separadora W que seja igual ou proporcional à inversa de H, no caso de Q=P, ou a pseudoinversa de H, caso contrário. É necessário salientar que: em casos em que não se sabe nada a respeito das fontes e da matriz misturadora, é necessário que a quantidade de sensores seja maior ou igual à quantidade de fontes a serem misturadas, ou seja, P Q. Caso esta desigualdade não seja respeitada, o método de separação deverá ser mais complexo que no trabalho apresentado.

Da mesma forma, o sinal separado pode ser relacionado com a mistura da seguinte maneira Y=W.X, de modo que W possuam as mesmas dimensões da transposta de H, ou seja,

Q linha por P colunas.

1,1 1,2 1, 2,1 2,2 2, ,1 ,2 , . P P Q Q Q P w w w w w w w w w                                         1 1 2 2 Q P y x y x y x (2.7)

A maior dificuldade do processo é encontrar a matriz separadora W através do processamento de características estatísticas das misturas coletadas pelos sensores (microfones).

Embora a formalização do BSS linear aparente seja simples, existem grandes dificuldades a serem superadas no processo de separação dos sinais misturados. As maiores dificuldades são:

não se sabe nada ou muito pouco sobre as fontes S ou sobre a matriz de mistura, sendo que esta é consequência direta do meio físico no ambiente propagante;  sistemas e sensores reais são suscetíveis a ruídos;

(14)

 a matriz misturadora, em sistemas de áudio, não são lineares; mas misturas convolutivas dos sinais originais.

Figura 2.1: As fontes S são misturadas pelo ambiente, captadas pelos sinais X dos sensores e levadas a um processador que tenta separar os respectivos sinais Y.

2.2. Mistura convolutiva

A definição de misturas convolutivas é de grande relevância no processamento de sinais de áudio, já que em todos os casos de recepção de sinais por microfones ocorre esse tipo de mistura, mesmo que esta possa ser aproximada por uma mistura linear. Na (2.8) a seguir, * simboliza um operador de convolução.

1,1 1,2 1, 1,1 1,2 2 1, 2,1 2,2 2, 2,1 2,2 2 2, ,1 ,2 , 1, 1, 2 , Q Q Q Q Q Q P P P Q P P P Q Q h h h h h h h h h h h h h h h h h h                                                           * * * * * * * * * * 1 1 1 1 2 2 1 Q P s s s s x s s s s x s s s s x (2.8)

Embora a definição (2.8) seja de fácil representação, ela não ajuda muito a entender como são as características gerais das misturas captadaspelos sensores. Antes de se verificar a

(15)

forma padrão da matriz de mistura convolutiva H, é necessário compreender o porquê da ocorrência de convoluções em sistemas de sinais de áudio.

As ondas sonoras possuem velocidade limitada, então cada microfone, ao detectar o sinal, o recebe em instantes de tempos ligeiramente diferentes proporcionando um atraso a cada um dos sensores. Além do atraso, os sons sofrem reverberações (reflexões em curtos instantes de tempo) nos obstáculos do ambiente onde se encontram. Estes tipos de comportamentos são conhecidos como problemas de múltiplos percursos ocasionados pelos obstáculos, e, ainda, a reverberação pode acabar acarretando em ondas estacionárias, dificultando ainda mais o processamento de algoritmos que se baseiam na estimação dos tempos de atrasos ocorridos pela onda. Qualquer pessoa que tenha cantado em um banheiro pequeno sabe o efeito da influência das ondas estacionárias na afinação e no timbre da voz.

Figura 2.2: Um espectador escutando a superposição do efeito de múltiplas reverberações da voz do cantor ocorridas nas paredes do teatro. Este efeito pode dar origem ao aparecimento de ondas ressonantes; caso isso ocorra, o espectador terá falsa sensação de que o cantor é muito mais afinado do que realmente ele é.

Percebe-se então que um sensor irá captar o mesmo sinal repetidas vezes, e esta repetição de componentes de frequências defasadas pode contribuir para o aparecimento de ondas estacionárias em curtos espaços de tempo devido à superposição construtiva de componentes ressonantes.

Embora a maioria dos efeitos misturadores de um sistema BSS real seja convolutivo, ele é satisfatoriamente representável por um somatório de M misturas lineares, como pode ser visto na expressão (2.9) a seguir.

(16)

1 1 0 ( ) ( ) ( ) Q M j i j i i l x n h l s n l    



(2.9)

Antes de uma fonte i ser misturada com as demais, ela é autodestorcida através de uma série de atrasos l e de ganhos hi,j(l). Então a autoconvolução de uma fonte pode ser definida

pela (2.10), que, assim como a (2.9), também é conhecida como uma representação de um sistema de múltiplas entradas e múltiplas saídas – do inglês, multiple input and multiple

output, MIMO [4]. 1 0 ( ) ( ) ( ) M i i j i j i l s n h h l s n l   

* (2.10)

Substituindo a (2.10) na (2.9), obtêm-se a (2.11), que é a mesma fórmula da expressão matricial (2.8). 1 ( ) ( ) K j i i j i x n s n h  

* (2.11)

A solução para a separação de uma mistura de um sistema MIMO deve incluir a correção de atrasos provocados pelo ambiente, ou seja, a matriz separadora também deve ser uma convolução com os sinais recebidos pelos sensores X.

1 1 0 ( ) ( ) ( ) K L i ji j i l y n w l x n l    



(2.12)

Em uma boa estimação de saída para um sistema MIMO, o valor de L em (2.12) deve ser no mínimo igual ao valor de M em (2.9); sendo que o caso ideal ocorre em algoritmos em que os dois valores são iguais entre si, L=M. De forma semelhante definida pelas misturas, a separação Y também pode ser representada matricialmente por uma convolução do sinal misturado X com uma matriz separadora W.

1,1 1,2 1, 1,1 1,2 1, 2,1 2,2 2, 2,1 2,2 2, ,1 ,2 , 1, 1, , P P P P P P Q Q Q P Q Q Q P P w w w w w w w w w w w w w w w w w w                                                              * * * * * * * * * * 1 2 1 1 1 2 2 2 1 2 Q P x x x y x x x x y x x x x y x (2.13)

Embora as definições de misturas reais aqui expostas resolvam razoavelmente problemas reais de misturas de sinais de áudio por intermédio de algoritmos como o TRINICON [4], seria interessante resolver estes tipos de misturas como se fossem lineares. Uma solução para esse impasse seria por meio de uma das propriedades da Transformada de

(17)

Fourier [7,8]: uma convolução de duas funções no domínio do tempo é o mesmo que uma multiplicação direta das duas no domínio da frequência, ou seja, o sinal antes de ser detectado pelo sensor pode ser representado como sendo filtrado no domínio da frequência.

Figura 2.3: A convolução da função G(t) com uma série de impulsos U(t) é igual à soma das funções Gs(t) multiplicadas pelas respectivas “amplitudes” dos impulsos e atrasadas no instante em que estes ocorrem.

A Figura 2.3 mostra um sinal qualquer G(t) sendo convoluido com uma função U(t), que é uma série de impulsos de amplitudes diferentes espaçados em instantes de tempos não necessariamente regulares. O resultado é um somatório de funções semelhantes a G(t) com ganhos proporcionais às amplitudes de cada impulso e atrasadas no mesmo instante de tempo em que os respectivos impulsos ocorrem. Este resultado é muito semelhante ao ocorrido no BSS convolutivo ou no sistema MIMO.

A Transformada de Fourier de uma função f(t) é simbolizada da seguinte maneira:

F(ω)  f(t), em que  representa o operador da Transformada de Fourier. Embora sua

definição completa seja dada por:

( ) ( ) jwt Ff t e dt    

.

Embora este conhecimento (Transformada de Fourier) seja básico nos cursos de Engenharia, Física ou Matemática, é necessário acrescentar sua formalização neste trabalho, para que não haja nenhuma confusão por parte dos leitores. O j que aparece na definição da transformada refere-se ao número imaginário e o e representa a base do logaritmo Neperiano.

(18)

Voltando à Figura 2.3, a função U(t) no domínio do tempo é igual a um somatório de impulsos δl de amplitude al, que corresponde a um somatório de defasagens proporcionais à

frequência no espectro, uma vez que a Transformada de Fourier possui propriedades lineares.

( )

( ) l ( ( )) ( ) l j l

l l

u t

at lU  

a e (2.14)

O resultado desse somatório de diferentes defasagens com diversas amplitudes é um filtro com amplitude e fase diferentes para cada raia de frequência. Percebe-se que a amplitude de cada componente do sinal filtrado é alterada devido à ocorrência de superposição de componentes de frequências, que pode ser construtiva ou destrutiva. Então em um ambiente fechado, algumas frequências de um sinal sonoro podem desaparecer, enquanto outras podem entrar em ressonância, dependendo da geometria do espaço.

( )

( ) ( ) j

U   Ae  (2.15)

Com isso, existe a possibilidade de considerar-se uma mistura convolutiva no domínio do tempo como uma mistura linear em cada componente de frequência de um conjunto de fontes. Este fato será abordado posteriormente no método de Análise de Componentes Independentes –do inglês Independent Componet Analisis (ICA) utilizando Transformada Discreta de Fourier [8].

( ) ( ) ( ) ( ) ( ) ( )

x th t *s tX  HS (2.16)

Dessa forma, um algoritmo ICA a ser explicado no CAPÍTULO 4 deve separar o sinal misturado em cada raia de frequência e unir cada uma das frequências para retornar à fonte completa com o mínimo de distorção. Isso faz com que algumas ambiguidades do BSS sejam altamente relevantes.

2.3. Ambiguidades do BSS

As ambiguidades do sistema BSS são ambiguidades de escalamento e ambiguidades de permutação como pode ser percebido em [1, 2, 12].

A ambiguidade de escalamento corresponde ao fato de a amplitude, ou energia, do sinal ou das suas componentes de frequências originais jamais poder ser encontrada. Este fato

(19)

será provado posteriormente e é consequência da falta de conhecimento prévio dos sinais S e da matriz de mistura H.

Já na ambiguidade de permutação, a ordem dos sinais S não pode ser determinada. Os métodos de separação de fontes cegas são puramente estatísticos, então a ordem dos sinais separados ocorre ao acaso.

Figura 2.4: Ambiguidades do BSS. As saídas estão com amplitudes diferentes das originais e desordenadas em relação às fontes.

Estas ambiguidades não prejudicam a informação do sinal original quando este é separado completamente de uma única vez; entretanto, no método de separação de cada componente de frequência do sinal, isso pode ser desastroso na hora de “montá-lo” para gerar o sinal separado.

As ambiguidades de escalamento e de permutação são corrigidas matematicamente através da multiplicação do sinal separado por uma matriz diagonal Λ e uma matriz de permutação P, respectivamente. 1 2 0 0 0 0 0 0 Q                  (2.17)

(20)

A matriz diagonal dá um ganho diferente na amplitude em cada um dos vetores linhas do sinal. Um exemplo genérico é dado na multiplicação matricial a seguir.

1 1 2 2 2 0 0 0 0 . 0 0 Q Q Q                                                 1 y y y 1 2 Q y y y

A matriz de permutação é uma matriz quadrada de zeros e uns que muda a ordem dos sinais. É necessário acrescentar que, na matriz de permutação, só deve haver um único um em cada linha e coluna da matriz.

0 1 0 0 0 1 1 0 0            3 P

A matriz P3 acima é um exemplo de matriz de permutação. Sua capacidade de

permutação pode ser mostrada pela operação algébrica abaixo.

0 1 0 0 0 1 . 1 0 0 a b b c c a                              

Dadas as definições das matrizes de permutação P e diagonal Λ, é possível que o sinal S antes de ser misturado tenha relação com o sinal Y separado da seguinte maneira:

S ΛPY. (2.18)

No capítulo 4 será explicado o método de estimação da matriz de misturas e no capitulo 5 o de estimação da matriz de permutação.

(21)

CAPITULO 3

Estatísticas Matriciais de Variáveis Complexas

No processo de separação de sinais de fontes cegas, é necessário conhecimento prévio a respeito do cálculo estatístico de algumas variáveis na forma matricial e complexa, sejam elas aleatórias ou não. Os cálculos complexos [6] possuem relevância nos métodos de separações que envolvem transformadas de Fourier.

Além do entendimento de técnicas matriciais e complexas, é necessário acrescentar também que a estatística de dados amostrais é levemente diferente das populacionais e que as duas se aproximam bastante à medida que a quantidade de amostras tende a infinito e o intervalo de amostragem tende a zero. O ideal para a programação seria que as amostras se aproximassem ao máximo da população, entretanto isso faz com que o custo computacional aumente em ordens muitas vezes superiores à quantidade de amostras coletadas.

Sabendo da existência de diferenças entre a estatística amostral e a real e que as informações coletadas se aproximam da realidade para grandes quantidades de amostras, não serão abordadas neste trabalho medidas estatísticas populacionais; como por exemplo, esperança. È necessário esclarecer que a maximização da amostragem melhora a aproximação da realidade e aumenta do custo computacional. Dessa forma, apenas será abordada a estatística amostral, que é a que realmente se pode possuir para ser analisada, já que sinais reais são considerados contínuos no tempo.

Não é suficiente relatar que as estatísticas aqui mencionadas não serão apenas de cunho amostral, mas também que cada variável aleatória da forma matricial será representada por um vetor linha, diferentemente da maioria dos programas, como o MATLAB®, que

considera cada variável separadamente como um vetor coluna da matriz.

Além do cálculo de variáveis estatística de amostras no formato matricial, ainda serão abordadas métodos de distribuição [2] que revelam a respeito de informações sobre o comportamento dos sinais a serem separados.

(22)

Antes de se passar para a abordagem matricial de números complexos, é necessário um aprendizado razoavelmente detalhado da estatística de apenas uma variável, ou seja, a análise de uma variável separadamente.

3.1. Estatística de uma variável

Considere um vetor de amostras de um sinal a em que a=[a1 a2 a3...ak], ou seja um

vetor linha com K amostras. Podemos calcular sua média μa, que é o principal dado de

tendência central de uma variável, como sendo:

1 1 K a i i K   

a . (3.1)

Embora o símbolo μ seja utilizado na maioria das vezes para representar a esperança de uma variável, neste trabalho o consideraremos como média, assim como todos os símbolos que supostamente poderiam se referir a medidas populacionais. Como foi dito anteriormente, abordar-se-ão apenas medidas amostrais.

Além de medidas de tendência central, como a média, é importante a definição de valores que indicam como estão dispersas as variáveis analisadas. Uma delas é o desvio padrão da variável a considerada, σa, que pode ser definido como sendo:

2 2 1 1 K a i a i K    

a  . (3.2)

Os estudiosos de estatística, em dados amostrais, preferem que a quantidade de amostras k seja subtraída de um antes de se dividir o somatório, entretanto isso importa muito pouco para uma grande quantidade de valores amostrados.

A (3.2) está sendo representada como o quadrado do desvio padrão de a, que corresponde à variância da variável a. O sinal de módulo está explícito para abranger o cálculo de variáveis complexas. Vale lembrar que o módulo quadrado de um número é igual ao produto deste por seu conjugado.

O cálculo estatístico de uma variável não é suficiente para ser usado na separação de sinais; pois se deve interagir com os diferentes sinais entre si para saber da existência de

(23)

alguma relação entre eles à medida que os sinais são separados. Uma boa medida de relacionamento entre as variáveis é a covariância, sendo esta uma generalização da variância, já que a variância de uma variável seria uma covariância com ela mesma.

Considerando dois vetores linhas a e b de tamanho K, a covariância ∑ab de a com b

pode ser definida da seguinte maneira:

 

* 1 1 cov( , ) . K ab i a i b i a b K      a b

  . (3.3)

Em que o asterisco representa o conjugado complexo do resultado algébrico do valor entre parênteses.

Quanto maior o valor desta medida em módulo, maior a relação entre as variáveis; entretanto, o desvio padrão de cada um dos vetores contribui proporcionalmente ao valor da covariância. Felizmente, há outra medida que soluciona este tipo de parcialidade no valor, denominada correlação Rab, que desconsidera o valor do desvio padrão de cada uma das

variáveis, ou seja, corr( , ) ab ab a b R     a b  . (3.4)

Figura 3.1: Para saber o quanto estão correlacionadas duas variáveis, basta plotar a distribuição conjunta das duas amostras. Na ordenada estão as amostras de a e na abscissa as amostras de b. Respectivamente, da esquerda para direita, correlação nula, positiva e negativa.

A correlação possui valor limitado devido a sua imparcialidade aos desvios das respectivas variáveis, ela varia entre o intervalo fechado de -1 a 1, sendo que o valor unitário indica dependência total entre as varáveis, ou seja, elas estão cem por cento linear e positivamente relacionadas. Valores negativos com módulo próximos ao unitário também

(24)

possuem dependência, porém negativa. No caso de descorrelação total, considerado ideal para se separar duas fontes cegas, a correlação possui valor nulo. Exemplos de gráficos de análise de correlação podem ser vistos na Figura 3.1.

Outro valor estatístico de grande importância na separação de sinais, especialmente em métodos que se utilizam da maximização da não Gaussianidade, é a curtose, representado por

κ. A curtose de uma variável a é dada pela expressão:

4 4 1 1 3 K a i a i a a K       

 . (3.5)

Foi dedicado o final deste capítulo a explicar o significado do valor da curtose e a sua relação com a Gaussianidade de uma variável qualquer analisada. O valor de menos três da fórmula acima às vezes não é expresso por alguns estudiosos de estatística. No MATLAB®, este número não é utilizado para calcular a curtose através da função “kurtosis”.

Novamente o módulo acrescido na fórmula tem a intenção de englobar variáveis complexas.

3.2. Estatística matricial complexa

Suponha uma matriz complexa A com N variáveis aleatórias de K amostras colatadas em um mesmo instante de tempo para cada uma delas:

1 1 1 2 2 2 (1) (2) ( ) (1) (2) ( ) (1) (2) ( ) N N N A A A K A A A K A A A K                           1 2 N A A A A . (3.6)

Pela forma matricial acima, percebe-se que na matriz A; as colunas representam diferentes variáveis que variam de um até N e que as linhas representam o valor de uma das variáveis em um determinado instante que varia de um até K.

A partir desta definição e do conhecimento dos símbolos previamente definidos neste capítulo, pode-se mostrar o cálculo de várias variáveis aleatórias ao mesmo tempo em uma representação mais compacta, representação matricial.

(25)

A média da matriz A pode ser definida da seguinte maneira: 2 2 2 N N N                         1 1 1 A A A A A A A A A A  . (3.7)

A matriz da média possui as mesmas dimensões da matriz A. Essa repetição de termos da matriz K vezes é algo necessário para se fazer somas ou subtrações com a matriz A.

O desvio da matriz A é dado por uma matriz diagonal em que cada elemento da diagonal principal é um desvio da respectiva variável aleatória. Ou seja,

1 1 0 0 0 0 0 0 N                     A A A . (3.8)

Esta definição ajuda na multiplicação ou divisão desta matriz com a matriz A.

A curtose é um vetor coluna que corresponde a curtose de cada um dos respectivos vetores linhas da matriz A, portanto:

2 N                    1 A A Α A . (3.9)

Na estatística de formato matricial, ao invés de se utilizar covariância se utiliza a autocovariância que é uma matriz simétrica que contem a covariância de cada um dos vetores linhas da matriz A, ou seja:

1 2 2 12 1 2 12 2 2 1 2 N N N N N                         A A AA A (3.10)

Lembrando que a covariância de uma variável com ela mesma é igual a sua variância. Portanto, a diagonal principal da autocovariância é igual à variância dos respectivos vetores linhas de A. A autocovariância pode ser calculada da seguinte maneira:

(26)

 

H 1 cov( ) K      AA A AA AA . (3.11)

Em que o H representa o conjugado transposto do termo entre parênteses.

A autocorrelação é uma matriz quadrada que possui correlações de cada vetor linha de A, semelhante à autocovariância. É fácil deduzir que a diagonal principal de autocorrelação é composta exclusivamente de uns.

12 1 12 2 1 1 2 1 1 corr( ) cov . 1 N N N N R R R R R R                 AA A R AA (3.12)

A expressão 3.12 representa que a autocorrelação é a covariância de A divido pelo desvio de A.

OBS: Os “códigos fonte” dos cálculos estatísticos na forma matricial e vetorial estão no Anexo Código do MATLAB®.

3.3. Curtose e Gaussianidade

Além dos dados estatísticos amostrais, a separação cega de fontes necessita de comparações estatísticas a respeito da desordem das variáveis a serem avaliadas pelo algoritmo, ou seja, os dados devem ser o mais comportado e menos aleatório possível para se garantir que o sinal tratado possua alguma informação útil e com maior grau de “limpeza” de ruídos e outras interferências, inclusive as que se desejam separar.

2 2 2 2 1 ( ; , ) exp 2 2 i i y p y             (3.13)

Um clássico exemplo de curva relacionada à aleatoriedade e à desordem na natureza é a curva gaussiana. Esta curva, também conhecida como distribuição normal, pode ser definida por apenas dois parâmetros já abordados neste trabalho: média e variância. A (3.13) dá o valor da densidade de probabilidade de ocorrer um valor yi para um determinado par de média e

(27)

Central, ao afirmar que: a superposição de variáveis independentes (aleatórias ou não) tem a tendência de possuir a distribuição mais gaussiana que as variáveis separadamente. Desse modo, à medida que adicionamos mais sinais descorrelacionados a uma mistura, mais normalizada e desordenada se torna a distribuição desta, logo maior a Gaussianidade da mistura.

Uma das medidas referentes à Gaussianidade de uma amostra é a curtose definida pela (3.5). O valor três, que muitas vezes não aparece na fórmula, está relacionado com o fato de que, em sinais gaussianos, o valor do restante da expressão é igual a três unidades; portanto, neste caso o valor da curtose seria nulo.

Figura 3.2: Distribuição, ou histograma, de uma variável aleatória gaussiana simulada no MATLAB® com cinquenta mil amostras e cem intervalos de resolução.

Então no cálculo da curtose, só existem três resultados possíveis: curtose nula, curva gaussiana ou mesocúrtica; curtose positiva, curva supergaussiana ou leptocúrtica; e curtose negativa, curva subgaussiana ou platicúrtica. O menor valor possível para a curtose é menos dois, enquanto o maior valor encontra-se ilimitado. Na distribuição supergaussiana, a maioria dos valores está concentrada em torno da média, se comparada com o desvio padrão, com alguns poucos valores bem afastados da média, ou seja, esta distribuição possui caudas longas em relação ao valor do desvio padrão. Na distribuição subgaussiana, os valores de probabilidade estão mais espalhados em relação ao desvio padrão e geralmente não possuem caudas.

(28)

Figura 3.3.a: Sinais não gaussianos plotados em função do tempo. Respectivamente, de cima para baixo, sinal senoidal , triangular e polinomial do terceiro grau.

Figura 3.3.b: Respectivos histogramas e valores das curtoses dos sinais da Figura 3.3.a. As duas primeiras distribuições são subgaussianas e a ultima é supergaussiana. A barra preta mostra onde está o desvio de cada sinal.

A Figura 3.3.a mostra três sinais não gaussianos plotados em função do tempo. Na Figura 3.3.b, estão os histogramas das respectivas funções, bem como os valores das curtoses associados a elas. Percebe-se dos histogramas e dos valores das curtoses que as duas primeiras distribuições são subgaussianas, os valores estão bem espalhados em relação aos desvios, que estão sendo marcados por uma barra preta; e que a última possui distribuição supergaussiana,

(29)

os valores estão bem concentrados em torno da média em relação ao desvio padrão e possui caudas bem longas situadas após o desvio padrão. O desvio na figura anterior está representado pela barra preta.

Na figura imediatamente a seguir, encontra-se uma curva resultante da superposição das três funções anteriormente mencionadas. Verifica-se na Figura 3.4 que a soma das funções resultou em uma forma de onda que aparenta ter comportamento mais desordenado, seu histograma tem um formato mais parecido com uma gaussiana e o valor da curtose se encontra mais próximo de zero que as demais distribuições.

Figura 3.4: Acima superposição dos sinais da Figura 3.3.a. Abaixo o seu histograma. A barra preta mostra onde se encontra o desvio do sinal.

A análise de Gaussianidade de um sinal, além de poder ser analisada em diferentes amostras ao longo do tempo, pode ainda ser analisada através do espectro de frequência, ou seja, através da verificação da distribuição da transformada de Fourier. É notável perceber que ruídos gaussianos no domínio do tempo mantêm sua Gaussianidade no espectro de frequência.

A Figura 3.5 mostra a distribuição do módulo da transformada de um ruído gaussiano simulado no MATLAB® de média nula e variância unitária, e também o valor da curtose do espectro discreto deste.

(30)

Figura 3.5: Histograma e curtose da transformada discreta de Fourier da variável aleatória simulada na Figura 3.2.

Sinais de áudio costumam ser supergaussianos, tanto no domínio do tempo como no domínio da frequência. Isso ocorre porque a energia, no espectro de frequência, fica mais concentrada em algumas raias de frequências principais, que são responsáveis pelas caudas do sinal, enquanto as demais frequências possuem valores aproximadamente nulos. Entretanto, em uma soma de um sinal supergaussiano com ele, mesmo atrasado, faz com que ele se torne mais gaussiano no domínio do tempo e mais supergaussiano no domínio da frequência. Ou seja, reverberações que ocorrem em um determinado ambiente reforçam algumas frequências ressonantes advindas de interferências construtivas, enquanto diminui a potência de outras por intermédio de interferências destrutivas.

Tabela 3.1: Curtose definida em (3.5) de sinais sonoros no formato .wav inclusos no MATLAB®, no domínio do tempo e no domínio da frequência.

Som Curtose no tempo Curtose na frequência

Chirp 4.57 3.49

Handel 0.89 38.99

Train -0.01 238.24

O aumento da curtose no domínio da frequência devido a reverberações e ressonância pode ser observado pela análise de sons do MATLAB® (os sons estão incluídos no pacote do programa): chirp, handel e train. O primeiro corresponde a um canto de um pássaro, enquanto

(31)

o segundo se refere ao som de uma ópera. Já o terceiro é um som de um trem. Estes sinais serão objetos de estudo na separação de sinais posteriormente, neste trabalho. A curtose dos três sons esta representados na Tabela 3.1.

Um único pássaro pode reproduzir um som bem comportado nos domínios do tempo e da frequência. No entanto, o som de uma ópera, apesar de bem próximo da Gaussianidade devido a grandes misturas de timbres reverberantes no domínio temporal, pode ter uma distribuição muito supergaussiana no espectro da frequência por causa do alto reforço sonoro de algumas raias de frequência provocada pelas repentinas reflexões do ambiente e pelos tenores afinados ao cantar a mesma nota.

O caso do trem é mais extremo que os anteriores. Este sinal pode ser considerado gaussiano no domínio do tempo, sendo impossível separá-lo de outro sinal neste domínio através da maximização da curtose, mesmo em misturas lineares. Contudo, o espectro discreto mostra que o sinal se encontra comportado em determinadas raias de frequência. Percebe-se da Figura 3.6 que o sinal é gaussiano no domínio do tempo e extremamente supergaussiano no domínio da frequência.

Figura 3.6: Sinal de áudio train.wav do MATLAB®. Em a, sinal em função do tempo; em b, o histograma de a; em c, sinal no domínio da frequência; e em d, o histograma de c.

(32)

Além da curtose, existem outras técnicas mais complexas de análise da Gaussianidade de um sinal, entre elas encontram-se a entropia e a verossimilhança. A entropia, que não será abordada profundamente neste trabalho, é um conceito muito antigo advindo da Teoria da Informação e está relacionada ao grau de desordem de uma determinada variável. Quanto maior a entropia de uma variável, mais desestruturada e imprevisível é ela; além do mais, uma variável gaussiana aleatória é a que possui maior valor de entropia dentre todas as outras.

A verossimilhança diz respeito à comparação do histograma de uma amostra com uma distribuição previamente conhecida. O objetivo é estimar os parâmetros que tornam a distribuição idealizada o mais parecido possível com a amostra coletada.

3.4. Verossimilhança

A função de verossimilhança [8, 9] está intimamente relacionada à pdf (função densidade de probabilidade). Se uma determinada amostra y pertencer à pdf idealizada pelo observador, com os parâmetros θ fixos escolhidos corretamente, então ela terá a chance de ocorrer na mesma proporção da função densidade de probabilidade. Um exemplo de pdf é a distribuição normal como mostrada na expressão (3.13). Os parâmetros θ são a média e a variância, θ=[μ σ2]T, que se mantêm fixos para um conjunto de amostras y em que se deseja conhecer a possibilidade de ocorrência.

A probabilidade de y ocorrer dado θ é formalizada por p(y; θ), entretanto essa representação mostra que o parâmetro θ encontra-se fixado, enquanto as amostras podem assumir qualquer valor, ou seja, é uma função apenas de y. O objetivo da função de verossimilhança é encontrar uma curva de valores θ que maximizem a possibilidade de que um conjunto de amostras y=[y1 y2 ... yk] observadas ocorram. Portanto, a função de

verossimilhança L é função apenas de θ. Como a pdf e a função de verossimilhança estão diretamente relacionados, então esta pode ser representada como a pdf conjunta de y dados os parâmetros θ. 1 ( ) ( ; ) k i i L p  

y (3.14)

(33)

O produto ocorrido na pdf conjunta é explicado pelo fato de que: na função de verossimilhança, as amostras coletadas são consideradas independentes; logo a densidade de probabilidade de ocorrência de k eventos é o produto da pdf da ocorrência de cada um separadamente. Mesmo que elas não sejam independentes, a função de verossimilhança é altamente precisa.

Determinada a função de verossimilhança é necessário encontrar os parâmetros θ’ que a maximizem. Este método é conhecido como ML – do inglês maximum likelihood (maximização da verossimilhança). Portanto o método ML encontra os melhores valores de parâmetros que tornam a curva probabilística idealizada o mais próximo possível das amostras coletadas.

Para a maximização de uma função basta derivá-la e igualá-la a zero, entretanto o produtório de (3.14) dificulta este tipo de cálculo, pois o produto da derivada não é igual à derivada do produto. Logo é possível tirar o logaritmo da expressão antes de se realizar a derivada; então o produto se transformará em um somatório facilitando os cálculos das derivadas parciais. O escore eficiente (efficient score) S é definido como:

( )  ln ( )L

S  

 . (3.15)

O resultado da ML será encontrado através da solução de equações que aparecem fazendo-se S igual à zero. Contudo, esse conjunto de equações pode ser muito difícil de ser resolvido; dessa forma, às vezes, é necessária a utilização de um método numérico iterativo que resolva o problema. Mas antes disso, precisa-se definir uma matriz que represente a derivada segunda da função de verossimilhança, a matriz de informação I.

2 2 ( ')   ln ( ')L        I (3.16)

Pela (3.16 ), verifica-se que a matriz de informação corresponde a menos a derivada do escore eficiente no ponto em que foi estimados os parâmetros θ. Ela possui a seguinte propriedade: o inverso da matriz de informação é aproximadamente igual à variância do estimador θ’. Então através da matriz de informação é possível estimar a precisão e intervalos de confiança para os estimadores dos parâmetros.

1

(34)

A matriz de informação, além de possuir informações relevantes de estatística, ainda pode ser utilizada em um método numérico para a estimação dos parâmetros θ. Um método bastante utilizado para se encontrar raízes de equações complicadas é o de Newton-Raphson, que está exposto na figura a seguir.

Figura 3.7: Método de Newton-Raphson. A cada nova iteração i, o estimador Xi se aproxima cada vez mais

perto da raiz ξ de f(x).

O objetivo do método de Newton na Figura 2.7 é estimar raiz da função f(x), enquanto o do ML é encontrar a raiz da função escore eficiente, que é o mesmo que encontrar o θ que maximiza a função de verossimilhança. Então, com base no método de Newton, na definição da matriz de informação I e no escore eficiente S, o método de estimação dos parâmetros pode ser estabelecido pela (2.18).

1 * 1

'i  'i  ( ') ( ')

  IS (3.18)

O conjugado na matriz de informação ocorre devido ao fato de o gradiente estar relacionado com o conjugado da derivada. Se z=x+jy, portanto:

1 2 j z x y          , 2 * j z x y          .

É importante salientar que gradiente é um vetor que aponta para a maximização de uma função com mais de uma variável, ou seja, uma função multidimensional.

(35)

Figura 3.8: Exemplos de gradiente. O valor da função é indicado pela escala em cinza. Fonte: Wikipédia.org.

Antes de se finalizar o tópico da verossimilhança, é necessário uma formalização matricial mais rigorosa para que não haja dúvidas de como realizar um algoritmo que se valha desse método. Supondo θ=[ θ1 θ2 ...]T, a função escore S e a matriz de informação I podem

ser definidas pelas representações matriciais abaixo, respectivamente.

1 1 2 2 ( ) ln ( ,L ...)                           S

2 2 2 1 1 2 2 2 1 2 2 1 2 2 ( ') ln ( ',L ',...)                                      I

(36)

CAPITULO 4

Análise de Componentes Independentes

A Análise de Componentes Independentes [2] – em inglês, Independent Analysis

Components, ICA – é um método de separação de fontes cegas que se baseia em dados

estatísticos, como a não Gaussianidade e a independência entre cada uma das fontes S. Este método é bastante eficaz para a separação de misturas lineares e instantâneas, além de ser mais simples e menos oneroso aos processadores se comparado a outros métodos de separação, como, por exemplo, o TRINICON [4].

Como o método ICA é meramente estatístico, ele possui algumas restrições para que as separações das fontes ocorram, pelo menos de forma satisfatório. As três restrições são:

 as fontes são consideradas independentes entre si;  as componentes devem ser não gaussianas;

 e as matrizes misturadora e separadora devem ser quadradas, logo o número de sensores e de fontes deve ser igual: P=Q.

Estes requisitos de separação têm relação com as etapas de separação que ocorrem neste método. A independência entre as fontes é o que se deseja buscar com a etapa do branqueamento, que será explicado no tópico a seguir. Por sua vez, a não Gaussianidade é o requisito estatístico que realmente separa as fontes entre si e que mostra se as amostras processadas possuem ou não informações relevantes.

(37)

Depois de se realizar a separação dos sinais, é possível melhorá-los através da estimativa das suas amplitudes, ou suas potências. Será abordado, posteriormente, um método para melhorar as potências dos sinais separados através de ganhos. A Figura 4.1 resume o método ICA.

4.1. Branqueamento

O conceito de brancura está intimamente relacionado à independência entre os sinais. Como visto anteriormente, é possível ter uma noção sobre a independência entre sinais diversos a partir de suas correlações, embora a maneira mais robusta de se definir a independência estatística seja através de suas densidades de probabilidades conjuntas. Se um conjunto de sinais A são independentes, então as suas densidades de probabilidades conjuntas são iguais ao produtório das densidades marginais.

1 2 1 1 2 2

( , ,...) ( ). ( )...

p A Ap A p A (4.1)

Supondo dois sinais a e b, a densidade marginal de a é igual a integral da probabilidade conjunto de ambos em relação à b.

( ) ( , ) p p d   

a a a b b (4.2)

A independência baseada nas funções densidade de probabilidade [2] tem a vantagem de não necessitar de dados temporais para que seja analisada. Já o valor da correlação tem dependência significativa do tempo em que as amostras foram coletadas. Dois sinais iguais estarão descorrelacionados no caso de haver algum atraso entre eles, sendo que o óbvio seria que a correlação entre eles fosse máxima: igual a um, portanto dois sinais descorrelacionados podem ser dependentes.

Apesar das desvantagens da correlação em relação à densidade de probabilidade, se dois sinais são independentes entre si, então necessariamente estão descorrelacionados. Este fato, unido à facilidade de criar algoritmos baseados em correlação, é suficiente para adotar este método como meio de descorrelacionar um conjunto de sinais.

(38)

O conceito mais amplo que o de independência é o de brancura de um sinal. Um conjunto de sinais A como definido em (3.6) é dito branco se eles forem descorrelacionados e cada sinal possuir média nula e variância unitária [1]. Neste caso a matriz de covariância em (3.10) vai ser igual à matriz identidade I e não haverá necessidade de extrair a média para a realização do cálculo de autocovariância em (3.11).

H

K

  

AA RAA AA I (4.3)

Percebe-se da (4.3) que, em uma matriz branca A, a correlação e a covariância serão iguais entre si porque a variância de cada sinal será unitária.

No caso do BSS, o objetivo do branqueamento é encontrar uma matriz V que faça com que o sinal X seja branco. Mas antes disso é necessário que X tenha média nula e variância unitária.

  

1

' X  X

X X (4.4)

Então o sinal branqueado Z será igual ao produto da matriz branqueadora V com o sinal X normalizado (com média igual a zero e variância igual a um), Z=VX’. A partir disso pode-se calcular a autocovariância de Z e igualá-la à matriz identidade.

H H H H ' ' K K    ZZ XX ZZ X X V V VR V H  XX VR V I (4.5)

Antes de se resolver a (4.5), podemos decompor a autocorrelação RXX por matrizes de

autovalores e autovetores. A escolha dos autovetores deve ser sábia para se facilitarem os cálculos. A autocorrelação é uma matriz simétrica, portanto ela pode possuir autovetores de base ortogonal [13]. Este tipo de base E possui norma unitária, tanto com relação às linhas, quanto em relação às colunas, e também a propriedade de que sua inversa é igual ao seu conjugado transposto, E-1=EH. Esta propriedade será utilizada para resolver a equação (4.7).

H

XX

R E E(4.6)

Substituindo (4.6) em (4.5), resulta em (4.7) e suas soluções em (4.8). Importante ressaltar que Λ é a matriz de autovalores, que é diagonal por definição.

H H 

(39)

1/2 H

V EE ou 1/2 H

V E (4.8)

Repare que a (4.8) resulta em duas soluções distintas. A diferença entra as duas está em uma rotação na distribuição conjunta da matriz branqueada Z. A Figura 4.2 mostra a distribuição conjunta de algumas etapas do método ICA, em que a fonte S1 corresponde a uma

função senoidal, e a fonte S2 uma função triangular. Estas funções podem ser visualizadas nas

Figuras 3.3.a. Percebe-se da Figura 4.2.b que a mistura X se parece com S “comprimido” e o branqueamento, em Z, retorna a aparência original da fonte S com uma rotação desta. Para separar os sinais basta multiplicar Z por uma matriz que rotacione o sinal a sua posição original.

Figura 4.2: Exemplo de distribuição conjunta de sinais branqueados. Em a, fonte S; em b, mistura X; em c e d, misturas branqueadas Z com dois Vs diferentes de (4.8).

Percebe-se da figura acima, que a matriz ortogonal E tem a propriedade de rotacionar o sinal, já que uma matriz ortogonal possui uma base em que os vetores linha e colunas formam uma base ortonormal, base de vetores unitários e perpendiculares entre si. Este tipo de restrição faz diminuir a quantidade de graus de liberdade da solução de matriz separadora W, já que ela apenas necessita rotacionar o sinal de volta.

(40)

Figura 4.3: Mudança de base ortogonal. O ponto P pode ser mudado da base [u v] para a base [x y] através da multiplicação de P pela matriz ortogonal E.

Na Figura 4.3, E é um exemplo de uma matriz ortogonal de dimensões 2x2. Verifica-se da figura que E possui apenas um grau de liberdade, função exclusiva de θ, ao invés de Verifica-ser quatro, que é a quantidade de elementos da matriz. Este tipo de propriedade pode ser utilizado para facilitar a estimação da matriz separadora W, sabendo que a mistura branqueada Z corresponde a uma rotação da fonte S.

4.2. Separação através da curtose

É possível estimar a matriz separadora W de uma mistura branqueada através da maximização da não Gaussianidade [12]. No capítulo anterior verificou-se que a curtose é um bom medidor de Gaussianidade e que pode ser estendido para números complexos utilizando transformada de Fourier. A definição da curtose definida em (3.5) e (3.9) pode ser simplificada para a matriz separada branca Y, com média nula e variância unitária, de acordo com a (4.9). 4 1 1 3 K n K    

Y Y (4.9)

Suponha que queiramos separar uma fonte Y1 de uma mistura branqueada de duas

fontes distintas através de um vetor w1=[w11 w12].

1w11 1zw12z2  1

Referências

Documentos relacionados

Depois da abordagem teórica e empírica à problemática da utilização das Novas Tecnologias de Informação e Comunicação em contexto de sala de aula, pelos professores do

The strict partition problem is relaxed into a bi-objective set covering problem with k-cliques which allows over-covered and uncovered nodes.. The information extracted

Atualmente os currículos em ensino de ciências sinalizam que os conteúdos difundidos em sala de aula devem proporcionar ao educando o desenvolvimento de competências e habilidades

São considerados custos e despesas ambientais, o valor dos insumos, mão- de-obra, amortização de equipamentos e instalações necessários ao processo de preservação, proteção

Local de realização da avaliação: Centro de Aperfeiçoamento dos Profissionais da Educação - EAPE , endereço : SGAS 907 - Brasília/DF. Estamos à disposição

O objetivo do curso foi oportunizar aos participantes, um contato direto com as plantas nativas do Cerrado para identificação de espécies com potencial

O valor da reputação dos pseudônimos é igual a 0,8 devido aos fal- sos positivos do mecanismo auxiliar, que acabam por fazer com que a reputação mesmo dos usuários que enviam

Segundo Porter e Teisberg (2007), só há uma maneira de uma organização de fato aprender e possibilitar melhorias contínuas na prestação dos serviços de