• Nenhum resultado encontrado

Focagem acústica em tempo real

N/A
N/A
Protected

Academic year: 2021

Share "Focagem acústica em tempo real"

Copied!
85
0
0

Texto

(1)

Universidade de Aveiro Departamento de Electrónica,

2019 Telecomunicações e Informática

João Pedro Bastos

Resende

(2)
(3)

Universidade de Aveiro Departamento de Electrónica,

2019 Telecomunicações e Informática

João Pedro Bastos

Resende

Focagem Acústica em Tempo Real

Dissertação apresentada à Universidade de Aveiro para o cumprimento dos requisitos necessários à obtenção do grau de Mestre em Enge-nharia Electrónica e Telecomunicações, realizada sob a orientação ci-entífica do Professor Doutor António Guilherme Rocha Campos, do Departamento de Electrónica, Telecomunicações e Informática da Uni-versidade de Aveiro e do Professor Doutor Daniel Filipe Albuquerque, da Escola Superior de Tecnologia e Gestão do Instituto Politécnico de

(4)
(5)

o júri

presidente António José Ribeiro Neves

Professor Auxiliar do Departamento de Electrónica, Telecomunicações e Infor-mática da Universidade de Aveiro (por delegação da Reitora da Universidade de Aveiro)

vogais António Guilherme Rocha Campos

Professor Associado do Departamento de Electrónica, Telecomunicações e Informática da Universidade de Aveiro (orientador)

Sérgio Ivan Fernandes Lopes

(6)
(7)

agradecimentos Primeiramente, e por não poder ser de outra forma, agradeço aos meus pais por me terem financiado ao longo de toda a minha vida, principal-mente durante estes anos de universidade. Ficar-lhes-ei para sempre grato por me terem dado uma oportunidade que nunca tiveram para si mesmos, ademais com tamanhas honrarias.

Agradeço também ao meu irmão mais velho, André, e à restante família por terem um papel activo e por vezes crucial na minha educação. Deixo um sentido e sincero agradecimento ao Professor Guilherme Campos e ao Professor Daniel Albuquerque por terem sido tão trans-parentes e boas pessoas comigo desde o primeiro momento em que os contactei. Foram muito prestáveis, deixaram-me à vontade e estive-ram sempre dispostos a acrescentar valor na minha formação a todos os níveis.

Aprendi muito durante as reuniões de orientação da dissertação e sem a boa vontade de ambos não conseguiria por certo completar este tra-balho. Trabalhar com estes professores foi uma escolha muito feliz. Deixo uma palavra de apreço ao Professor Doutor José Neto Vieira que ao saber do meu trabalho, se prontificou a facultar-me todo o material de áudio que dispunha, para que eu realizasse a validação prática do meu trabalho ao longo da execução do mesmo.

Agradeço ao DeCA - Departamento de Comunicação e Arte da Univer-sidade de Aveiro e em especial ao Sr. António Veiga pelo obséquio de me ajudar a montar o ambiente de simulação no estúdio de som, de maneira a que aquisição de dados decorresse sem qualquer problema técnico.

Por último, e não menos importante, agradeço a todas as pessoas que fizeram parte do meu dia-a-dia ao longo do meu percurso universitá-rio. Felizmente, pude contar com amigos e amigas para estudar, tra-balhar, fazer música, divertir-me, inquietar-me e desabafar. Sem eles nenhuma das atividades anteriormente elencadas teria o mesmo su-cesso. Em especial, agradeço ao Carretos, ao Enes, ao Jorge e ao Peter por terem comigo formado um grupo de amigos tão não-linear que conseguia — muitas vezes — fazer com que o todo fosse mais valioso que a soma de todas as partes.

(8)
(9)

Palavras-chave Focagem, Acústica, Tempo Real, Separação de Fonte, Multi-Recetores, Multi-Emissores, Resposta Impulsional

Resumo À semelhança da esmagadora maioria dos animais, os seres humanos

possuem dois receptores auditivos (audição bi-aural). Esta caracterís-tica proporciona noção espacial do campo sonoro, permitindo estimar a proveniência dos sons e localizar as suas fontes, que é de vital im-portância. O cérebro humano desenvolveu notável capacidade de dis-criminar e focar selectivamente fontes sonoras, fazendo-o em tempo real mesmo em ambientes com elevado ruído (cocktail party effect). O desenvolvimento de dispositivos de auxílio a esta capacidade de fo-cagem espacial pode ser útil no combate a problemas de perda audi-tiva.

Neste projecto, foi formulado um método de focagem acústica a par-tir da análise de um cenário acústico genérico (fonte e multi-receptor), caracterizado através da medição das respostas impulsio-nais de todas as combinações fonte-receptor. O método baseia-se na utilização de receptores (microfones) com adequada diversidade espa-cial e na obtenção das respostas inversas (receptor-fonte) por proces-samento no domínio da frequência. Foi implementado utilizando uma aplicação desenvolvida em MATLAB.

Conduziram-se testes de validação em ambiente de estúdio, em que a aplicação foi configurada para processar blocos de 4096 amostras, impondo uma latência de cerca de 90 ms. Estes testes comprovaram a capacidade de, partindo exclusivamente dos sinais captados pelos microfones, focar qualquer das fontes em tempo real. Evidenciaram também o forte impacto do acréscimo de diversidade espacial (número e dispersão dos microfones) na melhoria da relação sinal-ruído de

(10)
(11)

fo-Keywords Tuning, Acoustics, Real-time, Source Separation, receivers, Multi-emitters, Impulse Response

Abstract Like most other animals, humans possess binaural hearing. This is key to their perception of sound-field spatial properties, as it provides vitally important cues on the direction of impinging sound waves and, consequently, sound-source location. The human brain has developed remarkable ability to discriminate between, and selectively focus on, sound sources. This ability manifests itself in real time, even in noisy environments (cocktail-party effect).

Devices to boost sound-source spatial discrimination capabilities may prove very useful in hearing-aid development.

In this project, a source focussing method has been devised through the analysis of a generic (multi-source and multi-receiver) acoustic sce-nario, characterised by impulse responses measured for every source-receiver combination. The method, implemented using an application developed in MATLAB, is based on the use of receivers (microphones) with adequate spatial diversity and involves computation of inverse (i.e. receiver-source) responses by frequency domain processing.

Validation tests have been carried out in a recording studio. The appli-cation was configured to process blocks of 4096 samples, imposing a latency around 90 ms. Results have shown that any of the source sig-nals can be recovered from the microphone sigsig-nals alone. They also evidenced that increasing spatial diversity (number and dispersion of

(12)
(13)

Conteúdo

Conteúdo xv

Lista de Figuras xvii

Lista de Tabelas xix

1 Introdução 1 1.1 Motivação . . . 1 1.2 Objectivo . . . 1 1.3 Estrutura da dissertação . . . 3 2 Conceitos Básicos 5 2.1 Sinal e Sistema . . . 5

2.2 Sinal Contínuo, Sinal Discreto e Amostragem . . . 6

2.3 Sistema Linear e Invariante no Tempo . . . 7

2.4 Impulso Unitário e Resposta Impulsional . . . 8

2.5 Convolução Discreta . . . 10

2.6 Método Overlap-Add . . . 11

2.7 Transformada de Fourier . . . 13

3 Análise Acústica e Método de Focagem 15 3.1 Captação múltipla em cenário multi-fonte . . . 15

3.2 Formulação Inversa . . . 18

3.3 Método de Focagem . . . 23

3.3.1 Medição de Respostas Impulsionais . . . 24

3.3.2 Respostas Impulsionais Inversas . . . 24

3.3.3 Sinais Captados . . . 25

3.3.4 Focagem numa fonte . . . 25

3.3.5 Tempo Real . . . 27

(14)

Focagem Acústica em Tempo Real

4 Aplicação de Focagem 31

4.1 Ambiente de Desenvolvimento . . . 31

4.2 Implementação . . . 32

4.2.1 Parâmetros Iniciais . . . 32

4.2.2 Medição da Resposta Impulsional . . . 33

4.2.3 Estrutura de dados . . . 34 4.2.4 Focagem . . . 35 5 Validação 37 5.1 Cadeia de medição . . . 37 5.1.1 Equipamento . . . 38 5.1.2 Ambiente . . . 38 5.2 Procedimento experimental . . . 39 5.2.1 Parâmetros de medição . . . 40 5.2.2 Sinais de teste . . . 40 5.2.3 Métrica de validação . . . 41

5.3 Impacto da relação Microfones/Fontes . . . 42

5.3.1 Cenário 1 — Disposição arbitrária . . . 42

5.3.2 Cenário 2 — Disposição periférica . . . 52

6 Conclusões e Trabalho Futuro 63 6.1 Conclusões . . . 63

6.2 Trabalho Futuro . . . 63

Bibliografia 65

A Código Matlab 67

(15)

Lista de Figuras

1.1 Cenário com duas fontes e dois recetores. . . 2

1.2 Focagem Acústica. . . 2

2.1 Transmissão acústica com várias reflexões. . . 5

2.2 Sistema acústico. . . 6

2.3 Exemplo de um sinal contínuo e do sinal discreto correspondente . . . 6

2.4 Propriedade Aditiva de um sistema LTI. . . 7

2.5 Homogeneidade de um sistema LTI. . . 7

2.6 Princípio da Sobreposição aplicado a sistema LTI. . . 7

2.7 Propriedade da Invariância de um sistema LTI. . . 8

2.8 Representação gráfica de um Impulso unitário. . . 8

2.9 Construção de um sinal discreto através do somatório de impulsos. . . 9

2.10 Caracterização de um sistema LTI recorrendo à sua resposta impulsional. . . 9

2.11 Room Impulse Response . . . 10

2.12 Exemplo de convolução discreta. . . 11

2.13 Exemplo de convolução discreta passo a passo. . . 12

2.14 Método overlap add entre um sinal x[n] e uma resposta impulsional h[n]. . . 13

2.15 Influência do zero padding na Transformada de Fourier . . . 14

3.1 Espaço fechado com M fontes e N receptores. . . 15

3.2 Sinal captado no receptor como combinação dos “contributos” individuais das fontes 16 3.3 Matriz h (respostas impulsionais). . . 17

3.4 Das fontes aos receptores num ambiente acústico genérico. . . 18

3.5 Inversão da Resposta Acústica. . . 18

3.6 Construção da matriz H . . . 19

3.7 Decomposição da matriz H por componentes de frequência. . . 20

3.8 Obtenção de T por pseudo-inversão das sub-matrizes de H. . . 20

3.9 Reversão de T para o domínio do tempo. . . 21

3.10 Sinal emitido na fonte como combinação dos “contributos” individuais dos receptores. 22 3.11 Dos receptores às fontes num ambiente acústico genérico. . . 23

3.12 Método de Focagem. . . 23

3.13 Construção da matriz h. . . 24

3.14 Aplicação da Transformada de Fourier na matriz h. . . 24

3.15 Inversão da matriz H. . . 25

3.16 Construção da matriz Y . . . 25

(16)

Focagem Acústica em Tempo Real

3.18 Estimativa ˜xm. . . 26

3.19 Matriz T em blocos. . . 27

3.20 Matriz Y em blocos. . . 28

4.1 Diagrama do sistema audioPlayerRecorder . . . 32

4.2 Diagrama de blocos elementar. . . 32

4.3 Diagrama do Software . . . 33

4.4 Função measureIR. . . 33

4.5 Diagrama de blocos de measureIR. . . 34

4.6 Função impulseResponse. . . 34

4.7 Diagrama de blocos de impulseResponse. . . 35

4.8 Função realTimeTuning. . . 35

4.9 Diagrama de blocos de realTimeTuning. . . 36

5.1 Esquema da cadeia de medição para a validação prática do sistema. . . 37

5.2 Equipamento utilizado e suas principais características. . . 38

5.3 Ambiente de Medição — estúdio de som do DeCA, Universidade de Aveiro. . . 39

5.4 Disposições utilizadas. . . 39

5.5 Sinais de teste usados para a validação prática do sistema. . . 41

5.6 Janela de validação do sinal de teste 1. . . 41

5.7 Sinais captados no primeiro ensaio do cenário 1 . . . 43

5.8 Estimativas dos sinais das fontes no primeiro ensaio do cenário 1 . . . 45

5.9 Estimativas dos sinais das fontes no segundo ensaio do cenário 1 . . . 46

5.10 Estimativas dos sinais das fontes no terceiro ensaio do cenário 1 . . . 47

5.11 Estimativas dos sinais das fontes no quarto ensaio do cenário 1 . . . 49

5.12 Estimativas dos sinais das fontes no quinto ensaio do cenário 1 . . . 50

5.13 Estimativas dos sinais das fontes no sexto ensaio do cenário 1 . . . 52

5.14 Captações nos vários microfones no primeiro ensaio do cenário 2. . . 53

5.15 Estimativas dos sinais das fontes no primeiro ensaio do cenário 2 . . . 54

5.16 Estimativas dos sinais das fontes no segundo ensaio do cenário 2 . . . 56

5.17 Estimativas dos sinais das fontes no terceiro ensaio do cenário 2 . . . 57

5.18 Estimativas dos sinais das fontes no quarto ensaio do cenário 2 . . . 58

5.19 Estimativas dos sinais das fontes no quinto ensaio do cenário 2 . . . 59

5.20 Estimativas dos sinais das fontes no sexto ensaio do cenário 2 . . . 61

(17)

Lista de Tabelas

3.1 Notação usada neste trabalho. . . 29

5.1 Combinações de microfones usadas . . . 42

5.2 SNR dos sinais captados pelos microfones, no primeiro ensaio do cenário 1 . . . 43

5.3 SNR das estimativas utilizando 4 misturas, no primeiro ensaio do cenário 1 . . . 45

5.4 SNR das estimativas utilizando 3 misturas, no primeiro ensaio do cenário 1 . . . 45

5.5 SNR das estimativas utilizando 2 misturas, no primeiro ensaio do cenário 1 . . . 46

5.6 SNR dos sinais captados pelos microfones, no segundo ensaio do cenário 1 . . . 46

5.7 SNR das estimativas utilizando 4, 3 e 2 misturas, no segundo ensaio do cenário 1 . . 46

5.8 SNR dos sinais captados pelos microfones, no terceiro ensaio do cenário 1 . . . 47

5.9 SNR das estimativas utilizando 4, 3 e 2 misturas, no terceiro ensaio do cenário 1 . . . 47

5.10 SNR dos sinais captados pelos microfones, no quarto ensaio do cenário 1 . . . 48

5.11 SNR das estimativas utilizando 4 e 3 misturas, no quarto ensaio do cenário 1 . . . 48

5.12 SNR dos sinais captados pelos microfones, no quinto ensaio do cenário 1 . . . 49

5.13 SNR das estimativas utilizando 4 e 3 misturas, no quinto ensaio do cenário 1 . . . 49

5.14 SNR dos sinais captados pelos microfones, no sexto ensaio do cenário 1 . . . 51

5.15 SNR das estimativas utilizando 4 misturas, no sexto ensaio do cenário 1 . . . 51

5.16 SNR dos sinais captados pelos microfones no primeiro ensaio do cenário 2. . . 53

5.17 SNR da estimativa utilizando 4 misturas no primeiro ensaio do cenário 2. . . 55

5.18 SNR da estimativa utilizando 3 misturas no primeiro ensaio do cenário 2. . . 55

5.19 SNR da estimativa utilizando 2 misturas no primeiro ensaio do cenário 2. . . 55

5.20 SNR dos sinais captados pelos microfones, no segundo ensaio do cenário 2 . . . 55

5.21 SNR das estimativas utilizando 4, 3 e 2 misturas, no segundo ensaio do cenário 2 . . 56

5.22 SNR dos sinais captados pelos microfones, no terceiro ensaio do cenário 2 . . . 56

5.23 SNR das estimativas utilizando 4, 3 e 2 misturas, no terceiro ensaio do cenário 2 . . . 56

5.24 SNR dos sinais captados pelos microfones, no quarto ensaio do cenário 2 . . . 57

5.25 SNR das estimativas utilizando 4 e 3 misturas, no quarto ensaio do cenário 2 . . . 57

5.26 SNR dos sinais captados pelos microfones, no quinto ensaio do cenário 2 . . . 58

5.27 SNR das estimativas utilizando 4 e 3 misturas, no quinto ensaio do cenário 2 . . . 59

5.28 SNR dos sinais captados pelos microfones, no sexto ensaio do cenário 2 . . . 60

5.29 SNR das estimativas utilizando 4 misturas, no sexto ensaio do cenário 2 . . . 60

(18)
(19)

Capítulo 1

Introdução

1.1

Motivação

A audição é um sentido de extraordinária importância. Ao contrário da visão, que é limitada a um campo hemisférico e pode ser totalmente desativada sem qualquer dificuldade (basta fechar os olhos), a audição funciona em permanência (mesmo durante o sono) e de forma omnidirecional. Constitui, por isso, o principal sistema de alerta no mundo animal.

A capacidade de detetar a localização espacial das fontes sonoras [1], essencial na luta pela so-brevivência, requer sensores auditivos com diversidade espacial. Por essa razão, o processo evolutivo conduziu, na espécie humana — como nos restantes mamíferos e em praticamente todos os animais dotados de audição — a dois ouvidos independentes e afastados entre si. É igualmente importante o processamento em tempo real dessa informação bi-aural. O cérebro humano desenvolveu elevadas capacidades desse ponto de vista. Um exemplo clássico é o fenómeno normalmente descrito na litera-tura como cocktail-party effect [2], que evidencia a destrinça de fontes sonoras na presença de ruído, ou seja, a focagem seletiva de uma entre múltiplas fontes emitindo em simultâneo.

Esta dissertação constitui um estudo exploratório de processamento de sinal áudio tendo em vista aplicações relacionadas com a capacidade humana de discriminar fontes sonoras – desde logo, siste-mas de reforço dessa capacidade, nomeadamente em caso de perda auditiva. Os aparelhos auditivos, cada vez mais generalizados (sobretudo entre a população idosa), operam por amplificação dos es-tímulos auditivos. Porém, se essa amplificação for indiscriminada, poderá revelar-se ineficaz, pois não aumenta a relação sinal-ruído (SNR). Além disso, na medida em que o dispositivo inserido no canal auditivo cancela as pistas espaciais geradas pela interação das ondas sonoras com a cabeça e os pavilhões auriculares, perde-se um importante fator de discriminação das fontes.

Para aumentar a SNR, é necessária amplificação seletiva das fontes sonoras. Nesse sentido, além dos métodos de filtragem espectral (equalização) já correntemente utilizados, parece útil explorar outros métodos (e sua combinação).

1.2

Objectivo

O trabalho descrito nesta dissertação concentra-se no que se pode designar filtragem espacial, isto é, reforço/atenuação de fontes com base em critérios de localização. Dependendo da aplicação prática, estes critérios poderão ser pré-definidos ou geridos de forma dinâmica, sob diretrizes do utilizador e/ou por seguimento das fontes recorrendo a métodos avançados de análise temporal, reconhecimento de padrões (aprendizagem – e.g. redes neuronais)...[3] [4]

(20)

Focagem Acústica em Tempo Real

Fontes Misturas

Figura 1.1: Cenário com duas fontes e dois recetores.

O objectivo passa por, num cenário com múltiplas fontes e múltiplos recetores (a Figura 1.1 exem-plifica com 2 fontes e 2 recetores), implementar e validar um sistema capaz de reproduzir em tempo real o sinal emitido por uma fonte específica. Por outras palavras, o sistema deve ser capaz de re-cuperar o sinal emitido por qualquer das fontes (à escolha do utilizador), partindo apenas dos sinais captados nos recetores e da caracterização prévia do ambiente, conseguida por medição das respostas impulsionais.

Fonte 1

Separação de Fontes

Fonte 2

Fontes Misturas Focagem Fontes Focadas

Fonte 1

Fonte 2

Figura 1.2: Focagem Acústica.

(21)

Capítulo 1. Introdução

1.3

Estrutura da dissertação

A dissertação é dividida em 6 capítulos. O próximo capítulo, apresenta uma visão geral sobre alguns dos conceitos de Processamento de Sinal relacionados com o estudo da acústica e que serão utilizados adiante. No Capítulo 3 é feita a análise de um sistema acústico genérico (com múltiplas fontes e múltiplos recetores) e proposto um método de focagem a partir dessa análise. O Capítulo 4 descreve a aplicação de focagem que foi desenvolvida com o objectivo de fazer validação do método proposto no Capítulo 3.

O Capítulo 5 mostra a cadeia de medição, o procedimento experimental e a análise de resultados dos testes de campo. Por fim, no Capítulo 6, é apresenta a conclusão e algumas propostas de trabalho futuro.

(22)
(23)

Capítulo 2

Conceitos Básicos

Na propagação de som em campo aberto (free field) há apenas a considerar a absorção atmosférica (variável com a temperatura e humidade) e a atenuação por espalhamento (isotrópico, se o meio for homogéneo). Em contrapartida, em ambiente fechado (closed field), como se ilustra de forma sim-plificada na Figura 2.1, a propagação envolve vários outros fenómenos ondulatórios (e.g. atenuação, reflexão e absorção) que alteram o som emitido e, por consequência, o sinal captado pelo receptor [5].

Figura 2.1: Transmissão acústica com várias reflexões.

2.1

Sinal e Sistema

Os conceitos Sinal e Sistema são dois termos usados quotidianamente e num sentido lato [6]. In-tuitivamente, o conceito de Sinal remete para algo que transporta informação acerca de uma grandeza, e pode ditar a sua quantidade, a sua variação ou o seu estado, ente outros. Já a palavra Sistema, pode levar a várias interpretações, podendo neste caso ser definido como uma entidade que tem a capacidade de alterar e manipular sinais de entrada por forma a produzir novos sinais de saída.

No caso elementar da Figura 2.1 em que uma Fonte emite uma onda sonora que é propagada no Espaço e captada no Receptor, o Espaço pode ser identificado como um sistema, pois altera essa mesma onda. Da mesma forma, a onda sonora que a fonte emite também pode ser vista como um sinal que é alterado pelas características que o sistema onde se propaga (Espaço) lhe impõe. Assim, pondo o foco na propagação da onda sonora e não nos sistemas que a emitem e captam, é possível

(24)

Focagem Acústica em Tempo Real

resumir graficamente a transmissão acústica anterior segundo a Figura 2.2. O som emitido é o sinal de entrada x que excita o sistema H{·} e esta excitação provoca uma resposta do sistema: o sinal de saída, que na prática é o som recebido.

{ ⋅ } Sinal de Entrada Ambiente de Propagação Som Emitido Sinal de Saída Som Recebido .

Figura 2.2: Sistema acústico.

2.2

Sinal Contínuo, Sinal Discreto e Amostragem

Um sinal é contínuo se possuir um número infinito de valores num determinado intervalo de tempo t∈ [a, b]. Já os sinais discretos podem ser definidos como sinais que num determinado intervalo de tempo t ∈ [a, b], possuem um número finito de valores e por isso passíveis de ser processados em sistemas digitais. A amostragem é o processo que transforma um sinal contínuo (infinidade de pontos) num sinal discreto (número limitado de pontos), como se pode observar pelo exemplo da Figura 2.3.

0 5 10 15 20 25 30 35 40 -2 -1 0 1 2 Sinal Contínuo Sinal Discreto

Figura 2.3: Exemplo de um sinal contínuo e do sinal discreto correspondente obtido por amostragem.

Fazer amostragem de um sinal contínuo implica fazer uma seleção de amostras do sinal. Se a selecção for feita a um ritmo uniforme, pode ser definida uma determinada frequência de amostragem. Segundo o Teorema de Nyquist [7] - pedra basilar no processamento de sinal - a amostragem deve ser feita a uma frequência de pelo menos o dobro da frequência máxima do sinal a amostrar, sob risco do aparecimento de fenómenos de aliasing.

A gama auditiva do Ser Humano está cientificamente definida entre 20 Hz e 20 kHz [8], por isso, seguindo o Teorema de Nyquist, é necessário fazer amostragem a uma frequência de pelo menos 40 kHz para que a audição não seja limitada a priori. Não obstante, a impossibilidade de imple-mentação de um filtro passa-baixo real com frequência de corte de 20 kHz sem atenuação às altas

(25)

Capítulo 2. Conceitos Básicos

frequências, implica a imposição de uma banda de transição e um consequente aumento da frequên-cia de amostragem. Assim, no caso do áudio, um dos valores de frequênfrequên-cia de amostragem standard mais usados – e também o que é usado por defeito nesta dissertação – é 44.1 kHz. Este valor tornou-se standardporque, para além de cumprir com os requisitos enumerados a montante, satisfazia também necessidades associadas à tecnologia em vigor no início da digitalização do áudio.

2.3

Sistema Linear e Invariante no Tempo

Muitos sistemas físicos podem ser aproximados a modelos do tipo Linear e Invariante no Tempo (LTI), como é o caso da propagação do som no ar.

Este tipo de sistema é: • Linear por ser

1. Aditivo - a soma dos efeitos é igual ao efeito da soma (Figura 2.4).

{ ⋅ } 1 1 . { ⋅ } 2 2 e { ⋅ } + 1 2 1 + 2 Implica

Figura 2.4: Propriedade Aditiva de um sistema LTI.

2. Homogéneo - a transformação das variáveis resulta numa função proporcional (Figura 2.5).

{ ⋅ } 1 1 . { ⋅ } 1 1 Implica:

Figura 2.5: Homogeneidade de um sistema LTI.

O Princípio da Sobreposição fica definido com a presença destas duas propriedades de acordo a Figura 2.6. { ⋅ } 1 1 . { ⋅ } 2 2 e { ⋅ } + 1 2 1 + 2 Implica

Figura 2.6: Princípio da Sobreposição aplicado a sistema LTI.

• Invariante - a resposta do sistema não depende do instante em que o sinal de entrada é aplicado (Figura 2.7).

(26)

Focagem Acústica em Tempo Real { ⋅ } [ ] 1 1[ ] . { ⋅ } [ − ] 1 0 1[ − ]0 Implica:

Figura 2.7: Propriedade da Invariância de um sistema LTI.

• Causal - a resposta do sistema depende apenas do estado atual e passado do sistema, ou seja: y[n] = x[n] + x[n − 1]

é um sistema causal, enquanto

y[n] = x[n] + x[n+1] é um sistema não-causal.

2.4

Impulso Unitário e Resposta Impulsional

A Figura 2.8 apresenta graficamente um impulso unitário, o qual se define analiticamente por:

δ [n] = ( 1, n= 0 0, n6= 0 (2.1) 0 1 -10 -8 -6 -4 -2 0 2 4 6 8 10 Impulso Unitário

Figura 2.8: Representação gráfica de um Impulso unitário.

O impulso unitário pode ser considerado o sinal mais elementar por estar invariavelmente presente em qualquer sinal discreto. Como a Figura 2.9 ilustra, um sinal discreto é composto por múltiplos impulsos unitários, e por isso, pode ser visto como um somatório de múltiplos impulsos unitários com diferentes amplitudes e deslocados no tempo:

x[n] = − 4 · δ [n] + 1 · δ [n − 1] − 2 · δ [n − 2] + 3.5 · δ [n − 3] − 3 · δ [n − 4] + 2.5 · δ [n − 5] + 0.5 · δ [n − 6] − 1.5 · δ [n − 7] + 2 · δ [n − 8]

(27)

Capítulo 2. Conceitos Básicos x[n] = N−1

i=0 δ [n − i] · a[i], (2.2)

onde a é o vetor com as amplitudes do sinal.

-4 -3 -2 -1 0 1 2 3 4 [n] -4 [n] 1 [n-1] -2 [n-2] 3.5 [n-3] -3 [n-4] 2.5 [n-5] 0.5 [n-6] -1.5 [n-7] 2 [n-8] -1 0 1 2 3 4 5 6 7 8 9 10

Figura 2.9: Construção de um sinal discreto através do somatório de impulsos.

Assim, quando um sinal discreto excita um sistema, pode ser interpretado como sucessivos im-pulsos desfasados amostra a amostra. Caso esse sistema apresente propriedades de linearidade e invariância no tempo – LTI –, a sua resposta é a sobreposição ponderada da resposta de cada impulso:

y[n] =

i=−∞

h[n − i] · x[i]. (2.3)

Deste modo, sabendo a Resposta Impulsional h[n], isto é, a resposta do sistema ao impulso δ [n], o sistema fica totalmente caracterizado, como se pode observar pela Figura 2.10.

{ ⋅ } [ ] = [ ] Impulso Unitário ℎ[ ] = { [ ]} Resposta Impulsional Ambiente de Propagação .

Figura 2.10: Caracterização de um sistema LTI recorrendo à sua resposta impulsional.

No caso de um sistema acústico (sala), a resposta impulsional é habitualmente designada pela sigla RIR (Room Impulse Response). A Figura 2.11 ilustra uma RIR típica:

(28)

Focagem Acústica em Tempo Real

Figura 2.11: Room Impulse Response. A primeira risca representa o som directo, as seis seguintes representam as primeiras refelexões e o restante a reverberação da sala. [9]

2.5

Convolução Discreta

Partindo da equação 2.3 que representa matematicamente a resposta do sistema, e fazendo uma mudança de variável ( j = n − i ⇐⇒ i = n − j), y[n] pode ser escrito como:

y[n] =

j=−∞

h[ j] · x[n − j],

devido ao sistema ser causal, apenas se tem conhecimento da amostra actual (x[0]) e amostras do passado, logo: y[n] = ∞

j=0 h[ j] · x[n − j].

Admitindo que a Resposta Impulsional (IR) h[n] é finita, ou que a certo ponto pode ser truncada, j pode tomar o valor máximo de N − 1:

y[n] =

N−1

j=0

h[ j] · x[n − j],

a esta operação dá-se o nome de convolução, e representa-se por “∗”.

y[n] = (x ∗ h)[n] (2.4)

O resultado da convolução entre os sinais x[n] = {1, 3, 2} e h[n] = {1, 0.5, 0.5} pode ser visto na Figura 2.12, enquanto que na Figura 2.13 está representada cada iteração da operação. Repare-se que x[n] tem N1= 3 amostras e h[n] tem N2= 3 amostras, o que implica NT = N1+ N2− 1 = 5 somas de

produtos — o número de amostras de y[n].

(29)

Capítulo 2. Conceitos Básicos 0 2 4 0 2 4 0 2 4 0 2 4 0 2 4 -1 0 1 2 3 4 5

Figura 2.12: Exemplo de convolução discreta.

2.6

Método Overlap-Add

Devido à convolução exigir um elevado processamento, surgiram alguns artifícios matemáticos capazes de segmentar a operação, como por exemplo o Overlap-Add (OLA) [10]. O OLA divide o sinal de entrada bloco a bloco e executa múltiplas convoluções mais simples que serão posteriormente somadas segundo o esquema da Figura 2.14, por forma a obter o resultado da operação.

Seja L o tamanho do bloco, o sinal de entrada x[n] é dividido em B blocos da seguinte forma:

x[n] =

B

b=1

xb[n − bL] (2.5)

Assim, a equação 2.4 pode ser reescrita como:

y[n] =  B

b=1 xb[n − bL])  ∗ h[n] = B

b=1 xb[n − bL] ∗ h[n]) = B

b=1 y[n − bL] (2.6)

A implementação do OLA traz a vantagem de não ser necessário conhecer todo o sinal x para começar a operar a convolução e obter o y, uma vez que o sinal de saída é também ele gerado bloco a bloco.

(30)

Focagem Acústica em Tempo Real 0 1 2 3 4 5 Sinal x e h -3 -2 -1 0 1 2 3 4 5 6 0 2 4 6 Amplitude

Produto das amostras

-2 0 2 4 6 Amostras [i] 0 2 4 6 Amplitude Convolução -2 0 2 4 6 Amostras [n] 0 1 2 3 4 5 -3 -2 -1 0 1 2 3 4 5 6 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [i] 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [n] 0 1 2 3 4 5 -3 -2 -1 0 1 2 3 4 5 6 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [i] 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [n] 0 1 2 3 4 5 -3 -2 -1 0 1 2 3 4 5 6 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [i] 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [n] 0 1 2 3 4 5 -3 -2 -1 0 1 2 3 4 5 6 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [i] 0 2 4 6 Amplitude -2 0 2 4 6 Amostras [n]

Figura 2.13: Exemplo de convolução discreta passo a passo.

(31)

Capítulo 2. Conceitos Básicos ℎ ∗ + + 1 2 3 . . . ∗ + + 1 ℎ 3 2 1 . . . . . . . 2 3

Figura 2.14: Método overlap add entre um sinal x[n] e uma resposta impulsional h[n].

2.7

Transformada de Fourier

A Transformada de Fourier, F { · }, é uma ferramenta matemática que transforma um sinal no domínio do tempo para o domínio da frequência [11]

x−→ XF

F {x} = X (2.7)

e tem a seguinte propriedade:

F {h ∗ x} = F {x} · F {h} ou

F {x ∗ h} = H · X

(2.8)

e daí advém que:

h∗ x =F−1{H · X} (2.9)

o que faz com que a convolução entre dois sinais, possa ser realizada por meio de uma operação mais simples, ou seja, pelo produto entre dois sinais. A aplicação desta propriedade implica que os sinais tenham o mesmo número de amostras e que sejam periódicos (convolução circular).

(32)

Focagem Acústica em Tempo Real

Estas duas últimas condições remetem para o conceito de zero padding: adicionar ao sinal amos-tras com o valor “0”. O zero padding é aplicado para que os sinais tenham o mesmo número de amostras, mas também para aumentar a resolução em frequência.

Já anteriormente foi visto que a convolução entre dois sinais de N1e N2amostras resulta num sinal

de NT= N1+ N2− 1 amostras. O zero padding mínimo necessário está associado a esta condição: os

sinais x e h terão de ter à partida NT amostras. Só assim o resultado da convolução circular – ímplicita

à Transformada de Fourier – é igual ao da convolução linear, uma vez que há espaço para que o sinal não fique “enrolado” sobre ele próprio.

A Figura 2.15 mostra a comparação entre a convolução dos sinais x e h no domínio do tempo (usados na subsecção 2.5) e a aplicação da equação 2.8 com zero padding cada vez maior.

0 1 2 3 4 5 6 -1 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 -1 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 -1 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 -1 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 -1 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 -1 0 1 2 3 4 5 6 7 8

Figura 2.15: Influência do zero padding na Transformada de Fourier

Sem zero padding, h ∗ x não é equivalente aF−1{H ·X}, contudo, com 2 amostras de zero padding (NT− N1= 2) ambas as operações apresentam o mesmo resultado. Para os casos em que há mais do

que as duas amostras necessárias de zero padding, no resultado são apresentadas o mesmo número de amostras a zero.

(33)

Capítulo 3

Análise Acústica e Método de Focagem

3.1

Captação múltipla em cenário multi-fonte

A Figura 3.1 introduz o cenário acústico genérico que se pretende estudar (fonte e multi-receptor). 2 1 3 1 2

Figura 3.1: Espaço fechado com M fontes e N receptores, ilustrado por N= 5 e M = 4 (5 × 4 = 20 respostas impulsionais). A delimitação da figura pretende apenas indicar um domínio fechado e não definir qualquer forma particular de sala (rectangular ou outra).

Como se viu no capítulo anterior, o canal de transmissão entre uma fonte (m) e um receptor (n) é caracterizado pela resposta impulsional do ambiente acústico (sala) para o exato posicionamento dessa fonte e desse receptor (hnm).

Tendo em conta todas as combinações fonte-receptor, há a considerar, neste cenário, M × N res-postas impulsionais, tal como ilustram as setas na figura. É de frisar que as Resres-postas Impulsionais não traduzem simplesmente atraso/atenuação do som directo (como as setas podem sugerir), mas an-tes incorporam toda a influência do ambiente acústico (reflexões pelas superfícies, absorção, difração, refração, ...)

(34)

Focagem Acústica em Tempo Real

linear dentro de uma gama extremamente ampla de intensidade sonora das fontes, em que a gene-ralidade das aplicações de interesse prático (nomeadamente as que temos em mente, já brevemente discutidas no capítulo 1) se enquadra perfeitamente. Isto significa que o efeito de todas as fontes a emitir simultaneamente é dado pela soma dos efeitos individuais de cada uma.

Seja então yno sinal no receptor n (sob efeito de todas as fontes). Designando por rnmo contributo

da fonte m, ou seja o sinal captado no receptor n apenas por efeito da fonte m, pode-se escrever:

yn= rn1+ rn2+ . . . + rnm+ . . . + rnM= M

m=1

rnm. (3.1)

A Figura 3.2 sublinha esta composição aditiva de yn.

2 1

3 1

2

Figura 3.2: Sinal captado no receptor genérico n como combinação dos contributos individuais das fontes.

A Equação 3.1 pode ser escrita de forma explícita para cada um dos N receptores:                        y1 = r11+ . . . + r1m+ . . . + r1M y2 = r21+ . . . + r2m+ . . . + r2M .. . = ... ... . .. ... ... yn = rn1+ . . . + rnm+ . . . + rnM .. . = ... ... . .. ... ... yN = rN1+ . . . + rNm+ . . . + rNM (3.2)

Viu-se também no Capítulo 2 que o efeito no recetor n da fonte m (rnm) é dado pela convolução

entre a respectiva resposta impulsional (hnm) e o sinal emitido (xm):

rnm= hnm∗ xm. (3.3)

(35)

Capítulo 3. Análise Acústica e Método de Focagem

Deste modo, e adoptando uma forma matricial, obtém-se:           y1 y2 .. . yn .. . yN           =           h11∗ x1 + . . . + h1m∗ xm + . . . + h1M∗ xM h21∗ x1 + . . . + h2m∗ xm + . . . + h2M∗ xM .. . . .. ... . .. ... hn1∗ x1 + . . . + hnm∗ xm + . . . + hnM∗ xM .. . . .. ... . .. ... hN1∗ x1 + . . . + hNm∗ xm + . . . + hNM∗ xM           (3.4)

Esta formulação evidencia uma estrutura idêntica à da multiplicação de uma matriz (h) de dimensões N× M por um vetor-coluna (x) de dimensões M × 1, com o operador multiplicação (×) substituído pelo operador convolução (∗). Por isso, convencionando uma “convolução matricial” por analogia ao produto matricial, pode-se escrever

          y1 y2 .. . yn .. . yN           =           h11 . . . h1m . . . h1M h21 . . . h2m . . . h2M .. . . .. ... . .. ... hn1 . . . hnm . . . h2M .. . . .. ... . .. ... hN1 . . . hNm . . . hNM           ∗         x1 .. . xm .. . xM         (3.5)

ou, de um modo mais compacto,

y = h ∗ x, (3.6)

em que as variáveis a negrito representam a matriz correspondente. Note-se que h é uma matriz tridi-mensional de dimensões N × M × K, como mostra a Figura 3.3. A terceira dimensão (profundidade) representa tempo, sendo K o número de amostras das respostas impulsionais.

ℎ11 ℎ12 ℎ ℎ21 ⋮ ℎ1 ℎ 1 ⋮ ⋮ ... ... ... ⋱ ℎ 2 ℎ22 ℎ2

-Figura 3.3: Matrizh (respostas impulsionais).

O esquema da Figura 3.4 sintetiza o raciocínio seguido até aqui: a fonte m emite o sinal xm, que

se propaga na sala, causando um efeito rnmno receptor n. O sinal no receptor n é a soma dos efeitos

(36)

Focagem Acústica em Tempo Real (...) (...) Equação 3.1 Equação 3.3 Fonte 1 1 Fonte M (...) (...) 11 1 (...) 1 1 Rec 1 (...) 21 2 (...) 2 2 Rec 2 (...) 1 (...) Rec n (...) 1 (...) Rec N (...) Fonte m (...) ℎ1 ℎ2 ℎ ℎ Ambiente de Propagação (...) (...) (...) (...) (...) (...) (...)

Figura 3.4: Das fontes aos receptores num ambiente acústico genérico.

3.2

Formulação Inversa

A Equação 3.6 e a Figura 3.4 traduzem o nexo natural de causalidade do sistema: os sinais emiti-dos pelas fontes (x) representam causas (variáveis independentes) e os sinais captaemiti-dos pelos receptores (y) constituem efeitos (variáveis dependentes).

Porém, o propósito deste trabalho – focagem acústica – implica recuperar os sinais individu-ais emitidos por cada fonte usando como ponto de partida os sinindividu-ais captados. Por outras palavras, pretende-se inverter o sistema da Equação 3.5, obtendo assim uma estimativa de x (que se designará

˜

x, tão rigorosa quanto possível) em função de y, como ilustra a Figura 3.5.

Inversão

Sala ̃ 

Figura 3.5: Inversão da Resposta Acústica.

O problema não é trivial; a inversão do nexo de causalidade acrescenta dificuldades específicas que se tornarão claras mais adiante. A estratégia utilizada para o abordar passa por transportar a análise para o domínio da frequência. De facto, aplicando a Transformada de Fourier à Equação 3.6,

(37)

Capítulo 3. Análise Acústica e Método de Focagem

a operação de convolução converte-se numa multiplicação:

F {y} = F {h} × F {x}. (3.7)

Continuando a seguir a regra de representar sinais no domínio do tempo por letras minúsculas, re-presentar-se-ão as suas transformadas de Fourier pelas correspondentes letras maiúsculas. Assim, a equação anterior fica

Y = HX (3.8)

ou, de forma explícita,           Y1 Y2 .. . Yn .. . YN           =           H11 . . . H1m . . . H1M H21 . . . H2m . . . H2M .. . . .. ... . .. ... Hn1 . . . Hnm . . . H2M .. . . .. ... . .. ... HN1 . . . HNm . . . HNM           ×         X1 .. . Xm .. . XM         . (3.9)

A Figura 3.6 ilustra a obtenção da matriz H (domínio da frequência) a partir da matriz h (domínio do tempo). Após a aplicação de zero-padding (traduzida pela extensão do número de amostras de K para Q), são obtidas as transformadas de Fourier de todas as respostas impulsionais. Resulta uma ma-triz tridimensional de dimensões N × M × Q. É de sublinhar que na terceira dimensão (profundidade) são agora representados espectros de frequência (com Q riscas).

11 12 21 ⋮ 1 1 ⋮ ⋮ ... ... ... ⋱ 2 22 2 ℎ11 ℎ12 ℎ ℎ21 ⋮ ℎ1 ℎ1 ⋮ ⋮ ... ... ... ⋱ ℎ 2 ℎ22 ℎ2 ℎ

-Figura 3.6: Construção da matrizH (funções de transferência) a partir da matriz h (respostas impulsionais).

Esta matriz tridimensional H (N × M × Q) deve ser interpretada (conforme sugere a Figura 3.7) como um conjunto de Q sub-matrizes bidimensionais N × M, cada uma delas descrevendo o resposta do sistema para a componente de frequência correspondente ((q − 1) × fs/Q, para a risca q)

Resolver a Equação 3.8 em ordem a X implica inverter as sub-matrizes de H. Desse ponto de vista, podem distinguir-se três situações:

• N < M – neste caso (número de receptores inferior ao número de fontes), as matrizes nunca são invertíveis, resultando em indeterminação. Esta constatação é especialmente óbvia no caso N= 1: dado um único sinal, sem informação adicional, é impossível fazer qualquer separação de componentes.

(38)

Focagem Acústica em Tempo Real ( ) ( ) (3) (2) (1)

-Figura 3.7: Decomposição da matrizH por componentes de frequência.

• N = M – com igual número de receptores e fontes, as matrizes são quadradas e, por isso in-vertíveis, salvo casos muito particulares de (mau) posicionamento dos receptores em relação às fontes, que resultem em captações fortemente correlacionadas.

• N > M – se o número de receptores for maior que o número de fontes, resultam matrizes não quadradas e por isso, estritamente, não invertíveis. No entanto, este caso encerra múlti-plas combinações (CNM) enquadráveis no caso anterior. Aplicando métodos de pseudo-inversão,

é possível extrair vantagem dessa circunstância (que traduz sobre-determinação do sistema). Neste trabalho será adoptado o algoritmo de Moore-Penrose, que obtém a solução óptima sob o critério de minimização do erro quadrático[12].

Em resumo, desde que N ≥ M, é sempre possível, por pseudo-inversão das sub-matrizes que constituem H (inversão propriamente dita se N = M), obter uma matriz M × N × Q – aqui designada T – que, tal como se pretendia, permite escrever

X = T Y . (3.10)

A Figura 3.8 ilustra este processo.

(2 ) ( ) (3) (2) (1) (2 ) ( ) (3) (2) (1) -Pseudo-Inversão

Figura 3.8: Obtenção deT por pseudo-inversão das sub-matrizes de H.

Atendendo a que, na prática, a construção de T parte da medição experimental da matriz h, que acarreta inevitáveis incertezas, e envolve pesadas operações de processamento de sinal

(39)

Capítulo 3. Análise Acústica e Método de Focagem

das de Fourier e inversões matriciais) com os inerentes erros de aproximação numérica, é prudente considerar que se obtém apenas uma estimativa de X:

˜

X = T Y ≈ X, (3.11)

ou, de forma explícita,         ˜ X1 .. . ˜ Xm .. . ˜ XM         =         T11 T12 . . . T1n . . . T1N .. . ... . .. ... . .. ... Tm1 Tm2 . . . Tmn . . . TmN .. . ... . .. ... . .. ... TM1 TM2 . . . TMn . . . TMN         ×           Y1 Y2 .. . Yn .. . YN           . (3.12)

Este último par de equações constitui a descrição no domínio da frequência do sistema que se pretende implementar (bloco “Inversão” da Figura 3.5). A correspondente formulação no domínio do tempo,         ˜ x1 .. . ˜ xm .. . ˜ xM         =         t11 t12 . . . t1n . . . t1N .. . ... . .. ... . .. ... tm1 tm2 . . . tmn . . . tmN .. . ... . .. ... . .. ... tM1 tM2 . . . tMn . . . tMN         ∗           y1 y2 .. . yn .. . yN           , (3.13)

é obtida aplicando a transformada inversa de Fourier: ˜

x=F−1{ ˜X }; y=F−1{Y }; tmn=F−1{Tmn}.

A Figura 3.9 ilustra esta última operação. Observe-se a analogia entre os pares de equações 3.5/3.9 e 3.13/3.12. Na matriz t (tal como em h) a terceira dimensão constitui o eixo do tempo, enquanto em T (tal como em H) representa frequência.

11 12 21 ⋮ 1 1 ⋮ ⋮ ... ... ... ⋱ 2 22 2 -−1 11 12 21 ⋮ 1 1 ⋮ ⋮ ... ... ... ⋱ 2 22 2

(40)

Focagem Acústica em Tempo Real

A partir da Equação 3.13, e estabelecendo analogia com a Equação 3.4, pode-se escrever         ˜ x1 .. . ˜ xm .. . ˜ xM         =         t11∗ y1 + t12∗ y2 + . . . + t1n∗ yN + . . . + t1N∗ yN .. . ... . .. ... . .. ... tm1∗ y1 + tm2∗ y2 + . . . + tmn∗ yN + . . . + tmN∗ yN .. . ... . .. ... . .. ... tM1∗ yN + tM2∗ yN + . . . + tMn∗ yN + . . . + tMN∗ yN         , (3.14)

o que permite interpretar as estimativas dos sinais das fontes como somatórios de “contributos” de cada um dos N receptores. De facto, fazendo smn= tmn∗ yn, resulta

                 ˜ x1 = s11+ s12+ . . . + s1n+ . . . + s1N .. . = ... ... . .. ... . .. ... ˜ xm = sm1+ sm2+ . . . + smn+ . . . + smN .. . = ... ... . .. ... . .. ... ˜ xM = sM1+ sM2+ . . . + sMn+ . . . + sMN . (3.15)

Assinale-se como a expressão de focagem obtida para a fonte genérica m,

˜ xm= sm1+ sm2+ . . . + smn+ . . . + smN= N

n=1 smn, (3.16)

é formalmente idêntica à da Equação 3.2, com a diferença crucial da permuta de papéis entre fontes e receptores, que se procura evidenciar no confronto entre as Figuras 3.10 e 3.2.

2 1

3 1

2

Figura 3.10: Sinal emitido na fonte genérica m como combinação dos “contributos” individuais dos receptores.

A Figura 3.11 esquematiza o raciocínio explanado nesta Secção, no qual a formulação de um sistema inverso se baseia na transformada de Fourier.

(41)

Capítulo 3. Análise Acústica e Método de Focagem (...) Equação 3.16 Equação 3.14 (...) 11 1 (...) 1 ̃  1 Fonte 1 (...) 1 (...) ̃  Fonte m (...) 1 (...) ̃  Fonte M (...) (...) 1 (...) (...) (...) (...) (...) (...) (...) 1 2 (...)

Figura 3.11: Dos receptores às fontes num ambiente acústico genérico.

3.3

Método de Focagem

A Figura 3.12 compila as sínteses feitas nas Secções 3.1 e 3.2 e completa a Figura 3.5, mostrando o processo de focagem.

Sala DFT IDFT ̃ 

Inversão

̃ 

DFT ( ⋅ )−1 −1=

Figura 3.12: Método de Focagem.

As fontes emitem sinais que se propagam até chegarem aos receptores. Para fazer a focagem, é aplicada a Transformada de Fourier aos sinais captados nos receptores, revertido o efeito da propaga-ção e aplicada a Transformada de Fourier inversa.

A reversão do efeito de propagação dos sinais é feito a partir da medição das Resposta Impulsi-onal (IR) [13] e a sua consequente inversão. Só após esta caracterização se pode proceder focagem propriamente dita.

(42)

Focagem Acústica em Tempo Real

3.3.1 Medição de Respostas Impulsionais

Encontram-se na literatura várias técnicas de medição de Respostas Impulsionais. As mais efi-cazes envolvem a injeção de sinais de teste cuja autocorrelação aproxima um impulso de Dirac. Escolheu-se a mais comum em aplicações de acústica arquitectural, que utiliza o designado chirp lo-garítmico. Trata-se de um sinal quasi-sinusoidal com varrimento logarítmico de frequência na banda audível.

A matriz h é construída coluna a coluna e no final terá de dimensões N × M × K, em que N é o número de receptores, M o número de fontes e K o número de amostras da IR. Na Figura 3.13 estão representadas uma IR, uma coluna de IR (todas as IR associadas a uma fonte) e a matriz h final.

ℎ11 ℎ12 ℎ ℎ21 ⋮ ℎ1 ℎ 1 ⋮ ⋮ ... ... ... ⋱ ℎ 2 ℎ22 ℎ2 ℎ ℎ ⋮ ℎ2 ℎ1

-Figura 3.13: Construção da matriz h.

3.3.2 Respostas Impulsionais Inversas

A inversão das respostas impulsionais é feita no domínio da frequência, desse modo, são adi-cionadas K amostras de zero-padding a cada resposta IR da matriz h e posteriormente aplicada a Transformada de Fourier de acordo com a Figura 3.14.

2 × 11 12 21 ⋮ 1 1 ⋮ ⋮ ... ... ... ⋱ 2 22 2 ℎ11 ℎ12 ℎ ℎ21 ⋮ ℎ1 ℎ1 ⋮ ⋮ ... ... ... ⋱ ℎ 2 ℎ22 ℎ2 ℎ 2 ×

-Figura 3.14: Aplicação da Transformada de Fourier na matriz h.

No domínio da frequência, são invertidas as 2K sub-matrizes N × M da matriz H

¯ (Seção 3.2), as Pág. 24

(43)

Capítulo 3. Análise Acústica e Método de Focagem

quais representam cada uma das frequências, resultando na matriz final T de dimensão M × N, como se pode observar pelo exemplo da Figura 3.15

(2 ) ( ) (3) (2) (1) (2 ) ( ) (3) (2) (1)

-Figura 3.15: Inversão da matriz H.

3.3.3 Sinais Captados

Os sinais y são captados nos receptores sendo posteriormente adicionadas K amostras de zero-paddingno final desse sinal, ilustrado na Figura 3.16.

⋮ 2 1 ⋮ 2 1 2 × 2 × . ⋮ 2 1 -Figura 3.16: Construção da matrizY .

3.3.4 Focagem numa fonte

A estimativa da fonte é obtida através do produto das 2K amostras das matrizes T e Y como está demonstrado na Figura 3.17.

(44)

Focagem Acústica em Tempo Real ( ) 1 ( ) 2 ⋮ ( ) ( ) 1 2( ) . . . ( ) × = -( ) ̃ 

Figura 3.17: Cálculo da amostra k de ˜Xm.

Calculadas todas as amostras de ˜X, é-lhe aplicada a Transformada de Fourier inversa, ficando o sinal no domínio do tempo, ˜x. Deste novo sinal, são eliminadas K no final, o mesmo número de amostras de zero-padding que foram adicionadas antes de se aplicar a Transformada de Fourier.

̃  2 ×

-̃ 

Figura 3.18: Estimativax˜m.

(45)

Capítulo 3. Análise Acústica e Método de Focagem

3.3.5 Tempo Real

Até ao momento, foi tomado o princípio de que o sinal emitido pela fonte – e consequentemente o captados nos receptores – tem um número determinado de amostras fazendo a focagem em função disso. Para superar essa limitação e fazer a focagem em tempo real, pode ser implementado o método Overlap-add(OLA), descrito na Seção 2.6.

De acordo com a Figura 3.19, após a construção de T , cada um dos vetores Tnm é partido em

Bblocos de tamanho L. A cada um desses blocos são acrescentadas L amostras de zero-padding e aplicada a Transformada de Fourier [14]:

2

Bloco 2 Bloco 1

Bloco B

-- Figura 3.19: Matriz T em blocos.

O procedimento no sinal y é semelhante (ver Figura 3.20). Assim, a cada L amostras captadas nos receptores é formado um bloco a que serão acrescentadas L amostras de zero-padding e a posterior-mente aplicada a Transformada de Fourier.

(46)

Focagem Acústica em Tempo Real 2 -Bloco 3 Bloco 2 Bloco B Bloco 1

Figura 3.20: Matriz Y em blocos.

3.4

Notação

De modo a facilitar a leitura, será usada a notação presente na Tabela 3.1.

Símbolo Designação

M Número total de fontes sonoras

m Índice de identificação das fonte sonoras (m = 1, ..., M) N Número total de recetores sonoros

n Índice de identificação dos recetores sonoros (n = 1, ..., N) x Sinal emitido por uma fonte sonora

xm Sinal emitido por Sm

x Matriz (M × 1 × K) com os x sinais emitidos pelas fontes X DFT do sinal emitido por uma fonte sonora

Xm DFT do sinal emitido por Sm

X Matriz (M × 1 × 2K) com os Xm

y Sinal recebido num recetor sonoro yn Sinal recebido em Rn

y Matriz (N × 1 × K) com os yn

Y DFT do sinal recebido num recetor sonoro Yn DFT do sinal recebido em Rn

Y Matriz (N × 1 × 2K) com os Yn

Continua na página seguinte

(47)

Capítulo 3. Análise Acústica e Método de Focagem

Continuação da Tabela 3.1 da página anterior

Símbolo Designação

r Efeito sentido num recetor causado por uma fonte rnm Efeito sentido em Rncausado por Sm

Rnm DFT do efeito sentido em Rncausado por Sm

s Componente de uma fonte captada por um recetor smn Componente da fonte m captada pelo recetor n

Smn DFT da componente da fonte m captada pelo recetor n

h Resposta Impulsional para um recetor partindo de uma fonte hnm Resposta Impulsional para Rnpartindo de Sm

h Matriz (N × M × K) com os hnm

H DFT da Resposta Impulsional para um recetor partindo de uma fonte Hnm DFT da Resposta Impulsional para Rnpartindo de Sm

H Matriz (N × M × 2K) com as Hnm

T DFT da IR Inversa para um recetor partindo de uma fonte Tmn DFT da IR Inversa para Rnpartindo de Sm

T Matriz (M × N × 2K) com as Tmn

˜

x Sinal de uma fonte sonora recuperado ˜

xm Sinal de Smrecuperado

˜

x Matriz coluna (M × 1 × K) com os ˜xsinais recuperados ˜

X DFT do sinal emitido por uma fonte sonora ˜

Xm DFT do sinal emitido por Sm

˜

X Matriz coluna (M × 1 × 2K) com os Xm

L Tamanho do bloco

B Número de blocos

K Número total de amostras de um sinal

k Índice de identificação da amostra de um sinal (k = 1, ..., K)

(48)
(49)

Capítulo 4

Aplicação de Focagem

4.1

Ambiente de Desenvolvimento

Para plataforma de desenvolvimento do software de focagem, escolheu-se o Matlab, não só por se tratar de uma ferramenta adequada a este trabalho, mas também por a Universidade de Aveiro disponibilizar uma licença de campus completa.

O software de focagem propriamente dito, utiliza as ferramentas básicas do cálculo matricial que podem ser encontradas na toolbox mais elementar do Matlab, mas também necessita de recorrer a três toolboxesmais específicas: Signal Processing Toolbox, Audio System Toolbox e Image Processing Toolbox. Da toolbox standard, é de destacar a função pinv que devolve a matriz pseudo-inversa da matriz passada como argumento (pseudo-inversa Moore-Penrose).

Na análise e processamento de sinais foram utilizadas ferramentas como por exemplo o spectro-gram, fftfilt, e o butter que pertencem a esta toolbox. No capítulo 5, a função spectrospectro-gram, é usada para fazer a avaliação da qualidade da focagem.

A Audio System Toolbox fornece ferramentas de processamento de áudio, assim como aplicações que permitem o teste de algoritmos em tempo real, como é o caso da função audioPlayerRecorder, que foi utilizada neste trabalho. Esta função cria um objecto que lê e escreve amostras de áudio usando a placa de som do computador. [Ver Apêndice A]

Para que o objecto seja capaz de fazer a emissão e captação de som simultaneamente, é necessário que o Device utilizado suporte o modo full-duplex. Para além disso, as drivers que o audioPlayer-Recordersuporta são específicas para cada sistema operativo, sendo as drivers ASIO™ as que estão associadas Windows™, o sistema operativo usado.

Assim que é inicializado e definidas as propriedades do objecto, este é chamado como se fosse uma função, em que o input é audioToDevice e o output audioFromDevice, os vectores com os sinais a emitir pelas colunas e os sinais captados nos microfones, respectivamente. As dimensões destes vectores têm que coincidir com o número de elementos em OutputChannels e InputChannels.

(50)

Focagem Acústica em Tempo Real

Figura 4.1: Diagrama do sistema audioPlayerRecorder [15].

4.2

Implementação

O diagrama de blocos elementar para a implementação do método de focagem está esquematizado na Figura 4.2, ou seja, o método de focagem deverá através da captação dos sinais proveniente de um conjunto de microfones ser capaz de distinguir os diversos sinais emitidos.

  Sala

Captação

(...) (...)

Emissão Focagem

Figura 4.2: Diagrama de blocos elementar.

Para realizar a focagem, o software terá de comportar várias ações todas elas executadas por funções construídas para o efeito, como demonstra a Figura 4.3.

4.2.1 Parâmetros Iniciais

É necessária a decisão de alguns parâmetros iniciais para começar a sessão. Assim, o primeiro passo passa por definir a duração da simulação (T), a Frequência de Amostragem (Fs), e os canais de entrada e saída (InputChannels e OutputChannels). A duração da simulação está limitada pela dura-ção dos ficheiros que serão, a posteriori, carregados como sinais das fontes, e por isso T deverá ser menor ou igual que a duração do ficheiro mais curto. A frequência de amostragem escolhida, como já foi referido no capítulo 2, é por default 44100 Hz. Os canais de entrada e saída representam os receptores e as fontes, respectivamente, e são inicializados em forma de vector. O número de elemen-tos indica, logo à partida, o número de receptores/fontes, e fica definido o canal a que corresponde

(51)

Capítulo 4. Aplicação de Focagem   Sala Focagem Medição de IR Captação Headphones Estruturação de dados   Caracterização Sinais de Teste   Tempo Real   Utilizador   Ambiente de Aquisição (...) (...) Sinais das Fontes Emissão Respostas Impulsionais

Figura 4.3: Diagrama do Software

cada dispositivo através do índice do vector, e.g. o número no índice 1 do vector OutputChannels corresponde canal dedicado à fonte 1.

4.2.2 Medição da Resposta Impulsional

A caracterização do Ambiente, passa pela necessidade de medir as respostas impulsionais para cada par emissor-receptor, e para isso é invocada a função measureIR. Esta função tem como va-riáveis de entrada InputChannels, OutputChannels e Fs, e devolve a matriz h, matriz de dimensões N × M × K, em que N é o número de receptores, M é o número de emissores e K é o número de amostras no tempo. measureIR( ) InputChannels OutputChannels Fs h

(52)

Focagem Acústica em Tempo Real

Dentro da função estão já definidos alguns importantes parâmetros de medição: a duração da medição, a duração da IR e alguns parâmetros associados ao sinal chirp a ser utilizado. O número de emissores/receptores é definido indirectamente através do número de elementos de InputChan-nels/OutputChannels, e é a partir dessa informação que é criada a matriz h, inicialmente vazia, mas que será logo de seguida preenchida ao longo de um ciclo for com Ns iterações. Dentro desse ciclo é feita a emissão e aquisição de sinais sonoros através da função audioPlayerRecorder, sendo a IR para cada receptor obtida por correlação do sinal emitido com o sinal recebido.

Criação do chirp Criação do filtro inverso Criação do audioPlayerRecorder Emissão/Captação Correlacção chirp com captação Armazenamento da Reposta Impulsional Parâmetros de medição Para cada fonte

Figura 4.5: Diagrama de blocos de measureIR.

4.2.3 Estrutura de dados

Uma vez medidas as Respostas Impulsionais, é necessário criar a estrutura de dados que alimenta o sistema, para isso é criada uma variável da classe impulseResponse a que é dado o nome IR. Esta variável é inicializada com a matriz h e com a Fs, e é aqui que é feita a inversão das respostas impul-sionais.

impulseResponse( ) h

Fs IR

Figura 4.6: Função impulseResponse.

O construtor da classe impulseResponse começa por acrescentar o zero-padding à matriz h e de seguida aplica a transformada de Fourier, tal qual foi referido no 2. Uma vez no domínio da frequência, cada submatriz de dimensão N × M da matiz H é invertida obtendo-se a matriz ih.

Ao mesmo tempo, cada amostra é multiplicada por um filtro previamente criado para limitar a inversão de valores que anteriormente seriam muito próximos de zero, e que agora tenderiam para infinito.

(53)

Capítulo 4. Aplicação de Focagem

Feita a inversão, é aplicado um avanço do tamanho da Resposta Impulsional e posteriormente aplicada a transformada de Fourier inversa, chegando à matriz das Inversas das Respostas Impulsionais no domínio do tempo, ih.

Chegado a este ponto, o último passo consiste na divisão da matriz em blocos e adição de zero-paddingbloco a bloco para de seguida, se aplicar a transformada de Fourier, também bloco a bloco.

A estrutura de dados fica assim preparada para que a focagem possa ser feita em tempo real, apenas com a latência da duração da Resposta Impulsional.

Mais uma vez, há parâmetros internos à classe que são definidos à partida, como o a frequência de corte do filtro, o tamanho do bloco e o número de amostras de zero-padding.

zero-padding de FourierTransf. FiltragemInversão/

Divisão em blocos zero-padding ℎ Criação do Filtro ℎ Avanço de um bloco ℎ ℎ ℎ[ , ] ℎ [ ,2 ] Transf. [ , ] de Fourier Transf. de Fourier Inversa

Figura 4.7: Diagrama de blocos de impulseResponse.

A classe IR tem ainda um método de leitura que permite aceder à matriz de respostas impulsionais inversas que será usado durante a focagem.

4.2.4 Focagem

Após a medição estar concluída e a estrutura de dados estar preparada, é chamada a função que faz a focagem propriamente dita: realTimeTuning. Esta função tem como variáveis de entrada a duração da sessão, Fs, IR, InputChannels e OutputChannels e o índice da fonte que será o alvo de focagem.

realTimeTuning( ) InputChannels OutputChannels tuning_source T Fs IR

Figura 4.8: Função realTimeTuning.

À cabeça da função são definidos o BlockSize – que representa a quantidade de amostras que contém cada bloco do sinal estimado –, assim como os ficheiros áudio. De seguida um novo objecto

(54)

Focagem Acústica em Tempo Real

audioPlayerRecorderé inicializado, desta feita com todos os receptores e fontes activados. São cria-dos dois buffers, um da classe blockBuffer e um da classe blockOutput. O primeiro é um buffer circular que organiza os sinais recebidos bloco a bloco, enquanto o segundo faz a estimativa de um bloco de sinal da fonte que está a ser focada.

Neste ponto a está tudo preparado para que a focagem em tempo real possa acontecer. O objecto audioPlayerRecorder emite e captura o primeiro bloco de sinais. Os sinais emitidos são colocados no blockBuffer e o blockOutput trata de fazer a focagem na fonte escolhida, obtendo uma estimativa da mesma que é armazenada posteriormente. O processo é repetido para todos os blocos de sinal recebidos, até terminar o tempo de sessão. No final, o vector xe contém o resultado da focagem.

Para cada bloco Criação do audioPlayerRecorder Inicialização de buffers Alimentar Buffer Armazenar Estimativa Escolha de sinais Emissão/ Captação Obter Estimativa

Figura 4.9: Diagrama de blocos de realTimeTuning.

(55)

Capítulo 5

Validação

Para a validação prática do sistema, foi aplicado o software de focagem desenvolvido no Capí-tulo 4 através de uma cadeia de medição que capta e reproduz sinais sonoros simultaneamente e em diferentes posições.

Nos diferentes tipos de teste, foram medidas primeiramente as respostas impulsionais de cada combinação emissor-recetor, obtendo a matriz h da Equação 3.6. De seguida, foram calculadas as sub-matrizes inversas de H — a matriz T da Equação 3.11 —, deixando o sistema preparado para fazer a focagem. Porém, para que a focagem decorresse em tempo real, a matriz T foi manipulada de maneira a ser aplicado o método de overlap add, como foi descrito na Secção 3.3.5.

Os ensaios basearam-se na emissão de sons de teste, para que, a partir das captações dos recetores, fossem estimados os sons que cada fonte emitiu.

5.1

Cadeia de medição

A cadeia de medição — esquematizada na Figura 5.1 —, é composta por um PC com o Matlab, uma interface áudio, um conjunto de 4 microfones e um conjunto de 4 colunas. Na régie, PC está conectado à interface áudio através de USB e utiliza a driver Audio Stream Input/Output (ASIO). Os microfones e as colunas, colocados no estúdio, estão ligados à interface áudio através de cabos XLR-XLRbalanceado. No computador, corre o script Matlab que executa a captação e a reprodução simultânea de áudio e a focagem dos sinais das colunas.

Interface Áudio PC com Matlab Mic 1 Coluna 1 Mic 2 Mic 4 Coluna 4 Coluna 2 Régie Estúdio Mic 3 Coluna 3

(56)

Focagem Acústica em Tempo Real

5.1.1 Equipamento

A Figura 5.2 apresenta o equipamento usado para a validação prática do sistema desenvolvido. • Modelo: Roland UA-1010 Octa-captare;

• Conectividade: USB 2.0;

• Frequência de amostragem (Fs): 44.1kHz, 48kHz e 96kHz;

• Canais de Entrada: 12 (8 com pré-amplificador); • Canais de Saída: 10;

• Resolução A/D: 24-bit;

• Reposta em Frequência: 20 Hz à 22 kHz (+0/-2dB) para Fs = 44.1kHz.

(a) Interface áudio utilizada [16].

• Modelo: AT4049b; • Tipo: condensador;

• Direcionalidade: omnidirecional; • Largura de Banda: 20Hz até 20kHz; • Alimentação: 48V DC (Phantom Power).

(b) Microfone utilizado [17]. • Modelo: Alto TS210; • Largura de Banda: 54 Hz - 20 kHz (-3 dB); • Frequência de Cross-over: 2.5kHz; • Alimentação: 220—240 AC 50/60Hz. (c) Coluna utilizada [18].

Figura 5.2: Equipamento utilizado e suas principais características.

5.1.2 Ambiente

As medições decorreram no estúdio de som do DeCA - Departamento de Comunicação e Arte da Universidade de Aveiro (ver Figura 5.3), escolhido para o efeito por possuir, entre outras vantagens, uma régie isolada que permite o controlo técnico da experiência.

(57)

Capítulo 5. Validação

Figura 5.3: Ambiente de Medição — estúdio de som do DeCA, Universidade de Aveiro.

5.2

Procedimento experimental

No estúdio de som, as colunas foram colocadas em círculo e a apontar para o centro, enquanto os microfones foram colocados segundo duas disposições diferentes. Na disposição arbitrária, há microfones dentro e fora do círculo formado pelas fontes, enquanto na disposição periférica os micro-fones estão todos fora desse círculo, aproximando-se do comportamento de micromicro-fones de sala fixos (Confrontar a Figura 5.4a com Figura 5.4b).

4 3 1 2 1 2 3 4

(a) Disposição arbitrária.

4 3 1 2 2 3 4 1 (b) Disposição periférica.

(58)

Focagem Acústica em Tempo Real

Na régie, a interface áudio foi ligada ao PC e foram definidos os canais de ligação às colunas e aos microfones, assim como alguns parâmetros da própria interface. No software definiram-se os sinais das fontes (sinais de teste), largura de banda da cadeia de medição e outros parâmetros de medição.

5.2.1 Parâmetros de medição

O potenciómetro de volume das colunas foi ajustado empiricamente, por forma a que o som emi-tido não excedesse a gama dinâmica dos microfones. Seguindo a mesma premissa, o valor escolhido para a sensibilidade dos pré-amplificadores dos canais dos microfones na interface áudio, foi colocada a 30.0 dB, um valor próximo da gama dinâmica do dispositivo.

Por software — através do filtro na inversão das IR — a largura de banda da cadeia de medição foi definida como [80 Hz, 15 kHz], uma vez que foi fora desta banda que se observou os maiores problemas de inversão. O tempo de reverberação (Tr) foi definido como 5 segundos, o tempo de

sessão (Ts) 20 segundos e o número de amostras do bloco (BlockSize) foi estabelecido em 4096.

5.2.2 Sinais de teste

Com o objetivo de analisar graficamente os resultados, foram utilizados chirps, por apresentarem espectrogramas simples, o que permite estimar a relação sinal-ruído de focagem através técnicas ele-mentares de processamento de imagem. Para que houvesse possibilidade de cada coluna emitir um som distinto, foram utilizados 4 chirps diferentes: dois lineares e dois logarítmicos (ascendentes e descendentes) com duração igual a Ts. A Figura 5.5 mostra os espectrogramas de cada um dos sinais.

2 4 6 8 10 12 14 16 18 Time (secs) 0 5 10 15 20 Frequency (kHz) -140 -120 -100 -80 -60 -40 -20 Power/frequency (dB/Hz)

(a) Sinal de teste 1.

2 4 6 8 10 12 14 16 18 Time (secs) 0 5 10 15 20 Frequency (kHz) -140 -120 -100 -80 -60 -40 Power/frequency (dB/Hz) (b) Sinal de teste 2. Pág. 40

(59)

Capítulo 5. Validação 2 4 6 8 10 12 14 16 18 Time (secs) 0 5 10 15 20 Frequency (kHz) -140 -120 -100 -80 -60 -40 -20 Power/frequency (dB/Hz) (c) Sinal de teste 3. 2 4 6 8 10 12 14 16 18 Time (secs) 0 5 10 15 20 Frequency (kHz) -140 -120 -100 -80 -60 -40 -20 Power/frequency (dB/Hz) (d) Sinal de teste 4.

Figura 5.5: Sinais de teste usados para a validação prática do sistema.

5.2.3 Métrica de validação

Obtidas as estimativas dos sinais das fontes, e conhecendo os sinais enviados, é possível estipular uma métrica de validação dessas estimativas. Tomando como ponto de partida o espectrograma do sinal de teste 1, é criada uma janela de validação, que não é mais que uma matriz bidimensional com valores lógicos “0” e “1”, em que o “1” representa os pontos acima de um determinado threshold de energia — considerado sinal — e “0” os pontos abaixo desse threshold — considerado ruído. Na Figura 5.6 está representado o resultado desse processo para o sinal de teste 1 (Figura 5.5a).

Figura 5.6: Janela de validação do sinal de teste 1.

A janela de validação, permite assim estabelecer um valor de SNR, dado pelo quociente entre a energia da estimativa do sinal dentro da janela (sinal) e fora da janela (ruído), como é descrito na

Referências

Documentos relacionados

Ficou evidenciada a necessidade de um estudo mais aprofundado das causas destes distúrbios, sendo o objetivo deste trabalho fazer uma análise dos dados de vida

Como interferˆencia indesejada podemos exemplificar: impedir que uma tarefa receba uma fatia de tempo para processamento, alterar indevidamente a entrada ou a sa´ıda do

GUILHERME TORRES AFFONSO LUCAS ALMEIDA GONÇALVES MATEUS PEREIRA DOS SANTOS RICARDO LAURINDO PEREIRA ALEXANDRE DE SOUZA FERREIRA RICARDO SILVA PEREIRA DA CRUZ FELIPE GARCIA DOS

Foi observado resultado estatisticamente significativo entre a “percentagem de células marcadas pela proteína Ki-67” e o “prognóstico dos pacientes” a 10 anos, tendo-se

Percebemos a necessidade de questionar a teoria de Halbwachs, no tocante à reconstrução do passado pela memória através de processos coletivos, anteriores ao indivíduo e mais ainda

Se se pro- cura attrahir de paizes estrangeiros Mestres e Artis- tas de merecimento., como ninguém se expatria sem necessidade, ou esperança de lucro que valha a pena de

A razão pela qual D’us dividiu o mar foi para preparar os judeus para receber a Torá e para lhes ensinar como usá-la depois. No Monte Sinai todos os mundos espirituais foram

Assim, “as rodas de conversa, o incentivo às redes e movimentos sociais e a gestão dos conflitos gerados pela inclusão das diferenças são ferramentas experimentadas