• Nenhum resultado encontrado

3.2 – Processamentos sonoros e síntese em tempo real

SYNTHESIS BY SPECTRAL FILTERING

Com este recurso, Manoury também adiciona uma nova voz à obra, mas de maneira bem distinta às apresentadas com o infinite reverb, frequency shifter e o harmonizer.

Esta síntese por filtragem espectral é, basicamente, uma síntese subtrativa onde um som eletrônico com um espectro bastante rico, sofre filtragens em determinadas regiões de freqüência, produzindo o som final.

Em “Jupiter”, os filtros que controlam estas bandas de freqüências estão atrelados às alturas da flauta. Ou seja, quando a flauta vai para a região aguda, os parâmetros dos filtros a acompanham e só permitem que as freqüências desta região do espectro do som eletrônico sejam ouvidas. Para evitar cortes bruscos entre o acionamento de uma região e outra dos filtros, o sistema pode gerar uma interpolação entre as regiões, criando glissandos dos sons

117

sintetizados. Tais glissandos, nesta obra, costumam ser feitos de forma lenta, de modo que, quando o filtro alcança a região em que a flauta estava, ela já está em outra. Isto cria uma espécie de movimento ondular para as bandas dos filtros. Manoury utiliza este recurso principalmente na criação de pedais texturais para a flauta soar sobre os mesmos.

Nos eventos 1 e 3 do próximo exemplo (ilustração 24) podemos observar a notação gráfica criada por Manoury para simbolizar os movimentos sonoros que serão gerados por esta “síntese por filtragem espectral”.

A presença destes sons no decorrer da performance altera o significado das notas da flauta solo para os ouvintes, para o flautista e para a própria obra musical. Desta forma, o exercício feito pelo compositor no momento da criação, para prever como os sons da síntese se comportarão no decorrer da performance, e como a performance do músico vai reagir a estes sons, é determinante para a criação musical.

Sampler

O uso do sampler37 nesta obra ocorre de duas maneiras distintas, predetermined score (partitura pré-determinada) e rhythmic interpolation (interpolação rítmica).

Sampler – A – Predetermined Score

O processo de funcionamento dos samplers convencionais costuma adotar a seguinte lógica: uma pequena amostra de som, pré-gravado, é transposta para diversas alturas, geralmente as doze notas da escala temperada, podendo ser disparadas através de um teclado controlador. Cabe lembrar que no padrão de comunicação MIDI, cada nota possui um valor numérico (entre 0 e 127) e controle de intensidade (velocity), também variável entre 0 e 127.

118

119

Neste caso, o que Manoury faz é criar antecipadamente partituras numéricas dentro da linguagem do software utilizado, compatíveis com o padrão MIDI. Depois, virtualmente, pede para o computador executar a partitura utilizando os samples como fontes sonoras. Mas, ao invés de utilizar a escala temperada na transposição dos sons pré-gravados, ele utiliza outras divisões intervalares (geralmente micro-tonais). Ou seja, ao invés de dividir os 12 sons em uma oitava (gerando os 12 semitons), ele os divide em 12 partes iguais de qualquer intervalo. Caso divida em intervalos pequenos, como uma terça, por exemplo, estará dividindo o som em fragmentos muito inferiores a um semitom. Além disso, este intervalo, o utilizado na divisão da escala, também pode variar no tempo, tornando o processo ainda mais complexo.

Os dois samples utilizados em Jupiter são: um fragmento de som de tam-tam, instrumento de percussão que não produz alturas fixas, na seção 8; e um fragmento de flauta utilizando a técnica tongue ram38. Com a utilização do sampler, o que se percebe são movimentos e evoluções melódicas sem a identificação de alturas fixas. Segundo Manoury:

“Aqui, uma partitura não-temperada é produzida com sons inarmônicos – isto é, de certa forma, o inverso da situação tradicional na qual (pelo menos teoricamente, e simplificando um pouco) um partitura „temperada‟ é produzida por sons que são na maior parte „harmônicos‟” (Manoury, 2003).

No exemplo seguinte, podemos ver (nas pautas do sistema computacional), que Manoury utiliza as claves de sol e fá para indicar as alturas que o protocolo MIDI identificará e utilizará para gerar as variações microtonais e não as alturas específicas que o sampler irá produzir. Por este motivo e por se tratar de um som inarmônico, Manoury opta por notar toda esta seqüência com uma notação típica de percussão inarmônica, onde a cabeça da nota é substituída por um “x”.

38 Técnica em que o flautista fecha o bocal da flauta com os lábios e força, com um golpe, a língua pelo

buraco da embocadura, gerando um som semelhante a um pizzicato, que soa uma sétima maior abaixo da nota digitada (Mcmurtery, 2009).

120

121

O uso deste recurso oferece ao compositor uma grande quantidade de novos sons musicais, limitado apenas pela capacidade de processamento de seu equipamento. Como no caso de Manoury, o compositor pode realizar a escritura dos mesmos criando uma partitura similar à de um grupo de câmara ou orquestra. Tudo isso é possível, como em “Jupiter”, com apenas um músico tocando seu instrumento tradicional no palco, com todas as outras vozes sendo produzidas por samplers, pré-programados, que estariam sujeitos ao sistema interativo.

Estes sons até poderiam ter sido preparados anteriormente em estúdio e gravados em fita-magnética, como na música mista tradicional, mas sua sincronização com o músico em uma situação de concerto, além de exigir uma precisão estupenda do músico, não seria tão precisa como a proporcionada pelo sistema interativo. Além disso, o sistema escolhido, composto ou desenvolvido pelo compositor, oferece ao músico a possibilidade de realizar sua interpretação de forma livre.

Sampler – B – Rhythmic Interpolations

Este processo também utiliza samples de um som, que podem ser pré-gravados em estúdio, ou armazenados no decorrer da própria performance. A diferença em relação ao processo anterior está nas características rítmicas do resultado sonoro, que não são mais pré- definidas, mas acontecem em tempo real através de processos computacionais.

Para realizar as interpolações rítmicas, o computador primeiramente analisa dois pequenos fragmentos musicais (com o mesmo número de notas) tocados pelo flautista, armazenando as variações rítmicas entre cada uma das notas. Podemos ver neste próximo exemplo, manuscrito de Manoury, os dois trechos analisados pelo computador (indicados pela expressão “Détection des durées”, ou seja, “Detecção das durações”).

122

Ilustração 26 – Indicação da detecção das durações rítmicas (Manoury, 1990).

Depois, em outro momento, com os dois fragmentos armazenados, o sistema vai „improvisar‟ uma interpolação entre os dois módulos rítmicos, sobre alturas previamente compostas. Ou seja, o sistema iniciará tocando o ritmo do primeiro fragmento e construirá gradualmente uma interpolação rítmica até chegar ao ritmo do segundo fragmento. No próximo manuscrito de Manoury, podemos compreender melhor como ocorre esse processo.

123

Vejamos, a seguir, como este processo acontece em “Jupiter”. O momento da análise do primeiro fragmento ocorre entre as indicações 24 e 32, com o texto “Record Début Inter.”, e do segundo fragmento, entre as indicações 36 e 48 (“Record Fin Inter.”):

Ilustração 28 – Jupiter. Seção IIa. Eventos 24-32 (Manoury, 2003).

Ilustração 29 – Jupiter. Seção IIa. Eventos 35-48 (Manoury, 2003).

Mas pela forma como Manoury criou este trecho, ao invés do sistema realizar a interpolação de forma livre, o deixa completamente atrelado à performance. Quando o músico tocar a nota do evento que contém a indicação “GO”, fará uma pausa em sua parte, e o sistema começará a realizar a interpolação rítmica com os sons do sampler. E, quando o músico voltar a tocar sua parte e executar a nota do evento que contém a indicação “STOP”, o sistema colocará a última nota da interpolação em infinite reverb, congelando-a até o próximo “GO”.

Podemos observar, no exemplo a seguir, os modelos rítmicos extraídos da flauta (na parte de cima) e os momentos que a interpolação ocorrerá, com as indicações “GO” e “STOP”.

124

125

Todo este processo, segundo Manoury, “consiste no uso de uma partitura calculada em tempo real” (Manoury, 2003). Interessante, em termos composicionais, o que este conceito de “partitura calculada em tempo real” significa para Manoury. Neste caso, isto quer dizer que o sistema e o intérprete decidirão em tempo real, na situação de concerto, dentro de uma estrutura criada pelo compositor, como interpretar e produzir o fragmento musical. Ou seja, há um pequeno nível de indeterminação do resultado sonoro, que, apesar de pequeno, ainda é consideravelmente superior aos outros processos utilizados, que estão indicados minuciosamente na escritura da partitura.

Uma evidência disto é a indicação de andamento deste fragmento, que, ao contrário de outras seções com indicações metronômicas precisas, pede apenas: „Très libre‟, ou „Muito livre‟. O flautista fica com o controle da interpretação ao mesmo tempo em que responde (interage) ao que o sistema está gerando. Altera a sua interpretação em função do que ouve, e deixa soar o processamento computacional da interpolação por quanto julgar necessário, o que acaba interferindo, conseqüentemente, no que o sistema produz.

Apesar de o compositor ter restringido o início e o fim do ritmo realizado pelo sistema, a interpolação rítmica dependerá do algoritmo que rege este processo, e por quanto tempo ela ocorrerá, dependerá da interpretação do flautista.

126