• Nenhum resultado encontrado

Rua Diogo Botelho 1327 4169 – 005 Porto, Portugal

III. SER SÓNICO

É para responder à necessidade de criação sonora conjunta, consciente das partes e de um todo, que se partilha e constrói simultaneamente, que o “formato”

performance ganha sentido.

Este “Ser” é constituído por quatro intérpretes e respectivos mecanismos de geração de som. Individualmente valem apenas como sons resultantes de meras experiências isoladas. No entanto, em conjunto, dão

corpo e alma a uma composição sonora que encerra em si sons de naturezas muito distintas e os harmoniza. Apresenta-se então como um todo, resultante da relação de “inter-interpretação” e de improvisação dos elementos sonoros, que se compõem e condicionam mutuamente. A filosofia que o ser sónico apresenta concretiza-se na:

A. Integração de Elementos

A integração de novos controladores vem responder à necessidade de enriquecer a composição musical. A utilização de síntese FM ; síntese granular; síntese aditiva e

samplagem, permite a manipulação de novas fontes

sonoras, bem como a aplicação de sonoridades muito diversificadas e complementares a elementos acústicos de composição.

B. Improvisação

Existe uma valorização premeditada do acto de criar em relação ao objecto criado, ou se preferirmos, à composição sonora resultante. No entanto foram impostas marcações temporais à peça, que estabeleciam a inter-ligação dos músicos. Serviam apenas como linha condutora e estruturante. O acto de criar, compor, ganha prioridade e revela-se. Valoriza -se a criação, ou processo de composição em si, como forma de arte.

Fig. 2. Imagem extraída do vídeo da performance. Detalhe do controlador de mão.

C. Integração Visual

A questão cénica da dis posição dos músicos no espaço, bem como o facto de se ter colocado o público também no palco, não foi descuidada. Era importante que se sentissem envolvidos naquele processo de composição e que percebessem a relação entre os movimentos, a expressões e o som que era produzido.

Ao desejo de integração visual numa performance sonora respondeu-se com um vídeo como elemento

131

Copyright © ARTECH 2004 – 1º Workshop Luso-Galaico de A rtes Digitais 12 de Julho de 2004, FC - UL

cénico, mas também como forma de direccionar o olhar do espectador e estabelecer a ponte entre a imagem e o som.

IV. ARQUITECTURA

O desafio de fundir a simplicidade do acústico; com a plasticidade do electroacústico e o potencial do digital, deu um sentido ao percurso de estruturação da performance.

O “Ser Sónico” é constituído por quatro performers que, integrados num espaço próximo do espectador com um vídeo a decorrer em simultâneo, realizam uma composição com três fontes sonoras distintas. Uma guitarra acústica, uma guitarra electroacústica e um computador.

Fig. 3. Esquema de organização do espaço e arquitectura da unidade central de processamento.

Os elementos acústico e semiacústico, vão ao encontro de três ideias base :

Responder à sonoridade pretendida na performance; servir de elemento integrador, físico e gestual; criar uma identificação dos sons com o imaginário sonoro colectivo. O computador, é a base de processamento de sinal sonoro proveniente do microfone e de dois novos controladores musicais (um colocado na mão da performer que usa a voz e o outro em forma de guitarra), que

embora parecessem autónomos em palco, funcionam ligados à mesma unidade de síntese central.

Esta unidade de síntese foi elaborada no software Max/Msp [8] e está dividida em 3 tipos de processamento distintos.

Uma unidade de entrada que recebe o sinal sonoro do microfone e o sinal MIDI dos sensores.

Uma segunda unidade que integra um sistema com diferentes módulos de síntese e processamento de sinal. Este é uma unidade dinâmica, onde a base de programação dos diferentes módulos permite evoluções permanentes. Desta forma a aplicabilidade dos mó dulos não se esgota nesta performance e pode ser aumentada ou adaptada a novos controladores ou novos contextos de composição.

A terceira unidade é a de mistura do sinal. Permite controlar a quantidade de sinal que cada módulo produz e enviá-lo para a saída de som do computador.

A guitarra virtual, um dos controladores musicais virtuais, inspirado na filosofia de uma guitarra, onde o som é controlado e produzido através da acção no braço, no corpo e nas cordas da guitarra. Executa variações de tonalidade, frequência, amplitude e intensidade com a mesma necessidade de recursos físicos e gesto de uma guitarra acústica. No caso deste controlador o meio de propagação de som e de variação dessas premissas são dois módulos, dentro da unidade de síntese central: um módulo de síntese FM e um módulo de samplagem. Ambos interagem e são controlados em tempo real.

O segundo instrumento virtual baseia o seu controle num gesto mais abstracto que representa um encontro de diálogo entre a performer e o espaço cénico.

A voz é colocada como gerador de som completamente digital controlada por sensores de luz na mão da

performer. A voz que é um instrumento normalmente

usado como meio acústico, neste caso, é só uma fonte de produção sonora virtual, que usa 3 módulos de sín tese: um módulo de reprodução de sinusóides através da analise do

atack da voz; outro módulo que utiliza síntese granular

mapeada em tempo real pelo computador e outro módulo de extracção e reprodução de amostras sonoras com alguma dimensão.

V. IMPLEMENTAÇÃO

Na fase de implementação foi necessário integrar e definir sonoridades.

O som da guitarra acústica é capturado por um microfone dinâmico ligado à mesa de mistura de som analógica central. A sua colocação no espaço, ao centro o mais afastado possív el das colunas, está relacionada com a

132

Copyright © ARTECH 2004 – 1º Workshop Luso-Galaico de A rtes Digitais 12 de Julho de 2004, FC - UL

dificuldade normal de controle do som de retorno quando é necessário introduzir amplificação a elementos acústicos.

A guitarra electroacústica é ligada a vários pedais de processamento de sinal (2 distorçores; 1 de chorus; 1 wha-

wha e 1 reverb), que por sua vez transportam o som para

um amplificador de guitarra eléctrica que o envia para a mesa de mistura de som.

A guitarra electroacústica funciona como ponto intermédio de sonoridade e traz um aproximar do acústico ao conjunto de elementos sonoros digitais

Controladores Virtuais

Um controlador está na mão da performer e é constituído por 3 sensores de luz e um microfone, a guitarra virtual é constituída por 16 sensores de luz e 4 potenciómetros colocados sob uma guitarra eléctrica sem cordas nem pik -up.

Os sensores reagem às variações de luz e enviam o sinal analógico para um conversor de sinal eléctrico para MIDI (i-Cube), passando assim a ser reconhecíveis pela unidade de síntese central no computador, através de um interface

MIDI.

Os dois controladores comunicavam desta forma com a unidade de síntese central e permitiam que o gesto fosse quantificado através de notas MIDI.

A guitarra virtual só usava este mapeamento para transformar o movimento em sinal sonoro e usava dois módulos de processamento : um de síntese FM e outro de

Sampling .

A síntese FM é feita em 16 osciladores digitais, que por sua vez são modulados por 16 osciladores de baixa frequência (LFO), que utilizam os 16 sensores de luz dispostos ao long o do braço da guitarra para modular o som.

O controlo da síntese era feito da seguinte forma: um potenciómetro definia a frequência fundamental (a frequência base), esta ia ser modulada por cada um dos osciladores de baixa frequência. Cada sensor de luz ao longo do braço da guitarra tinha uma frequência fundamental diferente, definida em função da frequência base que variava através do potenciómetro, aliada à variação previamente quantificada, que correspondia a um factor de escala de 300Hz por sensor. Desta forma, a frequência fundamental a modular ia variando do mais grave para o mais agudo ao longo do braço da guitarra.

A frequência fundamental de cada oscilador base, foram moduladas em frequência e amplitude, pelos osciladores de baixa frequência a part ir da variação da intensidade de luz captada pelo sensor.

Foi definida a ausência de luz como o ponto de amplitude máxima. Desta forma ao deixar de pressionar

no sensor, permitindo a entrada da luz definida como base, a síntese continuava a ser feita mas não se ouvia.

A samplagem possuía uma base de funcionamento semelhante. Cada sensor de luz servia como activador de um som pré -recolhido, respeitando uma frequência fundamental, disposta ao longo do braço do mais grave para o mais agudo.

Mas isto não implicava que um som tivesse de entrar integralmente, pois a sensibilidade à luz era igual à da síntese FM. Quanto menos luz entrasse no sensor, maior era a amplitude do sampler.

Estes dois módulos estavam em permanente funcionamento, e a predominância de cada um era gerida nos quatro potenciómetros que estavam divididos em dois grupos: Dois para gerir as amplitude do conjunto dos osciladores, e dois para controlarem o volume total da

samplagem. Desta maneira havia controle total das

relações de amplitudes entre estes dois tipos sonoros, podendo optar apenas por um ou por outro.

O controlador de mão ao contrário da Guitarra necessitava de uma fonte sonora real que depois controlava e alterava através dos sensores. O microfone captava som que era direccionado, exclusivamente ao computador e à unidade de síntese. Esta ligava-o a três módulos de geração de som:

O primeiro módulo analisava em tempo real, o attack produzido no microfone e transformava-o na frequência fundamental de uma sinusóide com um segundo de duração.

O segundo permitia a realização, em tempo real, de síntese granular com o som proveniente do microfone. Eram extraídos grãos e síntese controlados através dos três sensores. Um sensor quantificava a duração dos grãos; um segundo o número de grãos e o terceiro a tonalidade destes. A escala era a mesma da guitarra: quanto menos luz maior a duração dos grãos, maior número de grãos e o som mais agudo.

No terceiro módulo era extraído um som de três segundos, som esse que era colocado em loop permitindo a geração de loops com cadências que marcavam a composição

VI. CONCLUSÃO

A performance decorreu no dia 24 de Abril de 2003 e foi documentada em vídeo.1

A análise posterior permite concluir que a peça resultou num projecto artístico significativo. A expressividade

1

Este vídeo está disponível: http://www.artes.ucp.pt/citar/sersonico.htm

133

Copyright © ARTECH 2004 – 1º Workshop Luso-Galaico de A rtes Digitais 12 de Julho de 2004, FC - UL

musical, o resultado sonoro e a sua integração com a componente visual da peça reforçaram a ideia de resultados adequados ao pretendido.

A reacção de naturalidade do público aos novos controladores abre boas perspectivas para o desenvolvimento de mais experiências, onde os controladores assumam uma postura de integração em formas físicas reconhecíveis .

Criar um sistema modular que pudesse ser adaptado não só permite uma simples reutilização e actualização sonora, como também permite que seja o sistema a adaptar-se à composição e ao músico e não o oposto.

O passo seguinte será desenvolver na unidade central à possibilidade de espacialização sonora, como meio de uma maior imersão e envolvência do espectador. A utilização de quatro vias de saída de som permite desta forma alargar a componente de composição, a um novo espaço de desenvolvimento ainda pouco explorado em tempo real.

REFERÊNCIAS

[1] Michael Gurevich, and Stephan von Muehlen, The Accordiatron: A midi Controller for Interarctiv Music, in Proceedings of New Interfaces for Musical Expression - NIME 2001.

[2] Suguro Goto, Virtual Musical Instruments: Technological Aspects and Interactive Performance Issues, Ircam-Centre Georges Pompidou 2000 [3] Marije A.J. Baalman, The STRIMIDILATOR, a

String Controlled MIDI-Instrument, in Proceedings of New Interfaces for Musical Expression - NIME 2003 [4] Kenji Mase, and Tomoko Yonezawa,

Body,Clothes,Water and Toys-Media Towards Natural Music Expressions with Digital Sounds, , in

Proceedings of New Interfaces for Musical Expression - NIME 2001.

[5] Perry Cook, Principles for designing Computer Music

Controllers, in Proceedings of New Interfaces for

Musical Expression - NIME 2001.

[6] Curis Bahn, Dan Trueman, Interface electronic chamber ensemble, in Proceedings of New Interfaces for Musical Expression - NIME 2001

[7] Stefania serafin, Richard Dudas and Marcelo M.Wanderley, Gestural Control of Real-Time Physical Model Of a Bowed String Instrument, Ircam- Centre Georges Pompidou 2002

[8] Cycling '74, Max /Msp software: http://www.cycling74.com

134

135

Copyright © ARTECH 2004 – 1º Workshop Luso-Galaico de Artes Digitais 12 de Julho de 2004, FC - UL