• Nenhum resultado encontrado

Entre lápis e bytes : o impacto do uso do protocolo MIDI na transformação de processos criativos musicais para cinema

N/A
N/A
Protected

Academic year: 2021

Share "Entre lápis e bytes : o impacto do uso do protocolo MIDI na transformação de processos criativos musicais para cinema"

Copied!
218
0
0

Texto

(1)

UNIVERSIDADE ESTADUAL DE CAMPINAS

INSTITUTO DE ARTES

Otavio Luis Silva Santos

Entre lápis e bytes: o i

mpacto do uso do protocolo MIDI na

transformação de processos criativos musicais para cinema

Campinas 2019

(2)

OTAVIO LUIS SILVA SANTOS

ENTRE LÁPIS E BYTES: O IMPACTO DO USO DO PROTOCOLO

MIDI NA TRANSFORMAÇÃO DE PROCESSOS CRIATIVOS

MUSICAIS PARA CINEMA

Tese apresentada ao Instituto de Artes da Universidade Estadual de Campinas como parte dos requisitos exigidos para a obtenção do título de Doutor em Música

ORIENTADOR: Prof. Dr. José Augusto Mannis

Este exemplar corresponde à versão final da tese defendida pelo aluno Otavio Luis Silva Santos e orientado pelo Prof. Dr. José Augusto Mannis

Campinas 2019

(3)

Silvia Regina Shiroma - CRB 8/8180

Santos, Otavio,

Sa59e SanEntre lápis e bytes : o impacto do uso do protocolo MIDI na transformação de processos criativos musicais para cinema / Otavio Luis Silva Santos. – Campinas, SP : [s.n.], 2019.

SanOrientador: José Augusto Mannis.

SanTese (doutorado) – Universidade Estadual de Campinas, Instituto de Artes.

San1. Trilha musical. 2. Criatividade. 3. Música e tecnologia. 4. MIDI (Normas). 5. Música no cinema. I. Mannis, José Augusto, 1958-. II. Universidade Estadual de Campinas. Instituto de Artes. III. Título.

Informações para Biblioteca Digital

Título em outro idioma: Between pencils and bytes : the effect of MIDI protocol usage on

the transformation of musical creative processes for films

Palavras-chave em inglês:

Film music Creative ability

Music and technology MIDI (Standard)

Music in motion pictures

Área de concentração: Música: Teoria, Criação e Prática Titulação: Doutor em Música

Banca examinadora:

José Augusto Mannis [Orientador] Ivan Capeller

João Carlos Massarolo Paulo Cesar da Silva Teles Jônatas Manzolli

Data de defesa: 13-06-2019

Programa de Pós-Graduação: Música

Identificação e informações acadêmicas do(a) aluno(a)

- ORCID do autor: https://orcid.org/0000-0003-2635-2007 - Currículo Lattes do autor: http://lattes.cnpq.br/2628043040497588

(4)

OTAVIO LUIS SILVA SANTOS

ORIENTADOR: PROF. DR. JOSÉ AUGUSTO MANNIS

MEMBROS:

1. Prof. Dr. José Augusto Mannis 2. Prof. Dr. João Carlos Massarolo 3. Prof. Dr. Paulo Cesar da Silva Teles 4. Prof. Dr. Jônatas Manzolli

5. Prof. Dr. Ivan Capeller

Programa de Pós-Graduação em Música do Instituto de Artes da Universidade Estadual de Campinas.

A ata de defesa com as respectivas assinaturas dos membros da comissão examinadora encontra-se no SIGA/Sistema de Fluxo de Dissertação/Tese e na Secretaria do Programa da Unidade

Este trabalho foi financiado pela FAPESP sob o nº de processo 2015/10579-1

(5)

À Cristiane, suporte em todos os momentos.

Luana e Daniel, pela alegria e inspiração constante.

Minha família, pelo infindável incentivo e confiança.

(6)

A Deus, meu maior motivo.

À FAPESP (Fundação de Amparo à Pesquisa do Estado de São Paulo), que permitiu que este trabalho fosse desenvolvido em todas as condições necessárias.

A todos meus professores, que me ensinaram a importância de se estudar e a liberdade que o conhecimento proporciona.

À Janete El Haouli, por toda motivação e confiança desde o princípio.

À Heloísa Valente, pelo primeiro suporte e pela sempre presente paciência e disponibilidade em minha introdução ao universo da pesquisa.

A todos os compositores de trilhas musicais para cinema, que constantemente me motivam e mostram a beleza que pode ser trazida pelos sons.

(7)

A composição musical cinematográfica por décadas permaneceu fundada no modelo tradicional orquestral, baseado no registro de partituras impressas e na sonoridade sinfônica. A partir da metade do século XX, o advento dos sintetizadores e do protocolo MIDI alteraram radicalmente a experiência composicional para o cinema, proporcionando não somente novas sonoridades, mas também uma profunda ressignificação de cânons relacionados à figura do compositor, à estética musical vinculada às obras audiovisuais e à autonomia do compositor frente aos aparatos tecnológicos destinados à composição musical. Essa tese pretende tratar dessas ressignificações que transformaram a forma do pensar e do fazer musical fílmico, tendo como ponto de partida – e referencial constante – o atual cenário digital de criação musical para cinema, para isso se utilizando, como recorte tecnológico, do protocolo MIDI.

Palavras-chaves: trilha musical; criação; compositor; tecnologia; MIDI; cinema; audiovisual

(8)

Musical composition for films has been built for decades over a traditional orchestral style, based on the registry of printed scores and symphonic sound. From the second half of the Twentieth Century the advent of synthesizers and later the development of the MIDI protocol have drastically changed the compositional experience of film music, providing not only a new pallet of sounds, but also a deep redefinition of paradigms related to the figure of the composer, the musical aesthetics related to audiovisual and the composer’s autonomy regarding the technological devices designed to musical creation. This thesis intends to reflect on some of the resignifications that changed the way composers think and make music for films, starting – and having as a constant reference – from the analysis of the current context of digital music composition for films, always invoking the MIDI protocol as a technological base.

Key words: film score; music creation; composer; technology; MIDI; cinema; audiovisual

(9)

O protocolo MIDI ... 15

A dinâmica da ressignificação ... 21

Esclarecimentos adicionais ... 23

CAPÍTULO 01: PRINCÍPIOS DA LINGUAGEM AUDIOVISUAL ... 25

1.SOBRE A LINGUAGEM CINEMATOGRÁFICA ... 26

2. AS POLIFONIAS DA MÚSICA FÍLMICA ... 33

2.1 A Micropolifonia musical ... 34

2.2 Considerações sobre Micropolifonia e Macropolifonia ... 48

CAPÍTULO 02: PROCESSOS CRIATIVOS DA TRILHA MUSICAL EM AMBIENTE DIGITAL ... 51

1. CRIAÇÃO E AMBIENTE CRIATIVO NA ERA DIGITAL ... 51

1.1 Interação pessoal ... 54

Preparação... 55

Incubação ... 57

Iluminação e Verificação ... 60

1.2Interação material ... 63

Criação mediada e intimidade maquinal ... 67

Música e autoria na era digital ... 70

A autoria nas bibliotecas de som: sobre a cocriação ... 74

Interface como espaço de compartilhamento ... 76

O real e o virtual ... 81

1.3 Interação externa (ou interpessoal) ... 86

Comunicação musical coletiva ... 87

A questão da música encomendada para cinema ... 93

(10)

CAPÍTULO 03: CRIAÇÃO MUSICAL MEDIADA COM SUPORTE MIDI

PARA CINEMA ... 110

1. A NATUREZA DO MIDI ... 110

2. O CANTO DA SEREIA ... 115

2.1 Legitimação sonora histórica ... 116

2.2 Nova paleta de sons ... 120

2.3 Custo x benefício ... 123

O home studio como espaço de criação multifuncional ... 124

O compositor expandido ... 128

3. MODOS DE APLICAÇÃO DO MIDI NA MÚSICA DE CINEMA .. 133

3.1 O pilar do ineditismo ... 133

3.2 O pilar da simulação ... 141

Mockups: a criação da simulação ... 146

4.O TOQUE DO MIDI NO CINEMA DO SÉCULO XXI ... 150

4.1 Correnteza de bytes... 151

4.2MIDI e mercado ... 156

4.2.1 Impactos no processo e no fluxo de produção ... 157

4.2.2 Competência midiática e criação de significados na música de cinema do século XXI ... 164

4.2.3 O cinema e a manutenção da música orquestral ... 178

4.3 A dependência da máquina ... 183

CAPÍTULO 04: INTERSECÇÕES DO MIDI: DO ARCO SOCIAL À INCLUSÃO ... 187

1. PARA ALÉM DA TÉCNICA: O ARCO SONORO-SOCIAL DO MIDI .... 187

(11)
(12)

A presente tese está dividida em cinco capítulos.

O primeiro capítulo concentra-se num primeiro momento no estabelecimento de uma fundação acerca da linguagem cinematográfica, base sobre a qual todas as reflexões posteriores serão estabelecidas, a partir do pressuposto de que não há como compreender nenhuma ressignificação sem antes ter alguma noção de significação como referência. Na sequência, serão abordadas algumas das relações musicais presentes no início do processo de composição da música para filmes. Partindo do conceito de polifonia proposto por Carrasco (2003), buscar-se-á a relação entre alguns dos elementos presentes no processo criativo musical, partindo da figura do compositor e posteriormente na relação compositor-plataforma, passando pela limitação das máquinas e o sistema surround como ambiente criativo composicional, sempre com o foco na tecnologia MIDI. O segundo capítulo trata do ambiente criativo digital e das relações na interação homem-máquina, sempre com o foco no compositor de cinema do século XXI. A partir das etapas de criação propostas por Graham Wallas (1926), é proposta uma reflexão aplicando essas etapas no processo criativo musical cinematográfico, com ênfase no advento do protocolo MIDI. Posteriormente, o trabalho discorre sobre a questão da autoria na era digital. Por fim, propõe uma discussão a respeito da música encomendada para cinema e de suas especificidades criativas.

O terceiro capítulo será inteiramente centrado no MIDI, e se propõe a refletir sobre o impacto do MIDI no meio musical cinematográfico. Este capítulo analisará as motivações que justificaram tanto a entrada quanto a adoção onipresente dessa tecnologia no mercado da música para cinema, tratando também dos principais modos de utilização do MIDI no cinema. Será então proposta uma discussão relacionada às mudanças no mercado de trabalho desencadeadas pelo ambiente de criação digital a partir das tecnologias digitais (sintetizadores, bibliotecas de som etc.). Por fim, tratar-se-á da dependência criativa das máquinas, e de como uma ferramenta pode tornar-se, ao invés de aliada, elemento de prejuízo criativo e intelectual.

O quarto capítulo está centrado em estabelecer um diálogo entre os capítulos anteriores, de forma a convergir pontos relevantes da discussão até então apresentados encontrando denominadores comuns que facilitem e expandam as discussões propostas na tese.

O trabalho se conclui no quinto capítulo, entre sumarização dos pontos mais relevantes e apontamentos futuros acerca do assunto central da pesquisa.

(13)

INTRODUÇÃO

Tanto no estudo do campo musical quanto cinematográfico, percebe-se uma grande lacuna de estudos referentes à aplicação da música no contexto fílmico. Enquanto é perceptível o esforço na ampliação desse campo de estudo, ainda podemos considerá-la uma área altamente negligenciada. Michel Chion (1994) lembra que “conforme continuamos a dizer que ‘vimos’ um filme ou um programa de televisão, nós continuamos por ignorar o quanto a trilha sonora tem modificado nossa percepção” (XXVI pref.), e prossegue:

A teoria do cinema até o presente momento tem nos iludido na problemática do som, seja completamente ignorando-o ou atribuindo-lhe menor status. Mesmo com alguns acadêmicos realizando contribuições ricas e provocativas ‘aqui ou ali’ (sic), seus insights (incluindo meus próprios, em meus três livros já escritos sobre o assunto) não têm sido influentes o suficiente para uma total reconsideração do cinema à luz da posição que o som tem ocupado dentro dele nos últimos sessenta anos. (1994a: XXV pref.)

Na obra O cinema (1991) 1, do crítico francês de cinema André Bazin, nota-se

que essa desproporção na atribuição de valores já era motivo de discussão na década de 1930, período da transição do cinema mudo para o sonoro:

Se o essencial da arte cinematográfica consiste em tudo o que a plástica e a montagem podem acrescentar a uma realidade dada, a arte muda é uma arte completa. O som só poderia desempenhar, no máximo, um papel subordinado e complementar: em contraponto à imagem visual. (BAZIN, 1991: 69)

O editor musical Roy Prendergast, alguns anos antes de Chion escreveu a obra

Film music: A neglected art (1977) 2, com um título bastante autoexplicativo,

demonstrando que o descaso com o som, neste caso com a trilha musical, permanecia ativo.

Esta tese se propõe a contribuir sobre uma temática de ordem musical ainda mais escassa: a tecnologia utilizada no processo composicional cinematográfico do século

1 Obra publicada postumamente no início da década de 1960 sob o título original Qu'est-ce

que le cinéma? (O que é cinema?). No Brasil, sob a tradução de Eloísa de Araújo Ribeiro, alguns desses

artigos e ensaios foram publicados em um só volume, pela Editora Brasiliense, intitulado O cinema:

ensaios, no ano de 1991.

(14)

XXI, aqui resumida no protocolo MIDI. Tamanha a carência de estudos sobre esse tema que em vários momentos durante o desenvolvimento dessa pesquisa houve grande dificuldade em encontrar bibliografia especializada, o que em muito dificultou a construção do conteúdo. Tendo encontrado inúmeros trabalhos preocupados com questões técnicas e práticas (como por exemplo como editar um MIDI), praticamente nenhum foi encontrado que analisasse o fenômeno da composição musical mediada para cinema, visualizando os impactos na linguagem musical e audiovisual que essa mediação tem proporcionado. Isso parece ser uma falha relevante, uma vez que

as transformações realizadas na linguagem musical do século XX, assim como as mudanças no papel do músico na sociedade e sua relação com o ouvinte requerem, hoje, mais do que nunca, um processo de transformação constante de critérios e ideias artísticas numa realidade outra. (EL HAOULI, 1996: 3).

Além de propor uma discussão extremamente atual e corrente, esse trabalho pretende contribuir como uma nova (possivelmente inédita) fonte de pesquisas de interesse multidisciplinar, com resultados podendo ser aplicados não somente no contexto cinematográfico, mas também televisivo e teatral, além das demais manifestações audiovisuais, uma vez que as tecnologias empregadas na composição musical dessas áreas são as mesmas.

A tecnologia central aqui discutida (MIDI/bibliotecas de som) já é utilizada em grande escala em centros de produção cinematográfica de maior porte, como o americano e europeu. Porém, em território nacional, vive-se ainda um momento de “descoberta”, no sentido de que ainda parece não existir grande popularidade e expertise na distribuição e manejo desses softwares e sound libraries, nem mesmo entre muitos interessados em adentrar nesse mercado – o que talvez seja devido a ainda emergente situação da própria indústria cinematográfica nacional 3.

Assim, esse trabalho adquire também uma autenticidade potencialmente precursora, pois as discussões aqui realizadas muito em breve virão à tona como uma realidade mercadológica e acadêmica nacional, conforme a tecnologia MIDI (bem como as demais tecnologias a ela associadas na música de cinema) se disseminar e conquistar o espaço adequado, o que ocorrerá concomitantemente ao desenvolvimento do cinema 3 Não se trata de desvalorizar o cenário nacional, tampouco fazer parecer os compositores

nacionais menores que os internacionais. Trata-se de uma realidade prática fundamentada pela observação do cenário musical fílmico no emergente mercado audiovisual nacional.

(15)

nacional enquanto indústria. Também por esta razão é que essa tese se ampara em exemplos do mercado hollywoodiano, mercado este em que as tecnologias aqui discutidas já há muito tempo são dominadas e empregadas em grande escala, possibilitando uma análise pormenorizada e de maior profundidade a respeito do assunto.

Esta pesquisa traz como objetivo principal a elucidação de como a composição mediada via protocolo MIDI afeta o processo criativo do compositor fílmico do século XXI. Também busca definir as razões que fazem com este protocolo, datado de mais de trinta anos, continue sendo o protagonista dos estúdios de composição musical mundo afora mesmo coexistindo com protocolos mais recentes. Por fim, a pesquisa objetiva estabelecer as formas mais comuns de aplicação da tecnologia MIDI nas trilhas musicais de cinema.

A presente tese consolida-se em defesa da incorporação do protocolo MIDI na composição musical fílmica, acreditando que os benefícios trazidos por ele foram de extrema relevância e, mais que isso, essenciais diante de uma estética musical cinematográfica já desgastada. Mesmo que com limitações técnicas, o protocolo MIDI abriu novos caminhos e viabilizou o frescor sonoro dos filmes do final do século XX até os dias presentes.

O protocolo MIDI

MIDI (Musical Instrument Digital Interface) “é uma especificação de um esquema de comunicação para aparatos musicais digitais” (LOY, 1985:8). Em outras palavras, uma ferramenta desenvolvida no início da década de 1980 que viabilizou o diálogo entre aparatos musicais digitais até então incapazes de se comunicar entre si. O protocolo MIDI não carrega ondas de áudio em si, mas uma espécie de transcrição das informações relacionadas à performance que serão posteriormente decodificadas pelo raciocínio binário de um aparelho eletrônico, conforme explica o compositor e pesquisador Fernando Iazzetta:

(...) arquivos MIDI basicamente codificam apenas instruções referentes a notas e durações e não a informação sonora propriamente dita. Ou seja, enviar um arquivo MIDI é como enviar uma partitura que será executada por um aparelho eletrônico do outro lado da linha e por isso, o resultado sonoro é totalmente dependente da qualidade e das possibilidades oferecidas por esse aparelho. (IAZZETTA; KON, 1998b: 39)

(16)

No final da década de 1970 o setor comercial da indústria de instrumentos musicais se dividia em três áreas primárias de atividade, conforme descreve o professor e compositor inglês Peter Manning:

Na esfera digital, produtos como o Fairlight e o Synclavier estavam a explorar novas possibilidades de alto potencial lucrativo no topo do mercado, contrabalançado por um modesto porém contínuo repertório crescente de aparelhos de síntese que poderiam ser vinculados à nova geração de microcomputadores. No meio desse espectro habitava o centro do terceiro e maior mercado, focado na produção de sintetizadores analógicos controlados por tensão. (MANNING, 2004: 263)

Esse período não representava o início da comercialização de sintetizadores. Produtos pioneiros como o Moog, ARP, Buchla e EMS já haviam conquistado seu espaço no mercado e se consolidado como ferramentas inovadoras de grande potencial criativo e comercial. No início da década de 1980 tais produtos ainda eram comercializados, porém agora gradualmente à sombra de uma nova geração que prometia estar um passo à frente em relação aos demais. Tal prognóstico viria a ser confirmado conforme diversos desenvolvedores dessa segunda geração de sintetizadores viessem a se tornar os líderes do mercado na nova era MIDI – mantendo seu status até os dias presentes – enquanto outros prosperariam apenas por um período limitado, sendo vitimados pela competição comercial (MANNING, 2004).

Durante a década de 1970, desenvolvedores como Yamaha, Korg, Kawai e Roland travaram uma forte disputa no mercado, apresentando inovações constantes conforme ampliavam a gama de timbres, a capacidade técnica (como tecnologia de processamento e taxas de transmissão de dados) e o nível de interatividade em seus instrumentos. Em 1973 a Yamaha introduziu no mercado seu primeiro sintetizador analógico, o GX1. Apesar de “(...) não ter sido um sucesso comercial pelo fato de ser relativamente caro e tido por vários usuários como complicado de se configurar e operar” (MANNING, 2004: 264), seu aprimoramento levou ao desenvolvimento do CS80 em 1977, este sim um grande sucesso comercial, tendo sido utilizado por diversos artistas de primeira linha como Paul McCartney, The Electric Light Orchestra e Kraftwerk.

Simultaneamente, a Roland se tornava a primeira desenvolvedora de teclados sintetizadores analógicos do Japão com o SH-1000, que logo levou ao SH-2000 (1973),

(17)

ao Jupiter-4 (1978) e ao Jupiter-8 (1980), este último adotado por artistas como Duran Duran, Tangerine Dream e Ultravox.

A japonesa Korg – antes desenvolvedora de módulos para efeitos eletrônicos, como geradores de ritmo – prontamente ampliou sua gama de produção e passou, na década de 1970, a desenvolver tanto órgãos eletrônicos quanto sintetizadores, com destaque para o PS-3200 (1978), utilizado por Jean Michel Jarre e Emerson, Lake and Palmer. Da mesma forma, a Kawai também ampliou sua produção, focada desde 1927 em instrumentos acústicos, passando a desenvolver instrumentos eletrônicos como o S100P (1979) e o SX400 (1980) 4.

Enquanto isso, nos Estados Unidos, dois estudantes de engenharia - Dave Rossum e Scott Wedge – iniciavam experimentos que os levariam ao desenvolvimento de seu primeiro sintetizador digital, o Emulator I (1981), aparelho pioneiro seguido pelas versões Emulator II (1984), Emulator III (1987) e E-mu EIV Series (1994) 5.

Apesar da crescente qualidade e quantidade de inovações simultâneas no campo dos instrumentos eletrônicos, havia um problema a ser superado: os produtos de um desenvolvedor eram absolutamente incompatíveis com os de outro. Durante a explosão de produção dos sintetizadores os fabricantes negligenciaram a relevância (talvez até aquele momento sequer considerada) do diálogo entre os diferentes aparelhos, visto que os músicos não se limitavam a apenas um instrumento, mas adquiriam diversos sintetizadores de diferentes fabricantes, em muitos casos com o intuito de executá-los simultaneamente:

Associar um teclado Buchla com um sintetizador Moog, por exemplo, iria resultar em alguns resultados bizarros devido às suas diferentes configurações de tensão e pitch. (...) Sistemas de protótipos desse período como o Key Code System, da Yamaha e o SCI Digital Interface of Sequential Circuits eram totalmente incapazes de se comunicar entre si. (MANNING, 2004: 266)

Tal impasse, aliado ao crescente desejo dos fabricantes de computadores de estabelecer um sistema de comunicação padrão na indústria, tornou essa situação

4 A obra Electronic and Computer Music (2004), de Peter Manning, oferece uma ampla e minuciosa

descrição da evolução do mercado dos sintetizadores, das tecnologias incorporadas e da disputa de mercado entre os diversos desenvolvedores de instrumentos analógicos e digitais desde a década de 1970.

5 Toda a série de instrumentos lançadas a partir do Emulator I pela hoje consagrada E-mu Systems pode ser

encontrada, juntamente com as especificações técnicas de cada instrumento, no site http://www.theemus.com/.

(18)

insustentável, de forma que uma solução deveria rapidamente ser proposta a fim de não limitar o crescimento desse nicho de mercado em tão grande expansão.

Dessa forma, o propósito de se estabelecer um protocolo que viesse a permitir a conexão entre sintetizadores e periféricos foi colocado em pauta (ainda que de maneira informal) durante o encontro da National Association of Music Merchants (NAMM 6) no

verão de 1981.

A iniciativa de um sistema universal de comunicação partiu de Dave Smith, na época presidente da Sequential Circuits. Smith teria persuadido I. Kakehashi, da Roland, e Tom Oberheim a participar de um estudo conjunto com Chet Wood, um de seus engenheiros de design (MANNING, 2004). Após alguns meses, com o estudo em fase mais avançada, Smith propôs uma reunião com um grupo maior de desenvolvedores interessados na nova tecnologia, que incluía empresas como Kawai, Korg e Yamaha. Tendo tais negociações obtido resultados positivos, algumas semanas mais tarde, durante uma convenção da Audio and Engineering Society (AES), Smith e Wood formalmente apresentaram sua proposta de uma interface universal, denominada de USI (Universal Synthesizer Interface), que consistia basicamente na descrição de um protocolo que transmitia informações relacionadas a notas/eventos entre sintetizadores. Não se tratava ainda do protocolo MIDI como o conhecemos, mas era um primeiro passo importante, não só pelo fato do princípio tecnológico que viria a culminar no MIDI ter sido apresentado, mas também pelo fato de que após tal apresentação esse debate enfim alcançou a esfera pública de discussão.

Durante um encontro da NAMM em janeiro de 1982, uma proposta mais detalhada foi apresentada para representantes das empresas Kawai, E-mu, Passport Designs, Music Technology Inc., CBS/Rhodes, Octave Plateau, Oberheim, Yamaha, Sequential Circuits, Roland, Syntauri e Korg. Apesar de alguns avanços, ainda havia o senso geral por parte dos desenvolvedores de que o protocolo ainda não se configurava com uma complexidade suficiente para se estabelecer como um padrão universal.

Após mais alguns meses de intenso trabalho de aprimoramento sobre a tecnologia apresentada, o protocolo pareceu ter atingido a o grau de suficiência esperado pelos fabricantes, bem como se decidiu seu acrônimo, Musical Instrument Digital Interface, ou

6 Essa organização americana se tornou um importante fórum internacional para a indústria musical. Seus

encontros até hoje atraem representantes das mais diversas companhias ao redor do mundo, incluindo muitos envolvidos no desenvolvimento de tecnologias associadas a sintetizadores e instrumentos musicais eletrônicos.

(19)

MIDI. Como se a nova tecnologia não fosse suficiente para se legitimar por si só, outro fator contribuiu para sua boa recepção no mercado, que foi o aval de um respeitado pioneiro do campo dos instrumentos eletrônicos, conforme descreve Manning:

O resultado desse desenvolvimento foi finalmente anunciado ao mundo na forma de um artigo que apareceu na edição de outubro da revista Keyboard, escrita por Robert Moog. Este selo de aprovação pessoal vindo de um tão respeitado pioneiro causou um impacto significante nos setores mais tradicionais e normalmente mais céticos da indústria musical. (MANNING, 2004: 267)

Já no final do mesmo ano os fabricantes Roland e Sequential Circuits passaram a produzir sintetizadores com interfaces compatíveis com a tecnologia MIDI. Tais instrumentos foram posteriormente apresentados no encontro da NAMM em janeiro de 1983, por fim convencendo os desenvolvedores que ainda não haviam aderido ao protocolo de que se tratava de uma tecnologia revolucionária que deveria ser levada a sério. Assim, a recém-criada International MIDI Association publicou, ainda em 1983, o que viria a se tornar as especificações definitivas do MIDI, versão 1.0. Até o final do mesmo ano a maioria dos fabricantes de sintetizadores já havia agregado uma interface MIDI como um recurso de comunicação padrão de seus produtos.

A partir de então foi uma questão de poucos anos para que o MIDI se estabelecesse como a tecnologia padrão da indústria musical no que se referia à comunicação entre sintetizadores e periféricos. Iazzetta já em 1998 afirma que

Nos últimos 15 anos o protocolo MIDI tornou-se um dos padrões mais estáveis da indústria musical, o que tem dificultado o sucesso de qualquer iniciativa no sentido de vencer suas limitações, como o Extended MIDI (Wilkinson, 1995) e o protocolo ZIPI (McMillen, Wessel, & Wright, 1994). (IAZZETTA; KON, 1998b: 39)

Entretanto, como qualquer tecnologia, o MIDI apresentava limitações, e sua aceitação não era unânime, conforme afirma Gareth Loy em artigo publicado em 1985, apenas dois anos após a introdução definitiva do MIDI no mercado:

Como todos os produtos da inteligência humana, ele possui aspectos positivos e negativos (...). Alegra a alguns que exista um padrão de comunicação entre os instrumentos musicais; frustra a outros que este apresente tantas limitações. As limitações incluem uma largura de banda limitada entre os aparelhos, uma resolução de frequência e tempo limitada, acesso limitado aos parâmetros do sintetizador para tarefas como modificação

(20)

de timbre durante uma síntese, e bidirecionalidade limitada na comunicação. A concepção de música embutida nesse padrão parece arcaica e inflexível, além de favorecer sintetizadores que funcionam segundo o teclado de piano (...). Entretanto, o MIDI floresceu e é hoje, de

facto, o padrão da indústria. (LOY, 1985: 8 grifo do autor)

Tais limitações não diminuíram a importância do MIDI enquanto avanço tecnológico na esfera dos instrumentos eletrônicos. Pelo contrário, desde o início foi considerado inovador e promissor: “(...) analisemos o que trouxe o MIDI à vida, e consideremos o que o futuro nos reserva, agora que sabemos que o MIDI será parte dele” (LOY, 1985: 8). O próprio Robert Moog teria afirmado 7, dez anos após o lançamento do protocolo:

Todos encontrarão algo de errado com o MIDI. Ele não é perfeito, mas e daí? Um piano também não é perfeito. Um violino Stradivarius não é perfeito. A questão é que há tanta utilidade nele... de sua parte, só basta ser um pouco esperto para descobrir como usar essa ferramenta. (MOOG, 1993)

De fato, Loy acertou em sua projeção ao afirmar que o MIDI faria parte do futuro. O MIDI não só se tornou um padrão da indústria musical, mas se tornou uma ferramenta indispensável em diversas ramificações da prática musical, entre elas a composição de trilhas para audiovisual. Para a música de cinema o MIDI hoje é não somente uma ferramenta importante, mas já há mais de uma década seu domínio (no âmbito da composição e edição musical) se tornou pré-requisito de inserção e crescimento no mercado das trilhas musicais, conforme analisaremos de maneira pormenorizada no terceiro capítulo deste trabalho.

Como última consideração a respeito do advento do MIDI, aponto que do período em que foi apresentado em sua versão definitiva até os dias presentes, o protocolo não sofreu alterações significativas em sua forma de funcionamento. O que tem sido ressignificado é a interação entre o compositor contemporâneo – em sua “contemporânea maneira de pensar” – e o MIDI. Tal entendimento é corroborado por Manning quando diz:

O que tem sido alterado com o passar dos anos é a natureza da relação de trabalho entre os compositores e intérpretes e as várias funções características do MIDI. Isso não está

7 Essa declaração consta em seu site oficial:

(21)

associado a nenhuma alteração do MIDI em si, mas antes, ao desenvolvimento de aparatos providos de um mais complexo nível de controle, projetados para preservar os usuários dos aspectos mais banais de tais operações. (MANNING, 2004: 267)

Também o diretor de cinema Paul Verhoeven menciona esse novo contexto criativo ao comparar a relação diretor-compositor existente entre Eisenstein e Prokofiev nos filmes Alexander Nevsky (1938) e Ivan, o Terrível (1945) com sua relação com Jerry Goldsmith para o filme Instinto Selvagem (1992):

Prokofiev sentava ao piano e Eisenstein na moviola, e assistiam ao filme de frente para trás e de trás para frente por semanas, com o compositor tocando as trilhas das cenas e o diretor comentando, alterando, até mesmo adaptando seu filme aos ritmos (...) Apesar das ferramentas terem mudado – ao invés de um piano Jerry trabalhou com 10 sintetizadores ligados a um computador e a um monitor de televisão – o processo colaborativo foi exatamente o mesmo. (VERHOEVEN, 1992)

Trata-se, pois, de uma ressignificação fundada na interação entre o agente criador e as tecnologias de seu tempo (o que torna a ressignificação um processo constante), tecnologias estas que devem ser dominadas com o maior grau de fluência possível pelo compositor, pois compõe parte essencial da fase de preparação, que engloba tanto a apreensão intelectual quanto o domínio técnico desses aparatos, que virá a possibilitar uma mais precisa aplicação desse meio de produção.

A DINÂMICA DA RESSIGNIFICAÇÃO

A ressignificação é um processo constante. Fenômeno que acompanha as mutações sociais e está presente em todas as áreas do conhecimento, as ressignificações ocorrem diariamente tanto em nível individual quanto coletivo. Estabeleçamos, pois, uma referência sobre o conceito de ressignificação a ser aplicado nesta pesquisa.

Jean Piaget (1996), ao discorrer sobre o complexo processo de desenvolvimento intelectual, traz à tona os conceitos de assimilação e acomodação.

A assimilação refere-se ao processo cognitivo através do qual um indivíduo classifica um estímulo; uma nova informação, por meio da busca em aliá-lo com estruturas cognitivas prévias. Segundo o próprio autor, a assimilação é

(22)

(...) uma integração às estruturas prévias, que podem permanecer invariáveis ou são mais ou menos modificadas por esta própria integração, mas sem descontinuidade com o estado precedente, isto é, sem serem destruídas. (PIAGET,1996: 13)

Trata-se de uma tentativa constante de enquadramento de um novo estímulo sensorial, conceitual ou motor às estruturas cognitivas preexistentes. Uma criança que tenha tido contato com um carro, ao visualizar pela primeira vez um ônibus, traçará paralelos entre os dois veículos sem, porém, diferenciá-los, podendo referir-se ao ônibus como “carro”. Tal diferenciação será realizada, segundo Piaget, através de um processo denominado acomodação.

Ao se referir ao ônibus como “carro”, certamente esta criança será corrigida pelo adulto ao seu redor, que dirá: “isto não é um carro, mas um ônibus”. Neste momento, em que a criança é levada à diferenciação, ela acomoda esta informação a uma nova estrutura cognitiva, resultando em duas estruturas (ou esquemas, para Piaget), uma para “carro” e outra para “ônibus”. Como define o próprio autor, “chamaremos acomodação (...) toda modificação dos esquemas de assimilação sob a influência de situações exteriores (meio) ao quais se aplicam (PIAGET, 1996: 18).

Para Piaget não existem assimilações sem acomodações, assim como não há acomodações sem assimilações. Isto significa “que o meio não provoca simplesmente o registro de impressões ou a formação de cópias, mas desencadeia ajustamentos ativos” (TAFNER, s/d).

Esse caráter ativo do processo de desenvolvimento intelectual está diretamente ligado à ideia de ressignificação utilizada neste trabalho, a qual se vincula também de forma direta ao conceito de acomodação proposto por Piaget.

Este processo poderia ser resumido, grosso modo, na tendência de nossa mente em ajustar-se a um novo estímulo alterando estruturas cognitivas prévias, objetivando adequar-se ao estímulo recém-assimilado. É o que se entende por ressignificar nesta pesquisa: a capacidade de atribuir um novo sentido, transmudar algo previamente estabelecido sob uma nova perspectiva a partir de novos estímulos; acomodar não somente conceitos, mas experiências práticas a partir daquilo que já se tem.

Isto dito, este trabalho se propõe a refletir não sobre todas as ressignificações, ou as individuais, mas às adaptações passíveis de serem observadas em seu caráter coletivo, às protuberâncias que se encontram presentes na prática coletiva e em grande escala entre

(23)

os compositores musicais de cinema. O foco nas ressignificações dos processos criativos do compositor do século XXI não significa que sejam estas as únicas ressignificações presentes no processo criativo, tampouco que a tecnologia MIDI tenha sido a única a ressignificar a composição musical para cinema. Trata-se apenas de evidenciar e propor reflexões sobre o que acredito ser um dos maiores fatores de ressignificação da música cinematográfica no século XXI – o protocolo MIDI.

Esclarecimentos adicionais

a) Este trabalho não pretende ser um manual técnico a respeito do funcionamento do protocolo MIDI. De fato, por já haver vasta bibliografia técnica específica sobre o MIDI, tomo a liberdade de não me ater ou estender discussões de cunho técnico, descritivo e operacional a respeito do protocolo. O que mais interessa nesse trabalho não é a engrenagem técnico-operacional em si, mas o que ocorre no compositor e, consequentemente na sociedade, a partir da apresentação da obra, quando se compõe para cinema se utilizando dessa ferramenta. Logo, a pesquisa tem maior interesse nas significações e ressignificações, nas possibilidades cognitivas proporcionadas pelo MIDI, nas adaptações, impacto e influências na maneira do compositor pensar a música para os filmes, do que em descrever minúcias de suas propriedades técnicas ou modos de funcionamento. As respectivas informações serão oferecidas apenas se necessário, na medida em que forem importantes para uma melhor elucidação dos pontos de reflexão propostos.

b) A tecnologia MIDI possibilita inúmeras aplicações musicais, nos mais diversos gêneros, desde o pop ao experimental. Enquanto recorte de pesquisa, a tese não pretende englobar todas os campos de aplicação do MIDI associados à produção e gravação sonora, tampouco todos os gêneros musicais possíveis de serem utilizados como trilhas de cinema. Por essa razão, a pesquisa, quando tratando do MIDI, permanecerá centrada na composição musical cinematográfica mediada pelas bibliotecas de som, vinculada na maior parte das vezes ao contexto e cenário do cinema comercial, restringindo os exemplos de softwares e hardwares aos vinculados a essa prática. Por essa razão, de recorte, não serão abordados outros temas também relevantes, como a música

(24)

interativa computacional, trilhas musicais eletroacústicas ou softwares como o Max/MSP, uma vez que fogem do escopo da pesquisa.

c) Nesse trabalho a música para cinema é sempre referida através da aplicação do termo trilha musical, contrariando o senso comum de se utilizar trilha sonora. Isso deve-se ao fato de que a música constitui apenas um dos elementos sonoros de um filme. A trilha sonora de um filme engloba todos os sons da obra, incluindo diálogos, foley, efeitos sonoros e música.

(25)

CAPÍTULO 01

PRINCÍPIOS DA LINGUAGEM AUDIOVISUAL

“A forma de se fazer música mudou para sempre” 8. Assim o compositor

Jeffrey Rona inicia seu livro The MIDI Companion, quando se referindo à interferência tecnológica no processo de se produzir música para o cinema e demais manifestações audiovisuais a partir do final do século XX. Apesar de um aparente sensacionalismo, não nos leva muito tempo para percebermos a veracidade contida na fala do autor. Neste início de século XXI reluz o fato de que o processo do fazer musical aplicado à cinematografia encontra-se em um estágio diferente de qualquer outro anterior a ele. A década de 2010 se desenvolve em meio à vasta utilização de recursos tecnológicos associados à produção musical, utilização esta que tem interferido diretamente nos modos de se compor e se pensar a música, no fluxo mercadológico da produção de trilhas musicais e na própria identificação dos protagonistas desse nicho de mercado, ao passo que traz à tona figuras como a do “compositor contemporâneo” (PEJROLO e DeROSA, 2009) e do “músico digital” (HUGGIL, 2012).

O advento do cinema sonoro em 1927 através do filme O cantor de Jazz caracterizou a primeira fase do cinema sonoro, na qual, entre outros pontos, “(...) houve um fascínio pela incorporação da fala” (CARRASCO, 2003: 140). O fascínio era tamanho que alguns filmes que seguiram, como Lights of New York (1928), beiravam a verborragia, na tentativa de resolver todos os problemas dramáticos através do diálogo, por vezes parecendo ignorar outros recursos que não a fala. Tratava-se de um período de certa precariedade sonora, em que as tecnologias empregadas ainda não eram avançadas, os produtores ainda se encontravam em processo de adaptação na forma de conceber filmes se utilizando desse novo recurso dramático, e o público não era acostumado a escutar sons vindos diretamente da tela.

Por volta de 1940 pode-se afirmar que o cinema sonoro já havia caminhado para uma segunda fase, mais madura, em que as tecnologias sonoras haviam se aprimorado, os produtores aprendido a explorar os recursos dramáticos da ferramenta sonora, e o público se acostumado a tais tipos de exibição. Ainda além, o papel da música

(26)

nos filmes já havia adquirido seu lugar e a trilha musical se legitimado como ferramenta dramática, ao mesmo tempo em que a figura do compositor, bastante tímida nos primórdios do cinema sonoro, já havia estabelecido seu lugar de destaque. Enquanto a primeira fase se empenhava em superar dificuldades técnicas e buscava um domínio maior da linguagem sonora e musical, “(...) na época em que E o vento levou foi produzido9, o tratamento musical dos filmes já havia adquirido um alto grau de sofisticação” (CARRASCO, 2003: 154). O cinema sonoro havia passado por um primeiro grande processo de ressignificação.

Se analisados os avanços e impactos proporcionados pela tecnologia sonora a partir da segunda metade do século XX e especificamente a partir da década de 1980 com a introdução da tecnologia MIDI e a consolidação da era digital, veremos que toda a forma de se pensar o som e a música no cinema foi amplamente afetada. Considerando a proporção dos avanços que levou o cinema sonoro de sua primeira para sua segunda fase, me parece plausível afirmar que no século XXI vivemos não mais a segunda, mas a terceira fase do cinema sonoro. Especialmente após a consolidação da era digital outro grande processo de ressignificação tomou parte na linguagem cinematográfica, fazendo com que os agentes envolvidos em uma produção audiovisual – nos mais diversos campos técnicos – passassem também eles por um processo de adaptação e reconfiguração cognitiva e de processos criativos.

Estabeleçamos, pois, antes mesmo de adentrarmos na discussão acerca das tecnologias musicais, alguns fundamentos relacionados à linguagem audiovisual, uma vez que não há como falar de ressignificação sem antes termos como referência algum tipo de significação.

1. SOBRE A LINGUAGEM CINEMATOGRÁFICA

O termo audiovisual refere-se a uma mesma experiência que englobe tanto estímulos sonoros quanto visuais. Enquanto tem como fim uma experiência sensorial prática, pode também o termo ser associado a um aspecto material, como algo “destinado a auxiliar o aprendizado ou o ensino através do uso da escuta e da visão” (MERRIAM-WEBSTER, 2017). Porém, o aspecto mais relevante do termo não está em seu caráter

(27)

pragmático, mas em sua essência, o fato de que qualquer obra audiovisual existe sob a condição de atribuir igual valor a ambos os aspectos. Não se trata de uma obra visual com acompanhamento sonoro, nem de uma obra sonora com auxílio visual. O significado de uma obra audiovisual repousa justamente na convergência de significados sonoros e imagéticos construídos na concepção da obra. Os estímulos individuais dessas linguagens constituem um novo significado a partir do momento em que são justapostos, de forma que a recepção da obra se torna única, diretamente ligada a essa associação. Em outras palavras, um filme exclusivamente visual tem um significado e proporciona uma recepção determinada. Da mesma forma um filme exclusivamente sonoro. Um filme em que ambas as linguagens são sobrepostas proporciona uma recepção diferenciada, maior que a soma individual de suas constituintes. Se a imagem constitui o elemento A e o som o elemento B, seria como se uma obra audiovisual não tivesse como resultante AB, mas um novo elemento C (composto por A e B em sua essência). A recepção é um estímulo ímpar, de forma que o espectador não percebe as imagens e o som em planos distintos e afastados, mas um único plano composto de som e imagem.

Michel Chion (1994a) aborda este fenômeno se utilizando da expressão valor acrescentado. Para o autor, o som é capaz de adicionar um sentido à imagem de maneira tão natural que o espectador tem a impressão de que aquele elemento é natural da imagem, não identificando o aspecto sonoro como uma parte distinta. Assim diz:

Por valor acrescentado eu me refiro ao valor expressivo e informativo pelo qual um som contribui a uma imagem dada de forma a criar uma impressão definitiva, na experiência imediata ou recordada que se tem dela, de que essa informação ou expressão “naturalmente” vem daquilo que é visto e já está contido na imagem em si. O valor acrescentado gera a (eminentemente incorreta) impressão de que o som não é necessário, de que o som meramente duplica um significado que na verdade é trazido por ele. (CHION, 1994a: 5 grifos do autor)

Neste caso Chion se faz valer deste princípio para exortar a respeito de um possível descaso na equiparação dos valores atribuídos à linguagem visual em relação à sonora. Para o autor, o som no cinema tem sido há décadas tratado como coadjuvante da imagem, criando-se uma cultura predominantemente visual que em partes reduz, ou até ignora, o importante papel do som dentro das obras audiovisuais, o que configuraria uma ironia, visto que para Chion “(...) o cinema é um fenômeno vococêntrico ou, mais precisamente, verbocêntrico” (CHION, 1994a: 5).

(28)

Ernest Edmonds (et al, 2004) – artista e professor britânico pioneiro no campo da computer art – propõe três diferentes categorias presentes no discurso audiovisual, derivadas tanto do estudo do background histórico da linguagem quanto das tecnologias contemporâneas a ela aplicadas. As três categorias são propostas na forma de três distinções relacionadas a aspectos da construção semântica de uma obra audiovisual, a serem brevemente explicitadas a seguir.

A primeira distinção está ligada ao conteúdo da obra. Filmes e séries televisivas costumam relacionar som e imagem de forma a construir uma narrativa que nos cause a sensação de realidade, ou uma realidade fictícia, a ilusão de que o que se está assistindo no filme é real ou poderia ser real. Há, por outro lado, obras audiovisuais de caráter abstrato, que não pretendem se referir a uma realidade possível 10.

A segunda distinção diz respeito ao efeito, ao resultado final da obra. Segundo o autor, “há obras que apresentam um resultado final exclusivamente visual ou sonoro que são, porém, concebidas em uma estrita relação com respectivamente sons e imagens ou cores” (EDMONDS et al, 2004: 6).

Sabe-se que Olivier Messiaen, influente representante da música contemporânea, costumava incorporar às suas composições aspectos extramusicais, como religiosidade e natureza, e que sua percepção estabelecia espontaneamente relações entre sensações visuais (por cores) e sonoras (alturas musicais), um fenomeno neurológico denominado sinestesia caracterizado pela produção de duas sensações de natureza diferente por um único estímulo. A obra Catalogue d’Oiseaux para piano (1956-58) é uma coleção de peças que apresentam a imagem sonora de determinados pássaros em seus habitats naturais em diferentes momentos do dia:

Esta escrita descritiva pode ter sua origem em Debussy, mas a abordagem de Messiaen é muito mais “científica”: as representações dos cantos dos pássaros são tão exatas quanto possível, e as cores do céu, das plumagens e do ambiente vêm traduzidas em harmonias que, para ele pelo menos, evocam a apropriada impressão visual. O que ele chama de “segundo modo de transposição limitada”, por exemplo, “gira em torno de certas violetas, certos azuis e do roxo violáceo – enquanto o modo n. 3 corresponde a um laranja com matizes vermelhos e negros, um toque

10 Os autores exemplificam com obras desenvolvidas pelo projeto COSTART, inaugurado em 2002 pelo

Departamento de Pesquisa em Criatividade e Cognição da Universidade de Loughborough, Inglaterra. Trata-se da continuação de um projeto de pesquisa em arte e tecnologia desenvolvido pela instituição. Para mais informações, acessar: <http://creativityandcognition.org>.

(29)

dourado e um branco leitoso de reflexos furta-cor, como

nas opalas”. (GRIFFITHS, 2011: 123-126 grifos do autor)

Do ponto de vista das imagens, sabe-se que o artista plástico russo Wassily Kandinsky costumava pintar motivado por inspirações musicais, assim como o animador americano John Whitney – tido como um dos pais da animação computadorizada – criava animações mudas baseando-se em estruturas musicais tradicionais (HAHL-KOCH, 1983 apud EDMONDS et al, 2004).

Em todos os exemplos acima estamos a tratar de obras cujos resultados finais são exclusivamente sonoros ou visuais. Entretanto, Edmonds (2004) considera que nesse caso a motivação imagética de Messiaen, mesmo não tomando parte de forma concreta no final da peça, exerce uma influência tal no processo composicional que poderíamos caracterizá-la como uma manifestação audiovisual. O mesmo ocorreria nas obras visuais de Kandinsky e Whitney a partir de suas motivações sonoras.

Há de se lembrar, porém, que enquanto certas obras audiovisuais incorporam um dos aspectos de forma implícita, há outras em que ambas as linguagens se dão de forma clara, explícita e perceptível, como óperas, filmes, animações etc.

Por fim, Edmonds apresenta a terceira distinção, referente ao caráter interativo da peça audiovisual. Segundo o autor, há obras interativas e outras não-interativas. Filmes, geralmente, representam obras não-interativas, nas quais os espectadores não conseguem interferir no fluxo do material audiovisual, enquanto outras peças, como Interactive Noise, de Adriano Abbado, fornecem aos espectadores a possibilidade de interagir com o material sonoro e visual de forma a experenciar como esses dois aspectos da mesma peça interagem entre si.

O princípio de pensamento da linguagem fílmica como a junção de significados das linguagens visuais e sonoras gerando um novo significado não é recente. O cineasta soviético Sergei Eisenstein em 1928, juntamente com Vsevolod Pudovkin e Grigori Alexandrov, publicou a conhecida Declaração sobre o futuro do cinema sonoro, na qual exprime seu receio, diante do recente advento do cinema sonoro, de que o som não seja devidamente aproveitado em toda sua amplitude de possibilidades de significados e se torne apenas um encanto momentâneo, reduzido a um coadjuvante sem maior importância:

Todo mundo está falando sobre a coisa muda que aprendeu a falar. (...) Gravação de som é uma invenção de dois gumes, e é mais provável que seu uso ocorrerá ao

(30)

longo da linha da menor resistência, isto é, ao longo da linha da satisfação da simples curiosidade. (EISENSTEIN et al., 1997: 225 - grifo do autor)

Para Eisenstein, o melhor aproveitamento da linguagem sonora se daria no momento em que se estabelecesse um contraponto com os estímulos imagéticos, e não uma simples reiteração dos mesmos:

Apenas um uso polifônico do som em relação à peça de montagem visual proporcionará uma nova potencialidade no desenvolvimento e aperfeiçoamento da montagem. O primeiro trabalho experimental com o som deve ter como direção a linha de sua distinta não-sincronização com as imagens visuais. E apenas uma investida deste tipo dará a palpabilidade necessária que mais tarde levará à criação de um contraponto orquestral das imagens visuais e sonoras. (EISENSTEIN et al, 1997: 226)

Percebe-se que Eisenstein trabalha com a perspectiva de que as linguagens, alinhadas em sua utilização, geram um novo sentido à obra. Tendo como princípio que a montagem é o principal elemento articulador do discurso fílmico, o cineasta busca nas escritas orientais, especificamente nos ideogramas chineses e japoneses, seu princípio de fundamentação do conceito de montagem intelectual:

Pela combinação de duas “descrições” é obtida a representação de algo graficamente indescritível. Por exemplo: a imagem para água e a imagem para um olho significa "chorar"; (...) uma boca + um pássaro = “cantar” (...) uma faca + um coração = "tristeza", e assim por diante. Mas isto é — montagem! Sim. É exatamente o que fazemos no cinema, combinando planos que são descritivos, isolados em significado, neutros em conteúdo — em contextos e séries intelectuais. (EISENSTEIN, 1997: 36 - grifos do autor)

Partindo do pressuposto que “pela combinação de duas ‘descrições’ é obtida a representação de algo graficamente indescritível” (EISENSTEIN, 1997: 36), o cineasta ainda buscaria na poesia haicai e no teatro kabuki referências que o auxiliariam na construção do conflito, que para o autor é a base de toda arte (MARTINS, 2015). Em suma, este trabalho segue a linha de reflexão corroborada por Eisenstein no que se refere à compreensão do significado de uma obra audiovisual: plano imagético + sonoro = x, sendo x o sentido variante peculiar a cada obra e que traz em si a junção dos significados visuais e sonoros.

(31)

Tratando da articulação sonora com a imagem, Carrasco (1993; 2003) trabalha com o conceito de polifonia na compreensão da música de cinema. O autor apresenta duas propriedades da música no contexto fílmico, sendo a primeira sua capacidade de organizar o desenvolvimento temporal de um filme (eixo horizontal) e a segunda sua propriedade polifônica (eixo vertical), esta última permitindo à música uma associação com si mesma e com outras linguagens. Na já mencionada Declaração de 1928, Eisenstein propunha a necessidade de se desenvolver uma técnica de montagem adequada ao som – partindo do fato de tanto Eisenstein quanto Pudovkin e Alexandrov acreditarem que a montagem foi a grande conquista da linguagem cinematográfica – o que de fato veio a ocorrer posteriormente, permitindo que o elemento sonoro fosse manipulado cinematograficamente. Por essa razão afirma Carrasco:

A montagem sonora consolidou um sistema de organização polifônica do material sonoro: uma polifonia a três ‘vozes’. Em uma delas, são colocados os diálogos, na outra, os efeitos sonoros e, na restante, a música. (...) A trilha musical passa a ser, desde então, uma das vozes dessa polifonia. (2003: 133)

O autor prossegue seu desenvolvimento acerca da linguagem cinematográfica comparando a evolução orgânica entre som e imagem à da polifonia musical. Num primeiro momento remete a relação som-imagem no cinema mudo às primeiras manifestações polifônicas da Idade Média, lineares. Apenas com a gravação em múltiplas bandas ópticas o som alcançou o que seria equivalente ao surgimento do conceito de acorde: a sincronia precisa do encontro do som com a imagem, obtendo-se como resultado “(...) uma nova poética sonora voltada à construção com imagens em movimento, (...) uma nova poética audiovisual até então impensável” (CARRASCO, 2003:134). Da mesma forma novas poéticas, até há algumas décadas impensáveis, surgiram a partir não mais da sincronia, mas de tecnologias sonoras que vem revolucionando a maneira de se pensar a linguagem cinematográfica.

Vale ressaltar, por fim, que a experiência audiovisual não surgiu no cinema como o conhecemos hoje. De acordo com Suzana Miranda, “(...) antes mesmo da experiência do cinema tornar-se um espetáculo coletivo, a música esteve presente e estimulou experimentações” (MIRANDA, 2011: 20). A autora refere-se ao kinetophone, apresentado por Thomas Edison em 1894, aparelho que consistia na junção do

(32)

kinetoscope11 com um fonógrafo. “Nele, um pequeno filme podia ser visto simultaneamente a um registro musical. De fato, reunir melodias e atrações imagéticas é uma prática anterior ao surgimento da fotografia” (MIRANDA, 2011: 20). Carrasco (2003) amplia essa perspectiva ao afirmar que ao longo da história a música se associou a diversas formas de expressão, a saber: linguagem verbal, movimento, à ação representada, à dança e às imagens. E em todas, “(...) da união de duas poéticas específicas, engendra-se uma terceira, que só é possível pela combinação de ambas”. E finaliza: “Desde o surgimento do cinema, muitas dessas relações são incorporadas pelas formas audiovisuais. Música e texto, música e movimento, música e ação filmada. A poética, ou poéticas audiovisuais, redimensionaram todas essas relações” (CARRASCO, 2003: 12).

Essa perspectiva é reiterada por Edmonds (2004) ao afirmar que “(...) desde a antiguidade pensadores e filósofos tem buscado unificar princípios que pudessem explicar nossa experiência multissensorial do mundo” (2004: 2). Utilizando como exemplo Pitágoras, Aristóteles, Arcimboldo e André Félibien, o autor aponta relações ao longo da história que se estabeleceram entre as diferentes formas de manifestações sensoriais, como cores e sons.

Edmonds cita como exemplo a criação de instrumentos, nos séculos XVIII e XIX, que pudessem estimular simultaneamente tanto o sentido auditivo quanto o visual, uma vez que com a publicação de Optiks (1704), de Newton, foi estabelecida a relação física entre cor e som como a conhecemos hoje, baseada no princípio de que ambas podem ser descritas em termos de comprimento de onda, largura de banda e frequências (EDMONDS, 2004).

Os instrumentos em questão eram frequentemente chamados de color organs, cujas construções são atribuídas a Louis Bertrand-Castel, D.D Jameson, Bainbridge Bishop, A. Wallace Rimington, Frederick Castner e Thomas Wilfred (2004: 3). Assim o autor descreve seu funcionamento:

Esses instrumentos geralmente se pareciam com instrumentos musicais tradicionais, mas quando eram tocados eles controlavam lamparinas de gases coloridos ou tiras de papeis iluminadas por velas, etc. A produção desses instrumentos veio a estimular várias discussões acerca da possível analogia entre sistemas de cores e sons. (EDMONDS, 2004: 3)

(33)

Percebe-se, pois, que o cinema como o conhecemos hoje representa uma manifestação recente da linguagem audiovisual, absorvendo para sua natureza uma complexa relação entre cores, imagens e sons, proporcionando uma recepção também complexa – uma cadeia de estímulos multissensoriais – a seus espectadores.

2. AS POLIFONIAS DA MÚSICA FÍLMICA

O termo polifonia tem por base a presença de mais de um som. Na música, refere-se à situação na qual diversas vozes ou partes instrumentais são combinadas em contraponto (KENNEDY, 2012). Trata-se de uma definição que trabalha sob a perspectiva de “camadas”, e por essa razão foi ao longo do tempo apropriada por diferentes áreas e aplicada a diferentes contextos, inclusive extramusicais, como é o caso da aplicação metafórica do termo por Bakhtin, quando analisando a obra de Dostoiévski, ou por Lacan na caracterização do inconsciente (ROMAN, 1993).

No cinema, o termo foi apropriado por Carrasco (2003) na tentativa de ilustrar a relação interna entre os elementos constituintes do ambiente sonoro de um filme. Para o autor, na linguagem sonora cinematográfica há uma sintonia entre seus três elementos constituintes que, devido à relação que estabelecem entre si, porém ao mesmo tempo à sua independência, pode ser equiparada a uma polifonia musical:

A montagem sonora consolidou um sistema de organização polifônica do material sonoro: uma polifonia a três ‘vozes’. Em uma delas, são colocados os diálogos, na outra, os efeitos sonoros e, na restante, a música. (...) A trilha musical passa a ser, desde então, uma das vozes dessa polifonia. (CARRASCO, 2003: 133)

Entretanto, por mais clara que seja a ilustração proposta por Carrasco, ela parece ter o objetivo de proporcionar uma imagem em grande escala, em que os elementos constituintes da trilha sonora já se encontram prontos individualmente, e assim, aptos a estabelecerem macrorrelações entre si. Por essa razão, passarei a me referir a esta relação proposta por Carrasco como macropolifonia. Utilizando-me de um conceito de montagem visual, a macropolifonia equivaleria a um plano geral; as grandes partes do todo se relacionando entre si: música, efeitos sonoros e diálogo, já construídos e em suas formais finais, justapondo-se ao plano imagético e constituindo, assim, a obra audiovisual que vai a público.

(34)

Se existe uma interrelação polifônica macro, ela não se dá de pronto, e isso induz à existência de uma relação anterior, também polifônica, em menor escala, de caráter gerador. É plausível admitir a existência de uma interrelação de elementos sonoros que interagem entre si na fase da construção, da elaboração de cada uma dessas “vozes” sonoras de um filme. No caso da trilha musical, elementos que interagem para a construção e significação dessa música. Há, da mesma forma, relações de outros elementos sonoros que culminam na constituição dos efeitos sonoros e, igualmente, interações que vem a resultar na construção dos diálogos. Cada um desses elementos, uma vez formados, passarão à sua forma final, interagindo entre si num novo campo de significação, no campo macro; na macropolifonia.

A essa relação primeira que se dá, entre os elementos que vem a constituir individualmente a música, os efeitos sonoros e o diálogo de uma obra cinematográfica, chamo de micropolifonia, o que, segundo a montagem visual, seria representada pelo close.

2.1 A Micropolifonia musical

Enquanto os diversos elementos posteriores de uma micropolifonia musical podem variar, o primeiro é sempre o mesmo e imutável, e aqui refiro-me aos estímulos e impulsos internos do compositor. A inspiração, o desejo, a intenção, a ideia – bem como todas as conexões neuronais que a ela dão forma – o saber técnico, o gesto, tudo isso constitui o primeiro elemento da relação, sem o qual nada mais toma vida. A soma desses elementos forma o cerne da constituição musical que há de vir, e isto porque são intrínsecas e exclusivas do agente criador. Todos os elementos restantes na relação, por mais diversos e avançados que sejam do ponto de vista tecnológico, situam-se no campo das ferramentas, e daí sua insuficiência para iniciar um processo criativo.

Uma vez estabelecido o agente primário da micropolifonia musical fílmica, passemos às demais vozes dessa teia polifônica.

O segundo componente é a plataforma de experimentação/criação do compositor. Seja um instrumento acústico, um objeto inusitado qualquer ao qual o compositor recorra para desenvolver suas ideias, ou um computador repleto de sound

(35)

libraries 12, há de se estabelecer uma conexão entre o compositor e este outro elemento. Essa conexão não necessariamente se inicia no contato físico entre ambas. Um olhar para o instrumento, por exemplo, pode desencadear ideias inexistentes antes do contato visual. Da mesma forma, a partir do contato físico novos estímulos guiarão o agente criador por caminhos peculiares àquela experiência tátil.

Este segundo componente da micropolifonia pode ainda (e comumente isto acontece) desmembrar-se numa sequência de elementos complementares. Seria o caso de um compositor que recorre num primeiro momento a um instrumento acústico e posteriormente a um computador. Neste caso há uma espécie de sobreposição de plataformas de experimentação e criação, em que cada uma proporciona diferentes estímulos ao compositor. O mesmo se daria na situação inversa, em que um instrumento acústico é requerido após um contato prévio com uma plataforma computacional, ou ainda um repetido e rítmico clicar de caneta que precede o contato com a flauta. Logo, percebe-se que não se trata da natureza da plataforma, ou da quantidade delas, mas do efeito que ela produz no compositor. Nem se pode afirmar que a sobreposição de múltiplas plataformas proporciona mais estímulos ao mesmo, pois não se trata de aspectos mensuráveis ou quantitativos, mas de sucessivas cargas de estímulos a partir de interações sensoriais. Parece-me, inclusive, uma presunção inocente atribuir uma relação diretamente proporcional entre o número de plataformas utilizadas e a quantidade de estímulos gerados. Sendo este o caso, seria possível afirmar que um compositor que recorre direta e exclusivamente a um piano desde o início até o fim de seu processo de criação receberia menos estímulos criativos que um compositor que recorresse a diversos instrumentos de diferentes naturezas durante seu processo composicional.

Essa relação entre o elemento primário (compositor) e o elemento secundário (plataforma) não só ocorre naturalmente, dispensando qualquer esforço por parte do agente criador, mas também ocorre de maneira interpolada, num fluxo irregular, especialmente nos casos do contato com múltiplas plataformas. Quando se tratando do processo criativo musical, é comum a busca e retomada constante de diferentes plataformas de experimentação, movimento este que varia de acordo com a necessidade do compositor. Ao trocar de plataforma o sujeito se expõe a uma nova fonte de estímulos,

12 Também conhecido como biblioteca de som, refere-se ao conjunto de sons que pode ser

adquirido e instalado no computador a fim de serem utilizados pelo compositor via protocolo MIDI

(36)

o que proporciona uma interação com potencial de levá-lo a caminhos criativos diferentes, prevenindo-o de um aparente “esgotamento” de ideias. Se utilizando do princípio da

incubação 13 (WALLAS, 1926), o compositor se esquiva da atividade sobre a qual não

percebe evolução criativa e foca-se em outra fonte de estímulos. Seria o caso de um compositor que, estafado da criação via “violão em mãos”, encosta o instrumento e busca na internet por cantos de aves de inverno. E este tipo de troca, feita entre diferentes plataformas, que segue o ritmo da demanda de estímulos pelo agente criador, é que gera a irregularidade, a interpolação presente na relação entre essas duas vozes da polifonia. Todavia, como dito anteriormente, esse fluxo irregular não é condição exclusiva do compositor que usufrui de múltiplas plataformas – simultâneas ou sucessivas – em seu processo criativo. Um músico que faz uso apenas de um único instrumento em todo seu processo pode obter semelhante resultado sensorial-criativo a partir do momento que modifica sua relação com a plataforma. Ao abandonar determinada linha de pensamento criativo que parece ter “esgotado” suas possibilidades e, fazendo emergir outra, de preferência o mais distinta possível da anterior, o compositor faz uso do mesmo princípio da incubação, ao passo que mentalmente se submete a uma conversão radical de ideias e estímulos, e por consequência prova de uma nova experiência multissensorial. Se é possível fazer uma ressalva quanto à aplicação do termo polifonia a essa rede de elementos, ela se refere à questão da independência das vozes. Num contraponto as linhas musicais relacionam-se entre si, porém preservando sua autonomia de maneira que, quando isoladas, preservam um sentido próprio. Essa igualdade talvez não seja plenamente aplicável na micropolifonia, uma vez que a força do elemento primário (o eu do compositor) parece ser superior à dos demais elementos subsequentes. Se por um lado o elemento secundário se conecta ao primário e o ressignifica, atribuindo a ele um novo sentido, aquele é incapaz de ter qualquer sentido quando na ausência do primeiro. Logo, parece estarmos lidando mais com uma relação de dependência do que de independência entre as vozes, sendo essa dependência de caráter unilateral.

A unilateralidade da dependência, por sua vez, reside no fato de que os elementos secundários e terciários podem coexistir com o primário, mas nunca existir sem ele. O oposto parece não ocorrer. Ainda que num primeiro momento as plataformas externas pareçam essenciais para a concretização da ideia musical, esse atrelamento

13 Terminologia a ser desenvolvida no capítulo 02, a incubação refere-se ao afastamento do

Referências

Documentos relacionados

Para avaliação do estado imunológico da população em estudo, foram colhidas amostras de soro sanguíneo de 133 aves e submetidas a provas sorológicas como a Reação

Para entender o supermercado como possível espaço de exercício cidadão, ainda, é importante retomar alguns pontos tratados anteriormente: (a) as compras entendidas como

(grifos nossos). b) Em observância ao princípio da impessoalidade, a Administração não pode atuar com vistas a prejudicar ou beneficiar pessoas determinadas, vez que é

No entanto, maiores lucros com publicidade e um crescimento no uso da plataforma em smartphones e tablets não serão suficientes para o mercado se a maior rede social do mundo

Declaro meu voto contrário ao Parecer referente à Base Nacional Comum Curricular (BNCC) apresentado pelos Conselheiros Relatores da Comissão Bicameral da BNCC,

insights into the effects of small obstacles on riverine habitat and fish community structure of two Iberian streams with different levels of impact from the

Taking into account the theoretical framework we have presented as relevant for understanding the organization, expression and social impact of these civic movements, grounded on

Bento Pereira apresenta uma lista de autores e obras em língua portuguesa, de vários pendores: religioso, enciclopédico, dicionarístico, e literário.A escolha destas obras