• Nenhum resultado encontrado

Processamento neurológico dos indicadores emocionais na voz

Anexo IV – Paradigmas de comportamento vocal – Valores totais de intensidade relativa dos parciais

Em 4.2, estes processos serão objecto de uma análise mais aprofundada, quando nos detivermos nos aspectos químicos da transmissão de informações através do sistema nervoso.

6. Indicadores vocais da emoção – Introdução

6.1. Processamento neurológico dos indicadores emocionais na voz

A capacidade de processar a informação emocional na prosódia independentemente da sua informação conceptual, não só na compreensão do sentido emocional do discurso mas também na capacidade de comunicar emoções através da voz, já é conhecida desde o início do séc. XX. Este facto foi demonstrado através de estudos clínicos com pacientes com grave deficiência no processamento linguístico devido a traumatismo no hemisfério cerebral esquerdo (HUGHLINGS-JACKSON, 1915). A sugestão de que o hemisfério direito poderia cumprir essa função (TUCKER ET AL., 1977; apud JOHNSTONE ET AL., 2006) foi confirmada por estudos neurológicos subsequentes onde foi observado um deficit de percepção dos aspectos afectivos da prosódia em ouvintes com lesão no hemisfério direito em comparação com ouvintes com lesão no hemisfério esquerdo (BOWERS ET AL., 1987; HEILMAN ET AL., 1984; PEPER & IRLE, 1997; ROSS, 1981; apud JOHNSTONE ET AL., 2006). Estudos posteriores com recurso a técnicas mais avançadas, como a tomografia por emissão de positrões (PET), a electroencefalografia (EEG) ou a magnetoencefalografia (MEG), confirmaram uma maior activação pré-frontal direita durante o processamento de prosódia emocional relativamente ao processamento do conteúdo proposicional emotivo de frases faladas (GEORGE ET AL., 1996; PIHAN ET AL., 1997; IMAIZUMI ET AL., 1998;

apud JOHNSTONE ET AL., 2006). Segundo vários estudos recentes, há evidência de envolvimento do

córtex temporal superior direito no processamento de sons humanos supra-segmentais (BELIN ET AL., 2000, 2002; apud JOHNSTONE ET AL., 2006). A prosódia afectiva provoca uma maior activação de zonas do gyrus temporal médio (MTG) posterior e do sulco temporal superior (STS) em comparação com o conteúdo semântico de palavras faladas (MITCHELL ET AL. 2003; apud JOHNSTONE ET AL., 2006).

Quanto ao processamento de emoções específicas, não há registos de activações diferenciadas para emoções distintas, mas há dados de FMRI que mostram uma maior activação de uma região específica no STS em resposta à fala irada em comparação com a fala neutra. Foi sugerido que essa área seria a correspondente para o processamento vocal da zona fusiforme para o processamento de faces (GRANDJEAN ET AL., 2005; SANDER ET AL., 2005; apud JOHNSTONE ET AL., 2006). Um estudo recente de FMRI mostrou uma maior activação de determinadas zonas do MTG superior direito, o STS e do gyrus frontal inferior / médio durante a identificação de prosódia afectiva, independentemente do conteúdo emotivo, relativamente à identificação do conteúdo emocional de palavras faladas (ETHOFER ET AL., 2006; apud JOHNSTONE ET AL., 2006).

A associação do processamento de informação vocal à expressão facial correspondente aumenta a intensidade da activação. Foi demonstrado através de tomografia por emissão de positrões (PET) que uma área de convergência situada no córtex temporal lateral esquerdo

apresentava níveis mais elevados de activação quando se apresentavam simultaneamente expressões vocais e faciais de felicidade ou medo do que quando uma das modalidades expressivas era apresentada isoladamente. Análises separadas para a felicidade e o medo revelaram a activação de áreas de convergência suplementares situadas preferencialmente no hemisfério esquerdo para expressões faciais e vocais simultâneas de felicidade e no hemisfério direito para expressões de medo, indicando substratos neuroanatómicos distintos para a integração multissensorial de emoções positivas em confronto com emoções negativas. Foi observada activação da amígdala direita na observação de expressões faciais de medo e associações de expressões faciais e vocais, mas não para as expressões vocais isoladas. (POURTOIS ET AL., 2005; apud JOHNSTONE ET AL., 2006).

Num estudo recente onde se procuraram identificar as diferenças neurais para o processamento de expressões de zanga e de felicidade, foi observada uma activação maior generalizada da rede neural envolvida no caso da expressão de felicidade através da voz do que da ira, especialmente no gyrus temporal médio anterior e posterior direito, gyrus temporal médio esquerdo, e no gyrus frontal inferior direito. Sabe-se que esta área está envolvida no processamento de estímulos auditivos complexos, que incluem a música, a fala e os aspectos emocionais da prosódia, particularmente no hemisfério direito (ETHOFER ET AL., 2006; MITCHELL ET AL., 2003;

apud JOHNSTONE ET AL., 2006). Os dados observados através de tomografia por emissão de

positrões na medida do fluxo de sangue em regiões cerebrais (rCBF) mostraram que as expressões de felicidade envolvem preferencialmente esta região. Estas expressões provocam também uma activação maior do gyrus frontal inferior direito, que está associado aos aspectos cognitivos do processo emocional, como a atribuição de valências de recompensa aos estímulos. Este estudo é consistente com os actuais conceitos de percepção da prosódia emocional, que sustentam que a informação é transferida dos córtices temporais onde se processa a diferenciação acústica através de conexões para as regiões frontais inferiores, onde são integradas nos processos cognitivos e afectivos relacionados com a planificação e execução das tarefas em curso (SCHIRMER & KOTZ, 2006; JOHNSTONE ET AL., 2006). O efeito combinado de expressões faciais e vocais provoca maior activação no gyrus temporal médio, tanto em expressões de felicidade como de medo (JOASSIN ET

AL., 2004; POURTOIS ET AL., 2005; JOHNSTONE ET AL., 2006). Este facto parece comprovar a

existência de uma corrente ventral de processamento auditivo que atribui sentido ao som, de que o

gyrus temporal médio posterior seria uma componente onde se combina a informação auditiva com

um espectro mais largo de informação procedente de outras regiões cerebrais sensoriais e semânticas (HICKOK & POEPPEL, 2004; apud JOHNSTONE ET AL., 2006).

No entanto, certas regiões como a ínsula esquerda, a amígdala esquerda, o hipocampo e o córtex cingulado anterior são mais activadas por expressões vocais de felicidade do que de ira, o

que não acontece quando são acompanhadas das respectivas expressões faciais (JOHNSTONE ET AL., 2006). O envolvimento destas regiões no processamento de expressões com valência positiva complementa estudos anteriores que demonstravam uma maior activação da amígdala, do hipocampo e da ínsula no processamento de expressões faciais com valência negativa do que positiva (ADOLPHS, 2002; apud JOHNSTONE ET AL., 2006). No entanto, apesar de estar bem estabelecido o papel da amígdala no processamento de expressões faciais de medo, o mesmo não acontece com outras emoções, particularmente com as expressões faciais de felicidade ou tristeza. Num estudo com pacientes com lesões amigdalares monolaterais e bilaterais, o processamento destas expressões em comparação com expressões neutras demonstrou que os pacientes com lesão unilateral não apresentaram desvios consideráveis, mas os pacientes com lesão bilateral apresentaram dificuldades na avaliação específica de expressões de tristeza, mas não nas de felicidade. Além disso, os pacientes com lesão unilateral direita da amígdala apresentaram maior incapacidade do que os pacientes com lesão unilateral esquerda. Este estudo sugere que a amígdala pode ter um papel maior no processamento de expressões faciais com valência negativa múltipla, como o medo ou a tristeza (ADOLPHS & TRANEL, 2004). Vários estudos comprovaram um aumento de activação da ínsula como resposta a estímulos positivos, especificamente no caso da audição de música, onde foi documentado envolvimento de uma rede neurológica constituída pelo nucleus

accumbens, a área tegmental ventral, cujo papel no processamento da recompensa está

comprovado, e a ínsula, envolvida nas respostas autonómicas relacionadas com aquele processamento (MENON & LEVITIN, 2005). Estas conclusões parecem implicar esta rede neurológica na empatia, ao gerar sentimentos semelhantes no ouvinte (JOHNSTONE ET AL., 2006).

Outline

Documentos relacionados