• Nenhum resultado encontrado

2. MEMÓRIA E INFORMAÇÃO: TECNICIDADE E TRANSINDIVIDUALIDADE

2.2. INFORMAÇÃO E SIGNIFICADO

Voltemos agora à observação das relações entre as imagens apresentadas no começo deste capítulo para retomar o tema que levou à emergência do modelo cibernético, que introduzimos no capítulo 1. Proponho então que imaginemos o modelo da teoria matemática da comunicação como uma síntese do modo de existência ciborgue, predominante entre os seres humanos no mundo globalizado e interconectado deste século XXI.

Publicada em 1948, por Claude Shannon, logo após o término da Segunda Guerra Mundial, a teoria matemática da comunicação impactou diferentes campos do saber, da engenharia à cibernética, da biologia às ciências sociais e humanas, e produziu o desenvolvimento acelerado da informática. De qual realidade trata essa teoria? A relação entre os elementos que compõem um circuito capaz de transmitir um sinal de modo a reproduzi-lo com a maior fidelidade possível, eliminando as eventuais distorções entre a entrada e a saída de um circuito. Um sinal precisa se distinguir de toda a diversidade que o cerca, blindar-se, para ser transmitido sem perder sua consistência. O que é a diversidade que cerca o sinal para a teoria de Shannon? Ruído. Nesse contexto, a informação se define como “a medida da redução de incerteza para um receptor” (LOGAN, 2012, p. 27).

Ruído é sinônimo, portanto, de imprecisão e de indeterminação. Conduzidos ao encontro de materiais apropriados que lhes sirvam de suporte, os sinais se organizam de determinada forma. A descoberta e o aprimoramento dessa condução promoveram a eletricidade – a técnica de aprisionamento do relâmpago63 –, a matéria-prima da comunicação.

Consideremos então a teoria de Shannon, que trata do problema da comunicação a partir da redução da incerteza na transmissão de um sinal elétrico entre um emissor e um receptor, como uma analogia possível para um determinado

63 A imagem retórica foi extraída do estudo de Philippe-Alain Michaud sobre o pensamento de Aby

Warburg (MICHAUD, 2013, p. 219), historiador da arte cuja obra foi impactada pela descoberta da cultura e dos rituais dos hopis, indígenas do Novo México, em 1896.

modo de existência dos seres humanos, o modo de existência ciborgue. Um modo de existência que emerge na segunda metade do século XX com as novas tecnologias de comunicação baseadas na teoria da informação, e se dissemina em um dado período histórico, as primeiras décadas deste século XXI, no qual um modelo de sociedade começa a se reorganizar globalmente, e em todos os setores, a partir de processos baseados no uso das redes de informação digital. Um modo de existência para o qual o modelo de conhecimento do mundo é refletido em mapas e diagnósticos dinâmicos como o que ilustra a terceira imagem do conjunto que observamos.

Se aceitarmos a analogia, a partir do que foi descrito até aqui, nessa sociedade, os seres humanos, ao lado de objetos físicos ou virtuais, assumem o papel dos sinais – do mesmo modo que os pontos luminosos do fluxo de comércio global que tomamos como exemplo – e são conduzidos, através de materiais apropriados, a organizarem-se de determinada forma. Essa condução, para que seja eficiente, deve reduzir as possibilidades de indeterminação, de variação, de ruídos. Nesse contexto, seguindo o raciocínio proposto e lançando mão também da analogia da eletricidade como o aprisionamento do relâmpago, podemos observar esse modo de existência a partir de um modelo de restrições, como propõe o modelo cibernético que apresentamos no capítulo 1.

Sabemos, no entanto, que, se considerarmos apenas o modelo de Shannon, essa analogia já nasce falha. Seres humanos, como qualquer ser vivo, são organismos complexos, que se organizam de modos complexos, estão envolvidos em relações transindividuais igualmente complexas, e não podem ser reduzidos a uma operação simplificada de emissão e recepção de sinais. No entanto, quando observamos a realidade dos dispositivos de comunicação conectados à internet, cujo uso individual cotidiano por seres humanos atingiu em 2019 o universo de 3,8 bilhões de pessoas (MEEKER, 2019), mais da metade da população do planeta, a analogia parece ganhar consistência.

Aprofundar essa analogia, como ponto possível de distinção de um determinado modo de existência, a partir da observação dos sensores dos dispositivos móveis de comunicação, é o tema do capítulo 4. Por ora, vamos tentar compreender melhor a distinção entre informação no contexto do modelo de comunicação de Shannon e informação no contexto de sistemas mais complexos.

O físico canadense Robert K. Logan, que investigou as teorias voltadas para as implicações do conceito matemático de Shannon quando aplicado aos sistemas biológicos, sociais e culturais, distingue o conceito de informação biótica do conceito de informação como um sinal elétrico no modelo proposto por Shannon, uma vez que o primeiro diz respeito a um processo de propagação da informação como modo de organização dos seres vivos. Ou seja, uma realidade muito mais complexa do que a síntese projetada para o problema da comunicação em um circuito elétrico. Nesse sentido, ele considera que

[...] a linguagem verbal, a tecnologia, a cultura e a economia podem ser tratadas como se fossem organismos vivos em função do modo como evoluem, possuem agência e representam fenômenos emergentes. (LOGAN, 2012, p. 11)

Logan observa que Shannon formulou matematicamente uma solução de engenharia elétrica para medir o desempenho das transmissões de sinais, que, nesse contexto, são tratados como informações. Nesse sentido, a palavra informação não tem qualquer relação com significado, como atesta o próprio Shannon, paraquem os "aspectos semânticos da comunicação são irrelevantes para o problema da engenharia" (SHANNON, 1948, p. 379 apud LOGAN, 2012, p. 34). Embora possa parecer contraditório, uma vez que propusemos uma analogia entre um modo de existência humano e o modelo simplificado de condução de sinais da teoria de Shannon, é justamente esse ponto – que separa, de um lado, uma solução puramente técnica e, de outro, o campo da significação – que nos interessa explorar para compreender e distinguir o modo de existência dos seres humanos conectados através de redes de informação digitais e outros modos de estar no mundo.

Para o antropólogo Gregory Bateson, que concebe uma filosofia da mente a partir da ideia da possibilidade de integração entre diferentes padrões de código, informação é sinônimo de significado quando uma comunicação é efetivada dentro de um determinado contexto. Para que uma comunicação se efetue é preciso que os elementos envolvidos sejam capazes de reconhecer os padrões de código de uma mensagem. Para definir o que entende por padrões, Bateson usa o exemplo de uma imagem hipotética dividida em duas partes que estão separadas por um anteparo. A partir dos padrões observados em apenas um dos lados, um observador

que detenha o código daqueles padrões será capaz de adivinhar o outro lado que não está visível.

Informação com o sentido de significado equivale a dizer então tudo aquilo que faz com que um conjunto de elementos com determinado padrão de organização possa ser reconhecido por outro elemento ou conjunto de elementos que entra em contato com ele. O que orienta a organização da informação de modo a torná-la um padrão reconhecível é uma diferença. Diferença pode ser entendida aqui como contraste. Diferença de tons, de texturas, de frequências sonoras etc. são o que formam os padrões que constituem uma informação. Informação, significado, padrão e ressonância são, portanto, sinônimos de modelo cibernético sob a ótica de Bateson. Tudo o que numa comunicação destoa do padrão de organização conhecido é ruído. Assim, estabelecer uma comunicação entre elementos que não dispõem das mesmas regras de padronização de seus códigos exigirá o desenvolvimento de um processo de integração, de alinhamento de códigos, que, na linguagem da engenharia, como vimos ao final do capítulo 1, é chamado de transdução.

Logan apresenta um breve histórico dos desdobramentos da relação entre os conceitos de energia, entropia e informação e sintetiza genericamente a noção de entropia como “transformação de energia”. Shannon levou a noção de entropia da termodinâmica para a sua teoria da comunicação. Sua intenção foi definir a medida do conteúdo de informação de uma mensagem como sendo a “entropia da informação”. No entanto, essa aplicação do conceito associado à informação foi amplamente contestada por físicos dedicados a desenvolver a teoria da informação. Ao contrário do que propusera Shannon, ficou demonstrado que entropia e informação se contrapõem. Segundo a definição proposta por Wiener, entropia é

uma medida de desorganização e “a informação transportada por um conjunto de

mensagens é uma medida de organização” (WIENER, 1950, p. 129, grifos nossos). O conceito de entropia negativa foi estabelecido pelo físico teórico Erwin Schröedinger em seu livro What is life, publicado pela primeira vez em 1944, no qual

o autor reflete sobre a pergunta do título a partir do processo de organização celular, ou seja, um domínio dos biólogos64:

Cada progresso, evento ou acontecimento – chame do que quiser – , numa palavra, tudo o que está acontecendo na natureza significa um aumento da entropia da parte do mundo onde isso está acontecendo. Assim, um organismo vivo aumenta continuamente sua entropia – ou, como se pode dizer, produz entropia positiva – e, portanto, tende a aproximar-se do perigoso estado de máxima entropia, que é a morte. Ele só pode manter-se distante dele, ou seja, vivo, continuamente obtendo entropia negativa do ambiente – o que é algo bastante positivo, como veremos. Aquilo de que um organismo se alimenta é entropia negativa. Ou, para colocá-lo em termos menos paradoxais, o essencial no metabolismo é que o organismo consiga libertar-se de toda a entropia que não puder evitar produzir enquanto estiver vivo. (SCHRÖEDINGER, 1992, p. 71-72,65 tradução de LOGAN, 2012, p. 30-31)

A partir do modelo cibernético proposto por Wiener, Simondon analisa a negentropia ou entropia negativa e a associa à informação como um indicador do potencial de transformação de energia. Veremos em seguida como essa ideia se desdobra nas teses de Simondon sobre a individuação psíquica e coletiva e em que ela pode nos ajudar a compreender a noção de transindividualidade associada à questão desta tese.

Mas antes quero insistir um pouco mais no esclarecimento geral da relação entre energia e informação. De acordo com a segunda lei da termodinâmica, existe uma tendência dos sistemas da natureza, quando isolados, de aumentar progressivamente seu estado de entropia, ou seja, de desorganização. Se a informação equivale a entropia negativa, ela será a responsável por contrabalançar essa tendência, impedindo que um dado sistema, alimentado de informação, chegue ao ponto máximo de entropia, o que representa a morte. A morte, nesse

64 No capítulo 1 do livro, que se baseia em uma série de palestras ministradas por Schröendiger na

Irlanda, em 1943, ele resume a ideia central de sua reflexão: “Como os eventos no espaço e no tempo que ocorrem dentro dos limites espaciais de um organismo vivo podem ser explicados pela física e pela química?”.

65 No original: “Every process, event, happening – call it what you will; in a word, everything that is

going on in Nature means an increase of the entropy of the part of the world where it is going on. Thus a living organism continually increases its entropy – or, as you may say, produces positive entropy – and thus tends to approach the dangerous state of maximum entropy, which is of death. It can only keep aloof from it, i.e., alive, by continually drawing from its environment negative entropy – which is something very positive as we shall immediately see. What an organism feeds upon is negative entropy. Or, to put it less paradoxically, the essential thing in metabolism is that the organism succeeds in freeing itself from all the entropy it cannot help producing while alive.”

contexto, é o fim das possibilidades da transformação energética que mantém um determinado sistema em funcionamento.

Esse sistema pode ser uma máquina ou um organismo vivo, cujo modo de existência, de acordo com a proposição de Logan que citamos, pode ser associado à linguagem verbal, à tecnologia, à cultura e à economia em função do modo como esses sistemas evoluem, possuem agência e representam fenômenos emergentes66.

Por trás dessa teoria está a constatação científica de que a organização da matéria reflete um tempo contínuo e irreversível que se constitui de algum modo de uma memória das experiências acumuladas. Uma temporalidade como a proposta por Bergson, que Wiener observou ao descrever os processos do ponto de vista cibernético. Ilya Prigogine, químico que propôs a teoria das estruturas dissipativas67, revela, em seu livro memorial O fim das certezas, que sua hipótese sobre os processos de organização das estruturas moleculares nasceu das leituras de Bergson e do filósofo Alfred North Whitehead (PRIGOGINE, 2011, p. 63).

O conflito entre as definições de informação de Shannon (transmissão de sinais independente de sua significação) e as dos que se opunham a ele levou o físico Donald Mackay a propor, em 1951, que informação seria “a mudança mental em um receptor, portanto, com significado” (LOGAN, 2012, p. 35). No campo da engenharia de comunicações, no entanto, a definição de Shannon prevaleceu por garantir o desenvolvimento de um método de quantificação da informação.

66 Cabe aqui uma ressalva de esclarecimento do percurso teórico deste capítulo. Embora tenhamos

sido conduzidos por Logan para compreender o debate sobre os desdobramentos da noção de informação e sua relação com significado, não compactuamos com a proposição deste autor quando ele se dedica a aprofundar uma série de categorias e subcategorias que dividem conceitualmente regiões entre tipos distintos de interações fenomenológicas (fisiosfera, biosfera, simbolosfera, tecnosfera e econosfera). Logan constrói uma taxonomia a partir da noção geral de fisiosfera, na qual ocorrem fenômenos materiais e não materiais. Os fenômenos materiais dizem respeito à constituição do planeta em duas áreas: abiótica, setor onde a vida não se manifesta, e biosfera, na qual o fenômeno da vida emergiu. Na biosfera, os seres humanos produziram a simbolosfera, que se constitui dos processos de representação e suas materializações; a simbolosfera, por sua vez, se subdivide em tecnosfera e econosfera, a primeira relativa aos conceitos e práticas tecnológicas, e a segunda, aos processos e atividades econômicos (LOGAN, 2012, p. 161-162). O desdobramento das questões desta tese, como veremos, dialoga melhor com as proposições da teoria de Gaia, que observa um amplo cenário de relações transindividuais que ultrapassa eventuais agrupamentos arbitrários produzidos pela lógica instrumental analítica do pensamento científico tradicional.

67 A teoria das estruturas dissipativas demonstra que, observadas em determinadas condições, as

estruturas moleculares se desorganizam, mas em um segundo momento retomam um processo de auto- organização (PRIGOGINE, 2011, p. 61-95).

A relação entre informação e significado, comunicação e contexto, no entanto, continuou sendo estudada e desenvolvida por teóricos interessados na aplicação desses conhecimentos em um universo concreto que envolve a interação entre sistemas complexos e diferenciados, como os processos fisiológicos, neurológicos e todas as relações que derivam e compõem o sistema vivo e em permanente transformação em que os seres humanos estão inseridos.

Bateson cunhou a frase que define informação como “a diferença que faz a diferença” (BATESON, 1999b, p. 459). Se associarmos esse enunciado ao contexto apresentado acima, podemos considerar a diferença que faz diferença como o indicador de variação de padrões através dos quais uma informação se organiza e, com isso, pode ser reconhecida, ou seja, ganhar significado. Logan apresenta ainda outra definição, trazida de Ed Fredkin, que associa o significado da informação ao processo que a interpreta. Essa definição se aproxima da ideia de transdução, que é o processo de conversão de códigos que faz com que sinais de tipos diferentes possam ser decodificados em uma transmissão.

A questão que nos interessa aqui é associar esse processo de interpretação da informação a um processo de transformação de energia. Ao tratar de informação, Simondon mostra o contraponto entre as teorias da forma e da informação, como vimos na Introdução. Bateson, por sua vez, ao sintetizar o processo de conhecimento no breve ensaio How much do you know, apresentado na forma de diálogo didático entre um pai e um filho, contrapõe a operação de soma à operação de multiplicação (1999d, p. 21 a 26). As substâncias definidas, as coisas individuadas – os indivíduos físicos em Simondon, que abordaremos com maior nível de detalhe a seguir – são, para Bateson, produto do conhecimento pela via da soma de suas características. Já entidades complexas como os processos dinâmicos que envolvem relações transindividuais – se nos permitirmos usar aqui os termos de Simondon – só podem ser parcialmente conhecidas através de uma sucessão de muitas perguntas, desdobradas umas das outras, ou seja, em um processo multiplicativo. Bateson compara esse processo multiplicativo a um processo de adivinhação. Uma pergunta sempre levará a pelo menos duas respostas. Sim e não. Esse é o processo binário que fundamenta a teoria da informação. Por isso esse tipo de conhecimento, como também descreveu

Simondon, é tão mais detalhado e profundo quanto maior for a quantidade de informação investida nele.

Temos então que o processo de conhecimento de sistemas fechados, com atributos definidos, é obtido através de limites estabelecidos pela soma de atributos que constituem seu conjunto. E quanto mais bem definidos esses limites, menor a quantidade de informação necessária para a obtenção do resultado final – a forma da entidade em questão.

Em resumo, informação é, na definição mais geral de Shannon, a medida de redução de incerteza na operação de atravessamento de um sinal entre um emissor e um receptor. Em um sistema condutor no qual ambos, emissor e receptor, “falam a mesma língua”, possuem o mesmo código de tradução do sinal, a transmissão da mensagem se dá sem processos de transformação de energia de nenhuma das partes envolvidas. Ela circula livremente, sem atrito, como em um modelo ideal de vácuo. Mas nos processos que envolvem relações transindividuais, ou seja, envolvem elementos que possuem códigos heterogêneos de decodificação dos sinais em interação recíproca, a operação de transmissão de informação requer a mediação de um processo de transdução. O processo de transdução, como vimos no capítulo 1, envolve uma transformação de energia.

A conversão de um sinal entre partes que operam a partir de códigos distintos – a transdução – consome energia dos elementos envolvidos. Emissor ou receptor ou ambos necessitam ter um suprimento de energia disponível para converter o código e ser informados por ele. Informação é, no entanto, também sinônimo de ressonância. O receptor, com o código de identificação da mensagem, a compreende sem perda de energia, porque já adquiriu os mecanismos de conversão. Mas, insistimos, qualquer comunicação ou recepção de sinal que necessite do desenvolvimento de um processo de transdução irá exigir de alguma das partes do sistema um investimento de energia na decodificação.

Após essa breve revisão do histórico dos debates sobre as relações entre as noções de informação, significado e energia, vamos observar como esse conjunto se insere no pensamento de Gilbert Simondon, a partir dos desdobramentos de seu enunciado de que “a percepção é a invenção de uma forma” que apresentamos no começo deste capítulo.