• Nenhum resultado encontrado

Informação, Complexidade pelo Ruído e Significado

Capítulo 2: A Auto-organização de Henri Atlan e Edgar Morin

2.2. A Ordem a Partir do Ruído de Henri Atlan

2.2.3. Informação, Complexidade pelo Ruído e Significado

O essencial do estudo da organização e do acaso em Atlan reside em saber como e em que condições a oposição entre organizado e aleatório pode ser substituída

“Si une métaphore cybernétique peut être utilisée pour décrire le rôle du génome, celle de mémoire

28

nous semble beaucoup plus adéquate que celle de programme, car cette dernière implique tous les mécanismes de régulation qui ne sont pas présents dans le génome lui-même. Faute de quoi on n’évite pas le paradoxe du programme qui a besoin des produits de son exécutions pour être lu et exécuté. Au contraire, les théories de l’auto-organisation permettent de comprendre la nature logique de systèmes où ce qui fait office de programme se modifie sans cesse, de façon non préétablie, sous l’effet de facteurs ‘aléatoires’ de l’environnement, producteurs d’ ‘erreurs’ dans le système” (Atlan, 1979, p. 56).

por uma espécie de cooperação em que, inevitavelmente, os conceitos de organizado e o de aleatório adquirem novos conteúdos. Resumidamente, Atlan (1993, p. 56-57) afirma que a teoria da informação de Shannon deixa de lado três tipos de problemas:

• Criação da informação: o segundo teorema de Shannon enuncia explicitamente que a informação transmitida por uma via não pode ser criada (visto que pode, na melhor das hipóteses, ser conservada, ou então destruída por efeitos do ruído).

• Formas hierárquicas de organização: a fórmula de Shannon ignora os encaixes mútuos de diversos níveis de organização mais ou menos integrados.

• Significação da informação: a fórmula de Shannon despreza o sentido da mensagem.

Ainda assim, existem alguns poucos casos (isolados mas importantes) em que há transmissão da informação, na biologia molecular, da forma rigorosa de Shannon: é o caso da via que constitui a replicação de DNA e da que constitui a síntese de proteínas. Por este motivo, Atlan afirma ser interessante avançar com o formalismo desta teoria, levando-a a extremos para procurar resolver os problemas levantados.

O primeiro problema acima pode ser resolvido na expressão de uma lógica da auto-organização ao estilo de Atlan, por diminuição da redundância, sob o efeito dos fatores de ruído: um meio de criação de informação a partir de perturbações aleatórias. Isto decorre de uma mudança de ponto de vista acerca do papel do ruído nas comunicações no interior do sistema.

Podemos, entretanto, considerar que a diferença de pontos de vista não depende apenas da lógica, mas pode corresponder a níveis diferentes de organização hierárquica (o que já abordaria o segundo problema levantado acima). Como passamos de um nível para outro? Atlan afirma que devemos considerar que o observador, externo ao sistema, é, de fato (e não apenas logicamente), num sistema hierarquizado, o nível de organização superior (englobante), comparado aos sistemas-elementos que o constituem. É em relação a ele que os efeitos do ruído sobre uma via interior do sistema, em certas condições, podem ser positivos.

Em outras palavras, para a célula que olha as vias de comunicação que a constituem, o ruído é negativo. Mas, para o órgão que olha a célula, o ruído nas vias do interior da célula é positivo (desde que não mate a célula), pelo fato de aumentar o grau de variedade, e, portanto, os desempenhos reguladores de suas células. (Atlan, 1993, p. 61) 29 Essas considerações permitem a criação de um esboço de teoria da organização, definida por uma dinâmica de variação da quantidade de informação no tempo e, na qual, a cada instante, o grau de organização não é definido por um ponto numa reta, mas por três parâmetros: dois que exprimem um compromisso entre a redundância e a variedade, e a ordem repetitiva e a ordem por baixa probabilidade (ordre par improbabilité); o terceiro é um parâmetro de confiabilidade que exprime uma espécie de inércia do sistema em relação às perturbações, cujo efeito pode ser positivo ou negativo, conforme os níveis. “A teoria da auto-organização fornece um princípio geral de diferenciação pela destruição, eventualmente aleatória, de uma redundância que caracteriza o estado inicial de indiferenciação” (Atlan, 1993, p. 62).

O terceiro problema, da significação, continua presente (por exemplo, nas noções de codificação e decodificação), de maneira implícita, em todas as utilizações de quantidade de informação ou de entropia para avaliar o estado de complexidade, de ordem ou desordem de um sistema. Cabe, aqui, uma comparação entre as noções de 30

Atlan e von Foerster:

• von Foerster – Ordem pelo Ruído: aumento da ordem repetitiva e da redundância ; 31

• Atlan – Organização ou Complexidade pelo Ruído: aumento da informação, em oposição à formulação de von Foerster.

Atlan prefere reservar, assim, o termo ordem para aquilo que é medido por uma redundância, sendo a variedade e a complexidade medidas pela quantidade de

“Autrement dit: pour la cellule qui regarde les voies de communications qui la constituent, le bruit est

29

négatif. Mais pour l’organe qui regarde la cellule, le bruit dans les voies à l’intérieur de la cellule est positif (tant qu’il ne tue pas la cellule) en ce qu’il augmente le degré de variété, donc les performances régulatrices, de ses cellules” (Atlan, 1979, p. 70).

Ou “organização" e “desorganização”. Discutiremos estes conceitos com maior detalhe no Capítulo 3.

30

“[…] I shall call the principle I am going to introduce to you presently the ‘order from noise’ principle.

31

Thus, in my restaurant self-organizing systems do not only feed upon disorder, they will also find noise on the menu” (Von Foerster, 1960, p.11). (“Chamarei o princípio que vou introduzir hoje a vocês de princípio da ‘ordem a partir do ruído’. Portanto, em meu restaurante, sistemas auto-organizados não apenas se alimentam de desordem, mas também encontram ruído no menu”).

informação, função H de Shannon. A quantidade de informação de um sistema (a função

H de Shannon) seria, então, a medida da informação que nos falta, a incerteza sobre

esse sistema (já que, se soubéssemos mais sobre o sistema, este conhecimento nos apareceria como redundância). Quando analisamos níveis hierárquicos superiores, H diminui. Por exemplo, a entropia de um conjunto de átomos é maior que o de um conjunto de moléculas, pois já “incorporamos” a informação sobre o modo como os átomos se ligam na análise. Se conhecermos os elementos constitutivos do sistema e sua distribuição de probabilidades (isto é, a frequência com que cada elemento é observado na análise de uma classe de sistemas supostamente homogênea em termos estatísticos) poderemos calcular essa informação que nos falta para sermos capazes de reconstituir o sistema a partir de seus elementos, isto é, de compreendê-lo.

É nesse sentido que a função H de Shannon, chamada de quantidade de informação, porém, mais precisamente, de entropia, incerteza, informação que nos falta, mede a complexidade – para nós, observadores – desse sistema. Compreende-se, pois, em que essa medida depende crucialmente do nível de observação, ou, mais precisamente, da escolha do que se consideram elementos constitutivos. (Atlan, 1993, p. 64) 32

O valor numérico de H pode variar consideravelmente, porque depende da escolha dos elementos constitutivos: partículas elementares, átomos, moléculas, macromoléculas, organelas, células, órgãos, organismos, unidades de produção e consumo, sociedades, etc. H (informação) mediria a complexidade, por designar a informação que não possuímos, e R (redundância) mediria a simplificação, por exprimir uma informação que possuímos, ao menos parcialmente, sob a forma de probabilidades condicionais.

É assim que a complexidade é reconhecida como uma noção negativa: ela exprime que não conhecemos ou não compreendemos um sistema, apesar de uma base de conhecimento global que nos faz reconhecer e nomear esse sistema. Um sistema que possamos especificar explicitamente, cuja estrutura detalhada conheçamos, não é realmente complexo. Pode ser, digamos, mais ou menos complicado. A complexidade implica que temos dela uma percepção global, tendo, ao

“C’est en cela que cette fonction H de Shannon, dite quantité d’information, mais plus précisément

32

entropie, incertitude, information qui nous manque, mesure la complexité, pour nous observateurs, de ce système. On comprend alors en quoi cette mesure dépend de façon critique du niveau d’observation, ou plus exactement du choix de ce qui est considéré comme éléments constitutifs” (Atlan, 1979, p. 75).

mesmo tempo, a percepção de que não a dominamos em seus detalhes. (Atlan, 1993, p. 66) 33

É importante diferenciar, aqui, complexidade e complicação: complicação só exprime, no máximo, um grande número de etapas ou instruções para descrever, especificar ou construir um sistema a partir de seus componentes. Podemos medir a complicação de um sistema pelo número de etapas necessárias, percorridas por uma máquina de Turing, para descrevê-lo a partir de seus componentes, com a ajuda de um programa de instrução. Neste caso

[…] a função H (complexidade, informação que não possuímos sobre o sistema) poderia ser reduzida a zero, ao passo que a redundância, que expressa as restrições, seria máxima, igual a 1. De fato, nesse caso, o sistema poderia ser descrito, se desejássemos, com o auxílio de um único elemento constitutivo, o que, como se sabe, reduziria sua quantidade de informações a zero. Esse elemento único seria seu programa de construção. (Atlan, 1993, p. 66) 34

Uma complexidade ordenada, portanto, já não é complexa. Só pode ser complicada. Porém, nem toda desordem é necessariamente uma complexidade na Teoria da Auto-organização de Atlan. Uma desordem somente se afigura complexa em relação a uma ordem que temos razões para acreditar que exista, e que procuremos decifrar. A complexidade é uma desordem aparente em sistemas nos quais temos razões para presumir uma ordem oculta; “ou ainda, a complexidade é uma ordem cujo código não conhecemos” (Atlan, 1993, p. 67). A existência de restrições internas no interior do sistema equivale a uma redundância; daí que esta seja uma medida da simplicidade e da “ordem”. Assim, a ordem seria essencialmente repetitiva e redundante.

O Princípio do Ruído Organizacional ou da Complexidade pelo Ruído significa, neste contexto, que o ruído que reduz as restrições dentro de um sistema aumenta sua complexidade. Visto que o sistema continua a existir e a funcionar, isso

“C’est ainsi que la complexité est reconnue comme une notion négative: elle exprime qu’on ne connaît

33

pas, ou qu’on ne comprend pas un système, malgré un fond de connaissance global qui nous fait reconnaître et nommer ce système. Un système qu’on peut spécifier explicitement, dont on connaît la structure détaillée, n’est pas vraiment complexe. Disons qu’il peut être plus ou moins compliqué. La complexité implique qu’on en ait une perception globale, avec en même temps la perception qu’on ne la maîtrise pas dans ses détails” (Atlan, 1979, p. 76).

“[…] la fonction H (complexité, information qu’on ne possède pas sur le système) pourrait être réduite

34

à zéro tandis que la redondance, exprimant les contraintes, serait maximale, égale à 1. En effet, dans ce cas, le système pourrait être décrit si on le désire à l’aide d’un seul élément constitutif, ce qui réduirait comme on sait sa quantité d’information à zéro. Cet élément unique serait son programme de construction” (Atlan, 1979, p. 77).

significa que, para ele, essa complexidade continua funcional e, por conseguinte, proporciona a ele um excedente de informação, que ele eventualmente utiliza para uma melhor adaptação a novas condições. Isso é o que diz o Princípio da Complexidade pelo Ruído, a respeito do qual Atlan estabelece a possibilidade de uma auto-organização por diminuição da redundância.

Num sistema hierarquizado em diferentes níveis de generalidade, o Princípio de Complexidade pelo Ruído exprime que um aumento da informação (complexidade) é observado quando da passagem de um nível inferior (mais elementar) para um nível mais geral (englobante):

Podemos agora compreender que essa informação que o sistema teria a seu próprio respeito, que lhe permitiria funcionar e existir evoluindo é, na verdade, a significação da informação transmitida pelas vias de comunicação que o constituem. Com efeito, da maneira operacional mais simples e mais geral, podemos definir a significação da informação como o efeito do recebimento dessa informação em seu destinatário. Esse efeito pode aparecer seja sob a forma de uma mudança de estado, seja sob a de um “output” do próprio destinatário, encarado como subsistema. (Atlan, 1993, p. 74) 35

Desta forma, a própria evolução do sistema hierarquizado para outro estado, sob influência da informação, é o que o autor chama de “significação”: é pelo fato de a informação ser medida (por nós) por uma fórmula da qual o sentido está ausente, que seu oposto, o ruído, pode ser gerador de informação. No nível de uma via de comunicação interna a um organismo, a significação da informação é sua funcionalidade.

Assim, o princípio da complexidade através do ruído, ou seja, a idéia de um ruído de efeitos positivos, é a maneira deturpada que temos de

“On peut comprendre maintenant que cette information que le système aurait sur lui-même, qui lui

35

permet de fonctionner et d’exister en évoluant, c’est en fait la signification de l’information transmise dans les voies de communication qui le constituent. En effet, on peut définir, de la façon opérationnelle la plus simple et la plus générale, la signification de l’information comme l’effet de la réception de cette information sur son destinataire. Cet effet peut apparaître soit sous la forme d’un changement d’état, soit sous celle d’un ‘output’ de ce destinataire lui-même envisagé comme un sous- système” (Atlan, 1979, p. 86).

introduzir os efeitos do sentido, da significação, numa teoria quantitativa da organização. (Atlan, 1993, p. 75)36 37,

2.2.4. Auto-organização Fraca, Forte e Verdadeira (Estrutural, Funcional e