• Nenhum resultado encontrado

O Papel do Ruído como Princípio de Auto-organização em Atlan

Capítulo 2: A Auto-organização de Henri Atlan e Edgar Morin

2.2. A Ordem a Partir do Ruído de Henri Atlan

2.2.2. O Papel do Ruído como Princípio de Auto-organização em Atlan

O Segundo Princípio da Termodinâmica foi estabelecido (por Carnot, Kelvin e Clausius) a partir de noções de energia livre (ou utilizável) e de entropia (grandeza macroscópica que mede a quantidade de calor não-utilizável, ou de calor não transformável em trabalho – por unidade de temperatura).

O enunciado de Kelvin-Planck indica que um sistema, operando em um ciclo térmico, não pode produzir uma quantidade positiva de trabalho nas suas vizinhanças se estiver acoplado a uma única fonte de calor; ou seja, para que a quantidade de trabalho seja positiva é

“On voit que ces nouvelles questions vont bien au-delà de la classique dispute sur la possibilité ou non

20

de réduire la vie à la physico-chimie. Ces questions sur la logique de l’organisation recherchent des réponses valables à la fois pour des systèmes physico-chimiques non vivants et pour des systèmes vivants” (Atlan, 1979, p. 22).

preciso existir pelo menos duas fontes térmicas com diferentes temperaturas. O enunciado de Clausius para esta lei diz que é impossível construir um dispositivo que opere segundo um ciclo termodinâmico e não produza outro efeito a não ser a transferência de calor de um corpo frio para um corpo quente. Pode-se mostrar que estes dois enunciados são equivalentes. (Bresciani Filho, D’Ottaviano & Milanez, 2008, p. 26)

Sob esta forma, o princípio nos diz que um sistema físico isolado evolui inevitavelmente para um estado de entropia máxima, que ele atinge quando fica em equilíbrio.

Em sua formulação estatística – devida a Boltzmann – este princípio efetivamente nos diz que um sistema físico, estando isolado, evolui inevitavelmente para um estado maior de “desordem” molecular. Assim, Boltzmann mostra a igualdade entre esta quantidade de calor não-utilizável e uma medida do estado de “desordem” molecular baseada no estudo das probabilidades de ocorrência dos seus estados energéticos possíveis (“microestados” do sistema”). Na física, pode-se definir desorganização como distribuição totalmente aleatória de objetos, homogeneidade estatística.

Inspirados na Segunda Lei da Termodinâmica, Weaver & Shannon (1949) elaboraram a Teoria Matemática da Comunicação, na qual a probabilidade de presença de um determinado sinal serve para medir a quantidade de informação trazida por ele,

sem que sua significação seja jamais levada em conta.

Formalmente, tal teoria resulta numa expressão matemática muito próxima da de Boltzmann para a entropia:

• Medida da quantidade de informação (Shannon): H = - Σi pi log pi

onde pi: probabilidade de presença de signos

• Entropia (Boltzmann): S = -k Σi pi log pi

onde k = 1,38 x 10-23 J/K (Constante de Boltzmann)

e pi: probabilidade de ocorrência do estado microscópico i

Sem a constante k, a medida estatística da entropia física seria rigorosamente idêntica à da medida da quantidade de informação ou “entropia de mensagem”, como a chamou Shannon. Mas, nesse caso, ela não teria relação com a

medida energética da entropia como calor não utilizável. Desta forma, torna-se aparente, em Atlan, que esta constante k exprime, no nível microscópico, a presença de uma experiência sensorial, macroscópica, da matéria e da energia. O papel de k é, então, projetar uma significação na medida probabilística de uma ordem inicialmente desprovida de significação. “De fato, é como se a multiplicação por k transformasse a

medida de uma ordem probabilística sem significação numa medida de ordem com vistas a sua utilização energética numa máquina” (Atlan, 1993, p. 33). A constante k

desempenha o papel de “quantum de significação” que transforma uma ordem não- significada das probabilidades em ordem utilitária.

Esta concepção é aparentemente essencialista, uma vez funciona como se a significação já estivesse “objetivamente” contida na matéria; entretanto, esta significação é, ao menos em parte, projetada pelo observador em função das condições de utilização que ele define.

Tomar a grandeza entropia como medida de desordem implica uma definição puramente probabilística da ordem, uma definição da qual, ou a significação está ausente, ou em que é reduzida e uniformizada, como vimos. Trata-se, também neste caso de uma definição operacional que funciona em situações em que é possível abstrair as significações […] Ora, também aqui, embora a ignoremos, a significação continua presente. Uma ordem observada na natureza só aparece como tal aos olhos do observador que nela projeta significações conhecidas ou supostas. Por isso, medir a desordem física pela entropia implica que consideremos apenas um aspecto muito particular da ordem. (Atlan, 1993, p. 34) 21

Resta avaliar a questão da realidade e do lugar destas significações: trata-se características inerentes ao objeto (sistema) observado, ou o resultado de projeções do observador? Ou ainda, ambas as coisas, reunidas na operação de observação ? 22

Seria errôneo considerar o neomecanicismo abordado por Atlan, que estaria se impondo progressivamente na biologia desde as origens da cibernética, como uma

“Prendre comme mesure du désordre la grandeur entropie implique une définition de l’ordre purement

21

probabiliste d'où la signification est soi absente, soit réduite et uniformisée comme on l’a vu. Il s’agit là aussi d’une définition opératoire qui marche dans de situations où l’on peut faire abstraction des significations. […] Or, ici aussi, bien q’on l’ignore, la signification est toujours lá. Un ordre observé dans la nature n’apparaît comme tel qu’à l’observateur qui y projette des significations connues ou supposées. Aussi, mesurer le désordre physique par l’entropie implique qu’on l’envisage qu’un aspect très particulier de l’ordre” (Atlan, 1979, p. 37)

Em alguns momentos, Atlan parece usar “ordem" e “organização” como sinônimos; retornaremos a

22

estas definições quando da descrição das Teorias da Auto-organização de Edgar Morin e de Michel Debrun.

continuação do mecanicismo do século XIX e do início do século XX. A distinção reside na natureza das máquinas artificiais, “referenciais em relação aos quais se observam e analisam não apenas as semelhanças, mas, também e principalmente, as diferenças” (Atlan, 1993, p. 37). Uma das mais importantes diferenças reconhecidas entre as máquinas artificiais e as naturais é a aptidão destas últimas para integrar o ruído. Na lógica dos sistemas auto-organizadores, Atlan atribui aos organismos não apenas a propriedade de resistir eficazmente ao ruído, mas também de utilizá-lo a ponto de transformá-lo num fator de organização.

[…] nos sistemas complexos, o grau de organização não pode ser reduzido nem a sua variedade [de respostas disponíveis] (ou a sua quantidade de informação) , nem a sua redundância, mas deve 23

consistir num compromisso ótimo entre essas duas propriedades opostas. (Atlan, 1993, p. 39) 24

A definição de “ordem a partir do ruído” de Atlan decorre como consequência de sua leitura de Ashby. Este nos afirma a impossibilidade lógica da existência de auto-organização em um sistema completamente fechado ; Atlan, então, 25

infere que as únicas mudanças capazes de implicar a organização em si – e não apenas uma mudança de estado no sistema que já exista (ainda que potencialmente) em sua organização – são as produzidas externamente. Estas mudanças podem ser programas precisos, inseridos artificialmente no sistema, ou fatores aleatórios nos quais é impossível estabelecer qualquer lei que prefigure uma organização, qualquer padrão que

Seria esta uma “definição” de informação? Informação seria igual a variedade? É importante notar que,

23

neste ponto, Atlan insere uma nota de fim de capítulo referindo a Von Foerster, indicando absorver deste a identidade entre variedade(s) e quantidade de informação. Retomaremos esta discussão na Seção 3.1.2 do próximo capítulo.

“[…] dans des systèmes complexes, le degré d’organisation ne pourra être réduit ni à sa variété (ou à sa

24

quantité d’information), ni à sa redondance, mais consistera en un compromis optimal entre ces deux propriétés opposées” (Atlan, 1979, p. 43).

“Um sistema é aberto quando os pontos de fronteira pertencem ao ambiente. Um sistema é fechado

25

quando os pontos de fronteira pertencem ao sistema. Se um elemento f pertence à fronteira do sistema, então f pode pertencer e não-pertencer ao universo da estrutura. Um sistema é isolado quando não mantém inter-relação com o ambiente. O sistema isolado não pode ter fronteira. Mas o complementar do sistema isolado também não tem pontos de fronteira com ele. Um sistema é totalmente aberto quando todos os seus elementos são internos, e não há pontos de fronteira, nem no ambiente, o complementar também é aberto” (Andrade, 2011, p. 64-65). De acordo com estas definições, Ashby afirmaria a impossibilidade de auto-organização em sistemas isolados.

permita discernir um programa . “Esse é o momento em que poderemos falar de auto-26

organização, mesmo que não seja no sentido estrito” (Atlan, 1993, p. 40). Veremos, ainda neste capítulo, como Atlan trata os “níveis” de auto-organização, clarificando seu comentário anterior.

Pode-se conceber um papel “positivo”, organizacional, como fator de complexificação, do ruído – dentro do contexto da teoria da informação e da Teoria da Auto-organização de Atlan – lembrando que os fatores de ruído diminuem a redundância do sistema em geral e, “por isso mesmo, aumentam sua quantidade de informação” (Atlan, 1993, p.43). É claro, entretanto, que, como o funcionamento do sistema depende da transmissão de informações pelas vias de um subsistema a outro, o clássico papel destrutivo do ruído não pode ser ignorado; assim, um sistema com numerosas interconexões internas e redundância inicial suficientemente grande ainda será capaz de continuar a funcionar e sua quantidade de informação total terá aumentado.

De maneira mais geral, podemos conceber a evolução de sistemas auto-organizados, ou o fenômeno da auto-organização, como um processo de aumento de complexidade, simultaneamente estrutural e funcional, resultante de uma sucessão de desorganizações resgatadas, acompanhadas, em todas as ocasiões, pelo restabelecimento num nível de variedade maior e de redundância mais baixa. (Atlan, 1993, p. 45) 27 Esta auto-organização se trata de aumento de complexidade aparentemente espontânea, mas efetivamente provocada por fatores aleatórios do ambiente, de acordo com o pensamento do autor. Há, entretanto, algumas características que devem estar presentes no sistema para que ele seja capaz de apresentar auto-organização:

• Redundância inicial → tem caráter estrutural, redundância de módulos, simples repetição de elementos estruturais. Para que um sistema tenha propriedades

Ashby faz afirmação semelhante, mas Atlan ignora, neste trecho, outra afirmação mais forte: “The

26

system would be ‘self-organizing’ if a change were automatically made to the feedback, changing it from positive to negative. […] no machine can be self-organizing in this sense” (Ashby, 1962, p. 267). (“O sistema seria ‘auto-organizado’ se uma mudança ocorresse automaticamente ao feedback, alterando-o de positivo para negativo. […] nenhuma máquina pode ser auto-organizada neste

sentido”, tradução nossa).

“De façon plus générale on peut concevoir l'évolution de systèmes organisés, ou le phénomène d’auto-

27

organisation, comme un processus d’augmentation de complexité à la fois structurale et fonctionnelle résultant d’une succession de désorganisations rattrapées suivies chaque fois d’un rétablissement à un niveau de variété plus grande et de redondance plus faible” (Atlan, 1979, p. 49).

auto-organizadoras, é necessário que esta redundância seja alta, visto que tais propriedades consistem num aumento de complexidade por meio da destruição desta redundância.

• Confiabilidade → característica funcional, exprime a eficácia da organização em sua resistência às mudanças aleatórias; pode medir, ainda, a duração de uma fase de complexidade crescente.

Atlan afirma ser possível que tais mecanismos também sejam importantes nos fenômenos de aprendizagem adaptativa não dirigida, nos quais o indivíduo se adapta a uma situação radicalmente nova, em que é difícil recorrer a um programa preestabelecido. Voltaremos a este ponto no Capítulo 3, quando trataremos a auto- organização secundária (a la Debrun)

Se há uma metáfora cibernética apta a ser utilizada para descrever o papel do genoma, a da memória nos parece muito mais adequada que a de programa, pois esta última implica todos os mecanismos de regulação que não se acham presentes no próprio genoma. Sem isso, não evitamos o paradoxo do programa que precisa dos produtos de sua execução para ser lido e executado. Ao contrário, as teorias de auto- organização permitem compreender a natureza lógica de sistemas onde o que desempenha a função de programa se modifica sem parar, de maneira não preestabelecida, sob efeito de fatores “aleatórios” do ambiente, produtores de “erros” no sistema. (Atlan, 1993, p. 51) 28 O acaso poderia, então, ser definido como a intersecção de duas ou mais cadeias de causalidade independentes; as causas de sua ocorrência não têm a ver diretamente com o encadeamento dos fenômenos que constituiu a história anterior do sistema.