• Nenhum resultado encontrado

Crítica à tentativa de definir o determinismo por meio do Demônio de Laplace

N/A
N/A
Protected

Academic year: 2021

Share "Crítica à tentativa de definir o determinismo por meio do Demônio de Laplace"

Copied!
11
0
0

Texto

(1)

1

Crítica à tentativa de definir o determinismo

por meio do Demônio de Laplace

Douglas Ricardo Slaughter Nyimi

Escola Politécnica da Universidade de São Paulo, PEA E-mail: dougslaughter10@usp.br

José Aquiles Baesso Grimoni

Escola Politécnica da Universidade de São Paulo, PEA E-mail: aquiles@pea.usp.br

1 INTRODUÇÃO

A crença no determinismo laplaciano é muito comum dentro da comunidade científica, especialmente entre aqueles que são conhecedores da física.

A grosso modo, aqueles que subscrevem o determinismo acreditam que a previsão de qualquer fenômeno é sempre possível em princípio. Para tanto, seria necessário conhecer as leis que regem a natureza, o estado exato do universo em um dado instante e ter poder infinito de cálculo.

Todos reconhecem que geralmente, na prática, a previsão precisa é impossível. Essa impossibilidade é justificada por restrições circunstanciais. O impedimento se daria por questões operacionais (precisão infinita de dados, quantidade e complexidade das equações, quantidade de interações, etc). Por isso, acredita-se, também, que, apesar das dificuldades práticas, as previsões poderiam ser arbitrariamente precisas e os desvios atribuídos a algum tipo de ignorância.

Em engenharia, estas noções são particularmente populares e, inclusive, constituem pressupostos de trabalho. Por exemplo, em engenharia de sistemas se assume implicitamente que sistemas físicos podem, em princípio, ser completamente descritos e esgotados através das leis físicas e das ferramentas matemáticas, em especial, as equações diferenciais. Tais sistemas só não seriam esgotados, porque tornaria o problema intratável, já que o equacionamento seria muito complexo com uma quantidade enorme de equações e dados.

A questão da possibilidade de previsão é um aspecto importante para a engenharia, seja para prever o comportamento específico de certos sistemas, seja para fazer planejamento. Previsões precisas são muitas vezes necessárias.

Assim sendo, ao refletir um pouco sobre a questão da previsibilidade, naturalmente surge a pergunta: até que ponto somos realmente capazes de fazer previsões precisas? Ou uma indagação mais básica: será que as previsões realmente são sempre possíveis, pelo menos, em princípio?

A discussão feita neste trabalho tem como objetivo principal questionar a crença na previsibilidade completa dos sistemas físicos através de leis e cálculos. Ao focar na questão da previsão, trata-se de distinguir a noção de previsibilidade da noção de causalidade e, assim procedendo, evitar o difícil debate desta última. Estas duas noções são, muitas vezes, associadas indevidamente.

Para dar tratamento a este assunto, serão desenvolvidos os conceitos de computabilidade e de caos determinístico, além de uma série de questões matemáticas relevantes à física, aos modelos e, em suma, às pretensões do determinismo laplaciano, que é a da possibilidade teórica de prever todo e qualquer fenômeno físico através de uma “inteligência” conhecida como o “Demônio de Laplace”.

(2)

2 2 DETERMINISMO LAPLACIANO

A principal ideia de determinismo (e de ciência determinística) surgiu no começo do século XIX e foi proposta pelo matemático e astrônomo francês Pierre-Simon de Laplace (1749-1827). O determinismo laplaciano e seus “parentes” próximos foram as únicas variedades de determinismo que receberam atenção na literatura filosófica (Earman, 1986). Sua influência foi tão significativa que as próprias definições e conotações que o termo adquiriu nos dicionários1 guardam clara semelhança com a proposta de Laplace.

Laplace desenvolveu sua noção de determinismo em alguns de seus trabalhos. Objetivamente, a essência de tal proposta apareceu na introdução de seu Essai philosophique sur les probabilités de 1814, em um trecho que dizia o seguinte:

Podemos considerar o estado presente do universo como o efeito de um estado anterior e como a causa daquele que vai seguir. Uma inteligência que, em um instante dado, conhecesse todas as forças que animam a natureza e a situação respectiva daquilo que a compõe, aliás se ela fosse suficientemente vasta para submeter esses dados à análise, abrangeria, dentro da mesma fórmula, os movimentos dos maiores corpos do universo e dos átomos mais ligeiros: nada seria incerto para ela e o futuro, como o passado, estariam presentes aos seus olhos2.

Esta declaração começa com um tom de causalidade e termina identificando determinismo com previsibilidade (Earman, 1986). Nessa concepção, a causalidade e a possibilidade de previsão em princípio são vistos como inseparáveis. Veremos que tal associação não se justifica.

2.1 ANTECEDENTES E CONTEXTO PARA O DETERMINISMO LAPLACIANO O paradigma de ciência da modernidade foi desenvolvida nos séculos XVI, XVII e XVIII e ainda tem forte influência sobre a ciência contemporânea.

Essa influência é sentida, principalmente, em certos ideais científicos como o ideal de simplicidade, de conhecimento certo, evidente, infalível e imutável, de apriorismo, de unificação do conhecimento em uma única teoria, de determinismo (no sentido de possibilidade de prever em princípio qualquer evento), de fé cega com relação às capacidades racionais e lógicas humanas, etc.

Com as contribuições científicas de seus predecessores e a nova gama de crenças, Isaac Newton (1643-1727) desenvolveu uma teoria que impressionou profundamente os cientistas dos séculos XVII, XVIII e XIX, pois representou uma grande síntese. Representou uma grande síntese porque unificou fenômenos celestes e terrestres, pois era capaz de explicar e/ou prever, na mesma teoria, o movimento dos corpos e o fenômeno

1 Comparar a noção laplaciana com, por exemplo, a seguinte definição de determinismo dada pelo

dicionário Houaiss de Língua Portuguesa:

“Princípio segundo o qual todos os fenômenos da natureza estão ligados entre si por rígidas relações de causalidade e leis universais que excluem o acaso e a indeterminação, de tal forma que uma inteligência capaz de conhecer o estado presente do universo necessariamente estaria apta também a prever o futuro e reconstituir o passado.”

2 Nous devons done envisager l’état présent de l’univers comme l’effet de son état antérieur et comme la

cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaitrait toutes le forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’Analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome: rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. (Laplace, 1878-1912, v. 7, pp. vi-vii)

(3)

3

das marés, na Terra, e o comportamento dos planetas e luas, no espaço. Também foi capaz de unificar teorias dispersas, incorporando-as. Por exemplo, as leis empíricas de Kepler, que descreviam o movimento dos planetas. Na teoria da gravitação, tais leis podiam ser simplesmente deduzidas dos princípios gerais, ou seja, das leis da gravitação e da dinâmica.

A teoria de Newton desenvolveu-se nos séculos XVIII e XIX e, através de sucessivos refinamentos das equações newtonianas do movimento, expandiu a análise para uma faixa mais ampla de fenômenos. Uma das pessoas que refinou as soluções de Newton foi justamente Laplace. Para o sistema solar, por exemplo, Newton forneceu apenas características gerais. Laplace refinou os cálculos e foi capaz de explicar o movimento dos planetas, luas e cometas em seus mínimos detalhes.

Laplace viveu na época do auge da teoria mecânica newtoniana, quando as aplicações bem-sucedidas estavam em expansão. Particularmente, para grande parte dos cientistas dos séculos XVIII e XIX, a teoria newtoniana era considerada uma descrição fiel e completa de todo o mundo físico.

E, justamente, a afirmação de Laplace pressupõe que todos os fenômenos da natureza fossem redutíveis à mecânica newtoniana e equacionados através do cálculo diferencial desenvolvido até aquela data. Ou seja, de que todos os fenômenos nada mais seriam do que choques e interações gravitacionais (forças) descritas completamente pelas leis de Newton expressas por equações diferenciais.

2.2 O DEMÔNIO DE LAPLACE

Na famosa citação de Laplace é mencionada uma inteligência sobrenatural, que ficou conhecida como o “Demônio de Laplace”. Esta entidade possuiria uma série de características, as quais definem, de certa forma, a noção de determinismo e personificam a possibilidade de previsão. Nas palavras de Pessoa Jr. (2005, p. 184): “Um exemplo famoso seria o “Demônio de Laplace”, que é utilizado para que se dê sentido à expressão “previsibilidade em princípio” usado na definição de determinismo”.

Segundo Pessoa Jr (2005), as características do “Demônio de Laplace” são: 1) Onisciência instantânea: conhece o estado de todo o universo num t. Determinação das condições iniciais com precisão numérica infinita.

2) Erudição científica (nomológica): conhecimento das leis que regem o universo. Neste caso, as leis da mecânica clássica.

3) Super-inteligência: poder de computação. Usando as leis e os dados das condições iniciais, calcula (determina) a situação de qualquer instante do universo.

4) Não-distúrbio: o demônio não afeta de nenhuma forma o funcionamento da realidade. Estas características foram propostas no começo do século XIX e este demônio precisou ser revisto dado os diversos avanços da física. Por exemplo, em meados do século XIX, a teoria eletromagnética foi formalizada e, apesar das muitas tentativas (inclusive do próprio Maxwell), se constatou que ela não era redutível à mecânica newtoniana. Era uma teoria independente.

Posteriormente, no início do século XX, a teoria da relatividade e a mecânica quântica deram o coup de grace à física newtoniana: uma teoria, considerada por quase 200 anos como sendo a descrição fiel da totalidade da realidade física, foi relegada ao nível de uma mera aproximação de uma parte dos fenômenos conhecidos.

No entanto, apesar das novas descobertas, ainda era possível sustentar a ideia de determinismo laplaciano, pois boa parte das principais teorias da física são semelhantes à teoria newtoniana no seguinte quesito: conhecido o estado de um sistema, em um dado

(4)

4

instante, todos os demais instantes estarão determinados pelas equações da teoria (Penrose, 1999).

Então, para acomodar os avanços posteriores à mecânica clássica, e evitar o problema causado pelo surgimento de novas teorias físicas, pode-se definir uma versão estendida do “Demônio de Laplace”. A nova versão teria as seguintes características: 1) Onisciência instantânea: conhece o estado de todo o universo num t. Determina as condições iniciais com precisão infinita.

2) Erudição científica (nomológica) completa: todas as leis existentes da física. Dispensa a necessidade de reduzir toda a realidade a uma única teoria, mas todos os fenômenos continuariam sendo redutíveis a um conjunto finito de leis (maior do que antes, mas ainda redutível).

3) Super-inteligência: poder de computação. Usando as leis matemáticas e os dados, calcula (determina) a situação de qualquer instante do universo. Usaria o conjunto de leis finito (dado por 2), dados com precisão numérica infinita (dado por 1).

4) Não-distúrbio: o demônio não afeta de nenhuma forma o funcionamento da realidade. Neste novo demônio, a essência que permanece é a crença de que “basta” conhecer leis matemáticas para determinar completamente qualquer instante passado ou futuro, inserindo os dados nas equações matemáticas e calculando.

3 PROBLEMAS COM O “DEMÔNIO DE LAPLACE”

Existem algumas objeções que podem ser feitas aos poderes do “Demônio estendido” e, consequentemente, ao “Demônio clássico”. Daqui em diante, quando se falar de “Demônio de Laplace” ou demônio, a referência será ao “Demônio estendido”.

São, basicamente, duas objeções. Uma, mais antiga, relacionada às equações diferencias e outra, mais moderna, relacionada a questões de computabilidade.

1) Possibilidade de resolução das equações diferenciais.

2) Problemas de computabilidade, divididos em três argumentos: i. Incomputabilidade das condições iniciais.

ii. Incomputabilidade do problema (problema impossível de ser resolvido em princípio). iii. Caso computável, mas com considerações de complexidade computacional.

3.1 SOLUBILIDADE DAS EQUAÇÕES DIFERENCIAIS

As teorias físicas são expressas matematicamente por equações diferenciais ordinárias ou parciais. Elas podem ser entendidas como funções f: RnRn.

Um problema que se coloca de imediato às capacidades do demônio é a possibilidade de solução exata das equações diferenciais. Terão todas as equações diferenciais solução?

(5)

5

Classificação de problemas matemáticos e sua facilidade de solução por métodos analíticos (Bertalanffy, 1973, p. 39)

Existem diversas situações em que as equações diferenciais simplesmente não podem ser resolvidas analiticamente. Esta é uma primeira limitação imposta às capacidades cognitivas do “Demônio de Laplace”.

Dificuldades desse tipo foram percebidas há muito tempo. Já no século XVIII, o matemático e físico suiço Leonhard Euler (1707-1783) apontava para os problemas de resolução. No entanto, esse fato não abalou muito a crença no método das equações diferenciais, porque diversos problemas importantes tinham solução e, para aqueles problemas que não tinham sido resolvidos, acreditava-se que seriam solucionados futuramente. Era apenas uma questão de tempo.

Dessa forma, o estudo de certas classes de equações diferenciais (sobretudo, as não-lineares) foram relegadas a um segundo plano. A questão foi retomada no final do século XIX, com os trabalhos do matemático francês Henri Poincaré (1854-1912) sobre o problema dos n corpos sob interações gravitacionais mútuas. Desses estudos emergiram constatações surpreendentes, que formaram as sementes da Teoria do Caos Determinístico.

3.2 PROBLEMAS COMPUTACIONAIS COM O “DEMÔNIO DE LAPLACE” 3.2.1 Computabilidade

Pode-se dizer que computabilidade é a propriedade de entidades lógico-matemáticas (números, conjuntos, funções, sentenças em linguagens formais, etc.) de poderem ser calculadas por máquinas de Turing (ou, simplesmente, calculadas). Em outros termos, se um processo (cálculo de números, construção de conjuntos, expressões efetivas de funções, dedução de uma sentença, etc.) pode ser realizado por uma máquina de Turing, então tal processo pode ser chamado de computável, efetivamente calculável, recursivamente solúvel, etc. Em suma, ser computável é ser solúvel.

Os resultados do matemático britânico Alan Turing (1912-1954) (e das formulações equivalentes) mostram as limitações de qualquer linguagem formal e qualquer sistema axiomático.

3.2.1.1 O que é computável?

O principal resultado do artigo On computable numbers, with an application to the Entscheidungsproblem, de Turing, é a existência de problemas incomputáveis. Ou

Equações lineares Equações não-lineares Uma

equação Várias equações Muitas equações Uma equação Várias equações Muitas equações Algébrica Trivial Fácil Essencialmente

impossível Muito difícil Muito difícil Impossível Diferencial

ordinária Fácil Difícil Essencialmente impossível Muito difícil Impossível Impossível Diferencial

(6)

6

seja, problemas para os quais não existe máquina de Turing ou procedimento efetivo que os resolva e, assim, são problemas insolúveis.

O artigo apresenta dois problemas incomputáveis: o halting problem e os números incomputáveis. Hoje são conhecidos inúmeros problemas incomputáveis e tais problemas são a regra e não a exceção dentro da matemática clássica.

À luz da máquina de Turing e da teoria da computação, o “Demônio de Laplace” pode ser avaliado de forma bastante pontual.

Retomando as características do demônio é possível levantar algumas questões em relação a suas capacidades.

1) Onisciência instantânea

Considerando apenas a questão dos dados numéricos, será possível, em princípio, determinar o estado em t com precisão infinita?

2) Erudição científica (nomológica) completa

Será que um número finito de leis basta para esgotar todos os fenômenos possíveis?

3) Super-inteligência

Além da questão da resolução das equações diferenciais, não haverá outros problemas insolúveis? E se solúvel, não demoraria um certo tempo para calcular? Existiriam outros problemas?

3.2.2 Computabilidade das condições iniciais e a divergência em sistemas caóticos Com relação à primeira capacidade do “Demônio de Laplace”, definida aqui como onisciência instantânea, levanta-se a questão: considerando apenas os dados numéricos, será possível, em princípio, determinar o estado em t (ou as condições iniciais) com precisão infinita?

Admitindo que as leis físicas são funções dos números reais (ou continuum) ou complexos, a possibilidade de representação e de obtenção de números é limitada em princípio.

O conjunto de todas as máquinas de Turing é enumerável, logo existe uma quantidade enumerável de números reais que têm descrição algorítmica ou lei de formação. Estes são números computáveis.

Por outro lado, existe uma infinidade não-enumerável de números reais. Logo, existe uma infinidade não-enumerável de números reais que não admitem descrição algorítmica e, portanto, são incomputáveis.

A seguir será feita uma apresentação mais detalhada do R, seus subconjuntos, sua computabilidade e, quando forem apresentados os números reais normais, o motivo para a existência da incomputabilidade.

Uma forma de dividir o R é pela racionalidade de seus números. A união do Q com o conjunto dos números irracionais é o próprio R.

Q (de quociente) é o conjunto dos números racionais. São todos os números que podem ser representados na forma a b (que é uma fração ou razão e, daí, o nome

racional) onde a e b são números inteiros e b≠0. Todo número racional tem expansão

decimal finita ou periodicamente infinita (⅓=0,333333...) (Penrose, 1999).

O conjunto dos números irracionais é formado por números que não podem ser representados por razões (e daí seu nome). São exemplos de números irracionais o 2

(1,414213...), o 3 (1,732050...), o número áureo (1 + 5 2), o número de Euler (e)

(2,718281...), o

π

(3,141592...), etc. Todo o Q é computável.

(7)

7

Uma infinidade contável de números irracionais é computável. São exemplos disso o 2, o 3 , o número áureo, o e, o

π

, etc.

O

π

pode ser calculado com precisão arbitrária (no sentido de que o único gargalo para obter infinitas casas decimais é o tempo), através do seguinte algoritmo:

∞ = + − = 02 1 ) 1 ( 4 n n n

π

O número de Euler ( e ) também tem seu algoritmo:

∞ = = 0 ! 1 n n e

Por outro lado, existe uma infinidade incontável de números irracionais que não têm um algoritmo correspondente, ou seja, são impossíveis de serem descritos algoritmicamente e, assim, são números incomputáveis.

Logo, apenas uma pequeníssima parte do R é computável estando a grande maioria além de qualquer descrição algorítmica. Este é um dos pontos de vista que mostra a disparidade entre o tamanho do conjunto dos números computáveis e o tamanho do conjunto dos números incomputáveis. São conjuntos de cardinalidade infinita diferente.

Um fato interessante a respeito das propriedades do R vale ser mencionado. Existe dentro do R o que se denominam “números reais absolutamente normais”, que são números reais, no intervalo [0,1]3, que possuem constituição total e intrinsecamente

aleatória, onde nenhum padrão pode ser encontrado. Por essa razão, nenhum algoritmo pode computá-los. São números incomputáveis, pois nenhum conjunto de regras é capaz de descrever algo que não possua qualquer padrão.

Com o conceito de número real normal, o matemático francês Émile Borel obteve, no começo do século XX, um resultado notável: demonstrou que a probabilidade de que um número real no intervalo [0,1] seja absolutamente normal é 1 (100%) e, reciprocamente, a probabilidade de que um número real no intervalo [0,1] seja computável (cardinalidade ℵ0) é 0 (0%). Ou seja, esta é uma forma de mostrar como os

números incomputáveis (que têm cardinalidade ℵ1) formam a esmagadora maioria dos números reais (Chaitin, 2009).

Então, a completa aleatoriedade ou completa falta de padrão são o motivo da incomputabilidade. Esta conclusão não se restringe aos números, mas vale para qualquer entidade lógico-matemática.

Assim, caso o “Demônio de Laplace” necessite de um algoritmo de formação para representar cada condição inicial e que cada uma delas possa ser um número real qualquer, a determinação do estado em t com precisão infinita é impossível em princípio, pois a probabilidade de que esse estado seja representado por um conjunto de números incomputáveis é de 100%. Mais ainda, existe uma infinidade incontável de números irracionais cujos dígitos encontram-se dispostos de forma autenticamente aleatória.

Apenas uma infinidade contável de números reais não tem sua determinação limitada em princípio. Seriam limitadas por questões operacionais.

Os sistemas caóticos são um exemplo de sistemas físicos/matemáticos divergentes, onde a ausência de precisão infinita na determinação das condições iniciais torna impossível qualquer previsão de longo termo.

3 Adota-se o intervalo entre 0 e 1 apenas para destacar a expansão decimal, que é o que distingue os números

(8)

8 3.2.1.1 Sistemas caóticos: uma pequena digressão

É um tanto paradoxal o nome Teoria do Caos Determinístico, dada a oposição de significados entre os termos da expressão. Esse nome se refere a sistemas que podem ser descritos por equações diferenciais, e, portanto, são considerados determinísticos (devido ao teorema de existência e unicidade da solução das equações diferenciais), mas, ao mesmo tempo, têm um caráter de aleatoriedade e imprevisibilidade.

Poincaré demonstrou que, em alguns sistemas dinâmicos (entre eles, o dos 3 corpos interagindo através de forças gravitacionais), qualquer imprecisão na determinação das condições iniciais resultaria na divergência das soluções, impossibilitando a predição de estados posteriores (Lisboa, 2004).

Segundo Lisboa (2004, pp. 96-97)

No cerne do comportamento caótico está a propriedade, exibida por certos sistemas, de Dependência Sensitiva das Condições Iniciais [DSCI]. Quando presente, a DSCI é responsável por amplificar pequenas incertezas ou diferenças no estado inicial, transformando-as em incertezas colossais na evolução do sistema a longo termo.

Em tese, seria possível predizer mesmo o comportamento caótico determinístico, embora, para isso, necessitar-se-ia de precisão infinita na determinação do estado inicial de um dado sistema regido por equações determinísticas que apresentassem DSCI.

O trabalho de Poincaré foi revalorizado a partir da década de 1960, sobretudo pelos estudos do meteorologista estado-unidense Edward Lorenz (1917-2008).

Lorenz fazia simulações computacionais com sistemas de equações diferenciais para estudo de fenômenos atmosféricos. Um dia simulava um certo conjunto de equações diferenciais não-lineares, as quais modelavam a convecção atmosférica. Ele havia simulado uma vez, mas queria repetir a simulação, só que durante um tempo maior. Para não ter que fazer tudo de novo e esperar várias horas, anotou os dados do começo da segunda metade da simulação antiga e rodou novamente o programa a partir dali. Ele saiu por algumas horas e, na volta, para seu espanto, a máquina não havia repetido a segunda metade da simulação antiga.

O que havia acontecido? Houve algum problema na máquina?

A máquina estava perfeita. O problema foram as condições iniciais inseridas por Lorenz. Na primeira simulação, a condição inicial do ponto era, na verdade, 0.506127 (que era dada pela precisão de 6 casas decimais do computador) e Lorenz truncou o dado, colocando 0.506, pois acreditava que essa pequena diferença (uma parte em mil) não teria grande peso. No princípio, as simulações coincidiam, mas, depois, divergiram completamente.

Lorenz batizou tal fenômeno como “efeito borboleta”, pensando na metáfora de uma borboleta batendo suas asas em uma certa região do planeta podendo provocar tempestades em outra região.

A divergência resulta das não-linearidades na equação que fazem com que as pequenas imprecisões das condições iniciais sejam amplificadas exponencialmente (Lisboa, 2004).

Foi a partir daí, que a Teoria do Caos Determinístico começou a desenvolver-se de forma mais sólida.

A importância desta digressão é dar um exemplo de sistemas onde qualquer imprecisão na definição das condições iniciais leva-o a uma divergência exponencial, o que torna o sistema praticamente imprevisível. Para tais sistemas, é necessária a precisão infinita das condições iniciais para que a previsão seja possível. Em termos do “Demônio

(9)

9

de Laplace”, a impossibilidade de alcançar tal precisão não se dever a questões técnicas ou operacionais, mas, sim, a questões de princípio, é capital.

Essas questões envolvem problemas de descrição dos dados, existindo, entre eles, inclusive, dados cujo conteúdo é completamente aleatório (números reais absolutamente normais). Ou seja, já na determinação do estado em um t, o demônio enfrentaria um problema intransponível. Logo de início, o demônio enfrentaria o problema para o qual deveria ser a solução: a questão da aleatoriedade.

3.2.3 Incomputabilidade do problema em si

Com relação à segunda capacidade do “Demônio de Laplace”, definida aqui como a erudição científica (nomológica) completa. Todas as leis existentes da física, as quais constituem um conjunto finito de leis. Será que um número finito de leis basta para esgotar todos os fenômenos possíveis?

A máquina de Turing, põe sérias dúvidas de que isso seja possível. Através dela é possível afirmar que um número finito de leis (algoritmo) é incapaz de resolver uma série de problemas. Existe uma infinidade de problemas matemáticos incomputáveis. Diversos destes problemas são encontrados na matemática usada nas leis da física.

Com relação à terceira capacidade do “Demônio de Laplace”: 3) Super-inteligência

Poder de computação: usando as leis matemáticas e os dados, calcula (determina) a situação de qualquer instante do universo. Usaria o conjunto de leis finito (dado por 2), dados com precisão infinita, numérica ou descritiva (dado por 1).

Além da questão de resolução das equações diferenciais, não haverá outros problemas insolúveis? Sim, existem diversos problemas insolúveis. Existem problemas matemáticos insolúveis e a impossibilidade da determinação númerica das condições iniciais ou do estado do universo em um t com precisão infinita.

3.2.4 Problemas computáveis e considerações sobre complexidade computacional

Um outro questionamento com relação à terceira capacidade do “Demônio de Laplace” seria: e se solúvel o problema, não demoraria um certo tempo para calcular? Existiriam outros problemas?

Existem problemas como o do caixeiro viajante ou da quebra de senhas que são perfeitamente computáveis, mas tem complexidade computacional exponencial, o que inviabiliza, na prática, a resolução de tais problemas a partir de certo ponto.

Ao que tudo indica, os únicos problemas que o “Demônio de Laplace” poderia resolver seriam alguns casos de complexidade computacional exponencial, porque o demônio teria velocidade infinita de processamento e a resposta não demoraria.

Mas, por que apenas alguns casos? Parecem haver limitações até para os problemas solúveis. Pois, mesmo que o problema seja computável (há uma solução explícita), permanece o problema da determinação de números reais incomputáveis dentro de uma função real contínua.

Essa determinação poderia ser contornada nos seguintes casos:

1) Quando a precisão dos dados não seja importante, poderá obter-se uma aproximação. 2) Quando os dados são computáveis, como no caso da quebra de senha (que são cadeias finitas de caracteres), que podem ser associadas a números naturais.

3) Quando for um número finito de irracionais computáveis, pois precisaria de um número finito de algoritmos de formação.

(10)

10

Teria dificuldades de contornar o problema da determinação dos dados no seguinte caso:

1) Mesmo que o demônio tivesse que lidar apenas com uma infinidade de irracionais computáveis (uma hipótese simplificadora), teria que administrar uma infinidade contável de algoritmos de formação, além, é claro, dos algoritmos do problema computável, que são finitos.

Por questões técnicas, mas, também, por dificuldades de princípio (infinitos algoritmos), os computadores trabalham apenas com números racionais.

4 CONCLUSÕES

Como Earman (1986) ressaltou, Laplace igualou determinismo com previsibilidade e ligou-a com causalidade. O termo causalidade é bastante problemático e objeto de um antiquíssimo, extenso e complexo debate. Este trabalho não pretendia entrar nesse debate e, ao fornecer um delineamento à noção de previsibilidade, afastar-se de uma discussão a respeito da noção de causalidade. Muitos dos debates em torno do determinismo perdem-se ao forçar o vínculo entre estas duas noções.

Laplace sugeriu que a previsão seria algo cognoscível, algo ao alcance do conhecimento humano como princípio. Mas, dadas as considerações feitas ao longo deste artigo, a definição de determinismo por meio do “Demônio de Laplace” fica muito difícil de ser sustentada.

A capacidade lógica de prever e de resolver certos problemas é limitada. Esta limitação não é apenas operacional (quantidade de informação e capacidade de cálculo), como muitos acreditam, mas de princípio. Existem limitações de descrição e de operação de números reais, que ficaram mais evidentes através dos desenvolvimentos ocorridos. Da perspectiva do “Demônio de Laplace”, a possibilidade de previsão por meios lógicos e racionais, encontra limites inerentes.

AGRADECIMENTOS

Aos participantes das mesas-redondas “Reducionismo, Emergência, Determinismo e Holismo”, dentro do VII Encontro de Filosofia e História da Ciência do Cone Sul, pelas discussões e contribuições.

Ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) pelo apoio financeiro.

Ao grupo Redux, grupo multidisciplinar coordenado pelo professor Osvaldo Frota Pessoa Jr., do Departamento de Filosofia da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo, e formado por Fábio Garcia Gatti, Nelson Bejarano, Luiz Roberto Rigolin da Silva, Fábio Leite e Yara Kulaif. O grupo, como um todo, e estas pessoas, individualmente, foram essenciais para o desenvolvimento deste trabalho.

REFERÊNCIAS BIBLIOGRÁFICAS

(11)

11

CHAITIN, Gregory. MetaMat!: em busca do ômega. São Paulo: Perspectiva, 2009. ______. Randomness in arithmetic and the decline and fall of reductionism in pure

mathematics. European Association for Theoretical Computer Science Bulletin 50: 314-328, 1993.

EARMAN, John. A primer on determinism. Dordrecht: D. Reidel Publishing Company, 1986.

LAPLACE, Pierre. Oeuvres complètes de Laplace. Paris: Gauthier-Villars, 1878-1912. LISBOA, Alexandre. Introdução ao Caos e a métodos de controle a partir do paradigma

dinâmico circuito de Chua. São Paulo: Escola Politécnica da Universidade de São Paulo, 2004.

PENROSE, Roger. The emperor’s new mind: concerning computers, minds and the laws of physics. Oxford: Oxford University Press, 1999.

PESSOA JR., Osvaldo. Fisicalismo redutivo e sondas epistemológicas. Pp. 179-190, in: Barra, E.S.O; Calazans, A.; Calazans, V.F.B (orgs.). Anais do III Encontro da Rede Paranaense de Pesquisa em História e Filosofia da Ciência. Curitiba: SCHLA/UFPR, 2005.

Referências

Documentos relacionados

Este EPEI não é muito flexível pois os clientes de cada referência produzida durante o mês terão de esperar até ao início do mês seguinte para receber a sua encomenda do

Dos leitores que se manifestavam favoravelmente, a grande maioria (57%) era constituída por indivíduos alheios à medicina e à psiquiatria, muitos deles envolvidos em

O guião foi desenvolvido em torno de sete eixos considerados fundamentais nas políticas e práticas de proteção às crianças institucionalizadas, em função do objetivo de

Os açúcares adicionados estão presentes nos alimentos sob a forma de: açúcar (que pode ser branco ou amarelo), xarope de milho, frutose, maltose, mel, melaço, entre outros

Essa tolerância pode ser explicada de duas maneiras: a primeira sena uma característica intrínseca das populações de Phytophthora associadas aos citros no Estado de São Paulo, e a

The Anti-de Sitter/Conformal field theory (AdS/CFT) correspondence is a relation between a conformal field theory (CFT) in a d dimensional flat spacetime and a gravity theory in d +

O desafio apresentado para o componente de Comunicação e Percepção Pública do projeto LAC-Biosafety foi estruturar uma comunicação estratégica que fortalecesse a percep- ção

Este trabalho tem como objetivo o estudo numérico/paramétrico do comportamento e capacidade resistente de ligações do tipo “T” compostas por perfis tubulares de paredes