• Nenhum resultado encontrado

Capítulo 3: O ataque de Popper

1. O problema da probabilidade

1.5. Teoria da propensão, uma rápida menção

A teoria frequencial da probabilidade defendida em 1934 considerava o evento singular necessariamente como um elemento de uma sequência de eventos aleatórios. A sequência de eventos aleatórios é considerada como uma sequência empírica que, por hipótese, corresponde a um coletivo estatístico matemático. A equação de onda bem como as relações de Heisenberg são consideradas nessa teoria como enunciados formalmente singulares dessas hipóteses referentes à sequência empírica. Posteriormente, Popper passou a considerar a probabilidade em termos de propensão, isto é, relacionada ao arranjo experimental ao qual a probabilidade corresponde. Gillies atribui essa mudança em relação à probabilidade ao fato de que a teoria frequencial de Von Mises é muito próxima do positivismo machiano e foi desenvolvida através das linhas positivistas de definir operacionalmente “um conceito teórico (probabilidade) em termos de um observacional (frequência)” (GILLIES, 1997, p. 132). A teoria da propensão, segundo Gillies, é bem mais próxima da teoria de Popper.

Em um artigo de 1959, Popper apresenta uma modificação em sua teoria frequencial que atribui a propensão, “[que] são propriedades disposicionais inobserváveis do mundo físico” (POPPER, 1959, p. 30), como uma propriedade de eventos singulares, arranjos físicos experimentais. A questão é levantada através de uma crítica á teoria frequencial que não pode ser respondida.

É dada uma sequência infinita de lançamentos de um dado irregular, em que a probabilidade de resultar na face seis seja 1/4, e de uma de três lançamentos de um dado regular, em que a probabilidade de resultar na face seis é 1/6. Não é possível identificar os lançamentos do dado regular no conjunto de lançamentos do dado irregular.

Seja b a classe de lançamentos e c a classe de lançamentos do dado regular no universo total de lançamentos, a probabilidade de o resultado ser seis em b é dada por p(a, b) = 1/4, enquanto naqueles lançamentos que pertencem a c e b a probabilidade de o resultado ser seis é dada por p(a, bc) = 1/6 pela teoria frequencial. Contudo, essa afirmação é enganosa, afinal, a probabilidade 1/6 somente pode ser atribuída à propriedade seis se esta fosse infinita, como há somente três lançamentos de dados regulares na sequência, no universo de três

105 lançamentos a frequência de resultados seis será diferente de 1/6 na subclasse c da classe- referência. Na sequência total de lançamentos na classe-referência, a probabilidade de o resultado ser seis é 1/4, porém nos lançamentos virtualmente infinitos do dado regular que faz parte da classe-referência, a probabilidade atribuída deve ser 1/6.

A teoria da propensão resolve esse problema ao atribuir a probabilidade não à sequência, como foi proposto pela teoria frequencial de 1934, mas às condições geradoras, “ou arranjos experimentais” (POPPER, 1959, p. 35). Os resultados com o dado regular no universo da classe-referência são obtidos através de outra condição geradora, diversa daquela presente nos outros lançamentos, com os dados irregulares. A questão, assim como na teoria frequencial de 1934, é acerca da objetividade da probabilidade. Em 1934, a probabilidade era atribuída à sequência, entendida como objetiva e real fisicamente. Após a teoria da propensão, a probabilidade é atribuída às condições geradoras, na pesquisa física aos arranjos experimentais, que também são entendidos objetivamente, assim como a propensão que esses arranjos atribuem aos resultados singulares. Dentro do arranjo experimental que gera os resultados, o resultado singular é atribuído a uma força real e objetiva chamada propensão. “A probabilidade de um evento singular pode ser interpretada como uma propriedade do próprio evento singular e será mensurada por uma frequência estatística potencial ou virtual, em vez de uma frequência real” (POPPER, 1959, p. 37). A teoria da propensão também resolve os problemas relativos ao fato de que pela teoria frequencial, a serie considerada tem que tender ao infinito.

Popper compara a propensão à ideia de campos de força de Newton, isto é, uma propriedade relacional do evento singular com outro evento, no caso da propensão, às condições geradoras que se mantêm constantes com a repetição. O filósofo ainda ressalta a diferença entre a propensão como uma propriedade disposicional e as potencialidades aristotélicas, atentando-se ao fato de que as potencialidades aristotélicas atribuem a potencialidade como uma propriedade inerente ao objeto, enquanto Popper caracteriza a propensão como uma propriedade relacional (POPPER, 1959, p. 37).

O filósofo considera a hipótese de que as condições geradoras geram propensões físicas que podem ser testadas através das frequências. Lembremos que Popper considera os enunciados de probabilidade sob a interpretação frequencial como enunciados não falseáveis

106 sem as adequadas regras metodológicas. É salutar que a proibição de probabilidades diminutas não reprodutíveis ganha novos contornos a partir da teoria da propensão, pois pela hipótese da propensão as condições geradoras irão produzir os mesmos efeitos repetidamente. A ressalva da reprodutibilidade está pressuposta na hipótese.

Porém, como nos adverte Gillies, mesmo a teoria da propensão está sujeita ao caráter não falseável dos enunciados de probabilidade. A questão não recai sobre a reprodutibilidade, mas sobre a probabilidade diminuta. Um enunciado de probabilidade definida como propensão ainda não se relaciona de um ponto de vista lógico com nenhum enunciado básico falseador. Qualquer enunciado básico, que é singular, não oferece risco à teoria estatística. O falseabilismo dos enunciados de probabilidade, mesmo após a teoria propensional, continua sendo um falseabilismo metodológico (GILLIES, 1997, p. 133). É a regra metodológica de eliminar a probabilidade diminuta, exemplificada por Gillies por testes como o teste do sino40, que estabelece, também para a teoria da propensão, o vínculo entre previsões indefinidas (ou propensões indefinidas) e as frequências observadas em sequências de resultados singulares.

A teoria da propensão resolve problemas da teoria frequencial e torna a teoria da probabilidade mais simples, além de mais ampla. Porém, mesmo sob essa teoria, os enunciados de probabilidade permanecem, estritamente falando, insuscetíveis a testes empíricos sem a adição de regras metodológicas. A teoria da propensão muda radicalmente a teoria de Popper acerca do determinismo ou indeterminismo, tornando-a indeterminista, afinal atribui propensões, tendências disposicionais, a eventos físicos. Porém, é relevante, para esse trabalho, o fato de que seja pelo determinismo, seja pelo indeterminismo, são razões metodológicas que irão decidir.

40

“Seja H uma hipótese estatística. Suponha que se possa deduzir de H que uma variável aleatória X possui uma distribuição em forma de sino D. Dois pontos a e b são escolhidos de modo que D seja dividido em uma „cabeça‟, isto é b > X > a, e pés, isto é X < a ou X > b. Os pés são tais que probabilidade de obter um resultado nos pés, dado H, possui um valor baixo, conhecido como nível de significância. O nível de significância é normalmente escolhido entre 1% e 10%, sendo 5% o valor mais comum. Suponha-se, além disso, que X seja um teste estatístico, ou seja, que X seja uma função dos dados observados cujo valor pode ser calculado a partir dos dados. Nossa regra falseadora para enunciados probabilísticos afirma que, se o valor obtido para X está nos pés da distribuição, deve considerar-se que isso falseia H; ao passo que, se o valor de X estiver na cabeça da distribuição, isso deve ser visto como uma corroboração de H” (GILLIES, 1997, p. 136).

107