• Nenhum resultado encontrado

Apêndice 3 – Extensão do modelo atualizado, com a inclusão de indicadores

2 A FALA DOS DADOS

2.2 Estatística: a ciência do Estado

2.2.2 Do particular ao geral: a estatística como inferência

Há diferentes versões sobre a origem da teoria da probabilidade. Uma das mais conhecidas é a de que teria surgido do interesse de Blaise Pascal em compreender a natureza aleatória de certos fenômenos (PIEDNOIR; DUTARTE, 2001, p. 40), como por exemplo, a composição de uma mão em um jogo de cartas ou as chances envolvidas em um lançamento de dados5. Debruçando-se sobre o tema, Pascal chegou à (talvez surpreendente) conclusão de que todo fenômeno observável e quantificável pode ser descrito como tendo uma parcela determinística (que dimensiona o valor médio esperado) e uma parte aleatória (composta de

5 O interesse de Pascal pelo ―aleatório‖ teria se originado de uma correspondência do seu amigo e também

matemático Pierre de Fermat que, sendo um inveterado (e possivelmente malsucedido) jogador de cartas, pediu auxílio ao colega para estudar as chances de se obter uma mão vencedora. (FRANCE, MINISTÉRE DE L´INSTRUCTION PUBLIQUE, 1894)

uma flutuação imprevisível, totalmente casual). Os matemáticos que lhe sucederam nesses estudos ao longo dos séculos XVII e XVIII, como Bernoulli, Poisson, Laplace e Gauss, dentre outros, rapidamente desenvolveram conceitos como medidas de posição (média e mediana), de dispersão (desvio-padrão e variância) e identificaram as várias formas como os números se distribuem em função dessas grandezas (e que seriam denominadas distribuições de

probabilidade).

O verdadeiro salto, porém, ocorreu quando alguns matemáticos, já no século XIX, perceberam que as medidas obtidas de uma fração ou subconjunto homogêneo e representativo (em termos de sua dispersão e distribuição de probabilidade) de uma população maior apresentam média próxima à do conjunto total que lhe deu origem: a chamada Lei dos

Grandes Números. E, também, que a relação entre a diferença entre as médias obtidas no

subconjunto (chamado de amostra) e o no conjunto total (chamado de universo) não é linear em relação aos tamanhos de ambos. Em outras palavras, isso significa que, com amostras relativamente pequenas em relação ao seu universo, poder-se-ia estimar as características deste último com um grau de precisão surpreendente.

Nascia a inferência estatística.

Foi a inferência estatística que, finalmente, permitiu o controle das características das populações com uma enorme economia de recursos, uma vez que amostras de tamanho bastante reduzido, em comparação com as populações que as originam, são suficientes para produzir indicadores muito precisos.

Os processos de inferência estatística transformaram, também, a natureza da ciência estatística, que até então era puramente empírica e descritiva, orientada aos objetos. Com os processos de inferência, a estatística passou a ser metafísica: uma busca pelo transcendental. Não é por acaso que o conjunto de sujeitos que a estatística deseja conhecer por meio da inferência aplicada a uma amostra é denominado de universo. É para o conhecimento do universal que a estatística desenvolveu suas técnicas: obter um retrato claro do todo a partir de suas frações. O todo é único, uma essência que se manifesta acidental e aleatoriamente em cada uma de suas partes, e a Lei dos Grandes Números garante a convergência de toda essa diversidade para uma grande média, uma norma da qual se podem medir os desvios de forma precisa. Poderia ser descrita através de uma imagem, em que os dados dançam em torno da média, que concentra a maior probabilidade de encontrá-los, probabilidade que se reduz à medida que se afasta do centro em qualquer direção.

Caracteristicamente, a estatística chama tal modelo de distribuição normal.

sujeitos de uma população de forma organizada no domínio do controlador, localizados com precisão e ordenados segundo seus desvios: qualquer objeto do universo pode ser, com um determinado grau de confiança, localizado em um intervalo, que é função da média e dos desvios. É possível afirmar com precisão, qual proporção do universo se encontra a uma distância de um, dois, três desvios em relação à média amostral. O conhecimento da distribuição de uma variável é de grande interesse, particularmente, para a administração: conhecer a variabilidade possibilita controlar a heterogeneidade.

Ao interpretar o significado da heterogeneidade no campo político, Hannah Arendt observou que, com o aumento da população, há redução da heterogeneidade, pois há uma tendência ao incremento do conformismo:

A triste verdade acerca do behaviorismo e da validade de suas ―leis‖ é que quanto mais pessoas existem, maior é a possibilidade de que se comportem e menor a possibilidade de que tolerem o não-comportamento. Estatisticamente, isto resulta num declínio da flutuação. Na realidade, os feitos perderão cada vez mais a sua capacidade de se opor à maré do comportamento, e os eventos perderão a sua importância, isto é, a sua capacidade de iluminar o tempo histórico. A uniformidade estatística não é de modo algum um ideal científico inócuo, e sim o ideal político, já agora não mais secreto, de uma sociedade que, inteiramente submersa na rotina do cotidiano, aceita pacificamente a concepção científica inerente à sua própria existência. (ARENDT, 1997, p. 53)

A autora considera que, de um ponto de vista político, a redução da heterogeneidade implica em que a esfera pública seja cada vez mais constituída pelo social ao invés do político. Ao contrapor, desta forma, o comportamento à ação, e considerando-se que as leis da estatística se aplicam a grandes números e grandes períodos de tempo, Hannah Arendt conclui que a ação individual e as relações cotidianas acabam se reduzindo a um ponto irrelevante, engolfado por um caudaloso histórico de dados (ARENDT, 1997).

Michel Foucault, por sua vez, chama a nossa atenção para outro aspecto relacionado com a heterogeneidade: uma vez que se tenha conhecimento desta, é possível promover a homogeneização, através de processos normalizadores. Tais processos são apresentados como forma de padronização de práticas ―positivas‖ para o atingimento de algum objetivo, estabelecidos por critérios racionais e transmitidos de forma metódica, para assegurar sua absorção pelos receptores. O autor fornece um bom exemplo ao estudar o surgimento da medicina de Estado:

A política médica, que é programada na Alemanha, em meados do século XVIII e que será efetivamente posta em aplicação no final do século XVIII, consiste em 1) um sistema muito mais completo de observação da morbidade pela contabilidade pedida aos hospitais e aos médicos que exercem a medicina em diferentes cidades ou regiões (...)

2) normalização a prática e do saber médicos. (...) Aparece a ideia de uma normalização do ensino médico e, sobretudo, de um controle, pelo Estado, dos programas de ensino e atribuição de diplomas. A medicina e o médico são, portanto,

o primeiro objeto de normalização. Antes de aplicar a noção de normal ao doente, se começa por aplica-la ao médico. (FOUCAULT, 2002, p. 83)

Tais processos normalizadores são, antes de qualquer outra coisa, manifestações de poder. A diferenciação dos indivíduos e a medição dos desvios criam hierarquias, categorias e comportamentos. O ato de premiar e castigar garante a adesão dos grupos ao processo de normalização, com considerável economia de violência:

Diferenciar os indivíduos em relação uns aos outros, e em função dessa regra de conjunto – que se deve fazer funcionar como base mínima, como média a respeitar ou como o ótimo de que se deve chegar perto. Medir em termos quantitativos e hierarquizar em termos de valor as capacidades, o nível, a natureza dos indivíduos. Fazer funcionar, através dessa medida ―valorizadora‖, a coação de uma conformidade a realizar. (FOUCAULT, 2012, p. 176)

Deste modo cria-se a homogeneidade nos diversos ambientes em que ela se insere num contexto disciplinar: a escola, o hospital, a prisão, o quartel, a fábrica. No entanto, a heterogeneidade não é suprimida, mas sim controlada. Estabelece-se uma igualdade formal, forjada pela normalidade, em que a diferenciação entre os sujeitos se mantém sob controle e constante vigilância: uma dominação social baseada no controle da heterogeneidade, por meio do disciplinamento dos sujeitos e da introdução de processos normalizadores nos vários campos da atividade humana. Que, por sua vez, geram, como observou Arendt (1997), uma massa de indivíduos com reduzida variabilidade de comportamento e, portanto, cada vez mais conformista e menos afeita à ação.

Esse conformismo encontra uma faceta particularmente sinistra quando nos deparamos com questões relacionadas ao biopoder. Na edição on-line da Folha de S.Paulo de 25/06/2017 foi publicada uma matéria, que tinha por título ―Museu do Holocausto em Jerusalém busca

nomes de vítimas do nazismo‖. A reportagem contava a história de como o Museu do

Holocausto, cujo nome oficial é Yad Va-Shem (em hebraico, ―Memorial e Nome‖), vem realizando uma busca por histórias individuais de vítimas dos campos de concentração da Alemanha nazista, durante a Segunda Guerra Mundial. O texto da matéria diz que ―o objetivo

é desviar a atenção da história mais crua de grupos de vítimas para a de relatos pessoais, humanizando o peso de um número: 6 milhões.” (FOLHA DE S.PAULO, 2017) e, mais

adiante, resume o incômodo que cerca a questão: ―Quando não lembramos de toda e qualquer

pessoa, o número de vítimas se torna algo sem sentido. Um morto, cinco mortos... acaba se tornando igual. (...) O que os nazistas queriam era justamente desumanizar suas vítimas, tirar suas identidades. Mas a memória as imortaliza‖. (FOLHA DE S.PAULO, 2017)

A leitura dessa reportagem traz à lembrança uma frase, atribuída ao líder soviético Josef Stalin: ―Uma única morte é uma tragédia; um milhão de mortes é uma estatística.‖

(MORSE, 2013). Apócrifa ou não, a frase provoca mal-estar, ao evidenciar a questão apontada pela matéria da Folha de S.Paulo: ao contrário das tragédias individuais, as tragédias coletivas não possuem uma face e não têm história além daquela que se define na totalidade do drama. No final, acabam por se tornar dados estatísticos, números impessoais dispostos fria e metodicamente em gráficos e tabelas, objeto dos cálculos de significância e muitas vezes compactados em índices e coeficientes. A redução da vida a um punhado de indicadores tem esse estranho poder de homogeneizar e dessensibilizar, e de talvez tornar mais fáceis as decisões sobre viver ou deixar morrer.