• Nenhum resultado encontrado

Calibrar mal nossos pontos de vista, confirmá-los e defendê-los: como normalmente

Imagine que um amigo lhe peça o que você pensa sobre o quão seguros são alimentos transgênicos para o consumo humano. Ou talvez ele queira saber de você se a liberação do porte de armas de fogo para civis tornaria a sociedade mais segura. Ou, ainda, ele lhe questione se você acredita que o aquecimento global vem ocorrendo, e se este fenômeno pode ser consequência de atividades humanas. Todos esses temas são bastante complexos e, assumindo que você não seja um expert em nenhum deles, o mais sensato a fazer para dar uma resposta minimamente adequada a qualquer questão dessas é buscar artigos e livros relevantes, consultar especialistas, verificar se há um consenso na área, analisar as razões envolvidas e, então,

calibrar o seu ponto de vista de acordo com essa investigação – isto é, você deve pensar criticamente em face de temas tão difíceis.

Décadas de pesquisa sobre raciocínio e tomada de decisão sugerem, no entanto, que tendemos a agir de modo distinto quando confrontados com tópicos delicados como os acima, bem como quando consideramos outras questões nem tão complexas. Nesta seção e na seguinte, trato de um conjunto de três tendências cognitivas humanas – a má calibração epistêmica, o viés de confirmação, e o raciocínio motivado – que, entendo, é o mais pernicioso ao exercício do pensamento crítico, especialmente porque essas características cognitivas geralmente estão relacionadas e se retroalimentam, e porque elas nos dão a impressão de que estamos exercitando o pensamento crítico quando na verdade podemos estar apenas referendando e procurando justificar crenças que já possuímos, algumas vezes de modo pouco razoável.

A primeira dessas tendências está relacionada à dificuldade que temos em calibrar nossos pontos de vista, opiniões, crenças e decisões com base no melhor conhecimento disponível para elas. Assim, em outras palavras, há em muitos casos uma diferença entre aquilo que pensamos saber ou que consideramos sermos capazes de fazer daquilo que de fato sabemos e podemos fazer. Nossos problemas de ajuste epistêmico normalmente ocorrem quando sucumbimos ao “viés do excesso de confiança” (overconfidence bias, ou overconfidence effect), à ilusão de profundidade explanatória (illusion of explanatory depth) ou ao efeito Dunning- Kruger. Com eles, temos a forte sensação de que nossos pontos de vista são apropriados, que entendemos bastante a respeito de como as coisas do mundo funcionam, e que nossas habilidades e conhecimento são superiores aos da maioria das pessoas – embora essa sensação não esteja, geralmente, acompanhada de evidências adequadas para justificá-la.

O viés do excesso de confiança, com frequência, nos faz ter grande convicção de que nossos instintos ou intuições estão corretos. Nas palavras de Harker (2015, p. 119), nós “inconscientemente supomos que, se uma resposta parece correta, então ela provavelmente está certa”. Assim, mecanismos cognitivos associados ao Sistema 1 fazem com que tenhamos a sensação de que sabemos uma determinada resposta, que nosso ponto de vista sobre um certo tópico é melhor do que as alternativas para ele, ou, ainda, que nossa decisão rápida é a mais adequada em um dado contexto.

A sensação de confiança excessiva sobre o próprio conhecimento é, como alega Burton (2008), um processo inconsciente que funciona independentemente da razão, ou seja, que não pode ser facilmente monitorado pelo Sistema 2. Lembremos de situações como o do “bastão e da bola” e o “problema do casamento”, discutidos anteriormente: em ambos os casos, os participantes expostos a essas situações, confiantes de que estavam certos, apresentavam suas respostas rapidamente, embora elas com frequência fossem incorretas.

O viés do excesso de confiança tem sido observado em diversas circunstâncias, afetando especialistas e leigos (FISCHHOFF et al., 1977; SAPOSNICK et al., 2016; SIECK; ARKES, 2005; WEST; STANOVICH, 1997; YATES et al., 1997). Fischhoff et al. (1977), por exemplo, investigaram o quão frequentemente as pessoas se enganam quando estão convictas de que sabem a resposta para alguma questão de conhecimentos gerais. Usando problemas que envolviam temas diversos como a revista de maior circulação nos Estados Unidos até a causa de morte mais comum naquele país, os autores queriam saber dos participantes, além de suas respostas, o quão confiantes estavam nelas. Os experimentos indicaram, de acordo com Fischhoff et al. (1977, p. 561), que “as pessoas estão erradas com muita frequência quando elas têm certeza de que estão certas”.

A ilusão de profundidade explanatória é uma espécie de “ilusão de conhecimento” que se origina, de acordo com Rozenblit e Keil (2002), em nosso entendimento limitado do mundo associado às nossas intuições sobre como ele funciona. Segundo esses autores (2002, p. 522), “a maioria das pessoas sente que entende o mundo com muito mais detalhe, coerência e profundidade do que realmente são capazes”, e esse fenômeno se aplica principalmente a nossas ideias a respeito de mecanismos (como o funcionamento de vasos sanitários, abridores de lata e zíperes, por exemplo) e fenômenos naturais (terremotos, cometas, arco-íris, etc).

Um experimento interessante para investigar a ilusão de profundidade explanatória foi realizado por Lawson (2006), utilizando um objeto comum a muitos de nós: bicicletas. Lawson pediu aos participantes de sua pesquisa que (a) avaliassem o seu conhecimento sobre como bicicletas funcionam em uma escala de 1 (“eu sei pouco ou nada a respeito de como as bicicletas funcionam”) a 7 (“tenho um conhecimento minucioso de como as bicicletas funcionam), e então que (b) desenhassem a correia, os pedais e um pedaço do quadro em um esboço de bicicleta apresentado em uma folha de papel, e posteriormente (c) selecionassem, entre quatro alternativas, qual dos desenhos indicava a posição correta do quadro, da correia e dos pedais.

Lawson (2006) observou que havia uma discrepância, para a maioria dos participantes, entre a avaliação inicial de quanto eles entendiam a respeito de como bicicletas funcionam e o seu desempenho nas duas tarefas posteriores. Normalmente, os participantes tendiam a avaliar o seu próprio conhecimento com um valor maior do que eles obtinham nas duas tarefas seguintes, o que sugere que, inicialmente, eles superestimavam o quanto conheciam sobre o funcionamento e a estrutura de bicicletas.

A ilusão de profundidade explanatória pode estar também entre as causas da manutenção de posições políticas extremas, como sugerem Fernbach et al. (2013). Em um experimento, esses autores pediram a cidadãos estadunidenses o quanto eles compreendiam sobre seis propostas políticas controversas (novamente, usando uma escala de 1 a 7), e então

solicitaram aos participantes que explicassem os mecanismos subjacentes a essas políticas ou, em um segundo experimento, que apresentassem razões justificando o seu grau de confiança no entendimento das propostas. A conclusão dos autores foi a de que “as pessoas têm uma confiança injustificada em seu entendimento das (propostas) políticas” (FERNBACH et al, 2013, p. 944), e que pedir as razões pelas quais os sujeitos entendem (ou supõe que entendem) as propostas não faz com que eles reavaliem a sua confiança nelas, e assim mantenham os seus pontos de vista com a mesma força de antes.

Trabalhos como o de Lawson (2006) e Fernbach et al. (2013), além dos discutidos por Kahneman (2011), sugerem que a ilusão de profundidade explanatória (associada ao viés de excesso de confiança) é uma tendência cognitiva humana, uma parte de nosso mecanismo de pensamento default. Em comum à maioria dos experimentos que investigam esses vieses está o fato de que, normalmente, as pessoas superestimam o quanto compreendem sobre um assunto antes mesmo de pensar cuidadosamente sobre ele. Assim, o pensamento rápido e intuitivo (associado ao Sistema 1 de Kahneman) prevalece sobre o deliberativo, e faz com que nos sintamos seguros de que nossos pontos de vista são melhores do que geralmente são.

Uma terceira tendência cognitiva que dificulta a nossa calibragem epistêmica – e, talvez, a mais famosa delas – é o chamado Efeito Dunning-Kruger. Esse viés normalmente se manifesta quando ignoramos a nossa própria ignorância em um certo domínio do conhecimento, especialmente se somos incompetentes ou entendemos pouco do assunto em questão. Evidências empíricas desse fenômeno começaram a ser coligidas formalmente no final da década de 1990, por Kruger e Dunning (1999). Esses autores ficaram intrigados com a história de um ladrão que havia roubado dois bancos à luz do dia, sem disfarce ou qualquer outra tentativa aparente de esconder a sua identidade. O homem, Sr. Wheeler, preso na noite do mesmo dia dos roubos, parecia incrédulo com o fato de que a polícia o havia reconhecido e pego, pois ele havia esfregado suco de limão no rosto e isso, acreditava, o tornaria invisível para as câmeras de vigilância.

Ao apresentar a história do ladrão mal sucedido, Kruger e Dunning (1999, p. 1121), levantam três pontos para consideração: (a) “em muitos domínios na vida, o sucesso e a satisfação dependem de conhecimento, sabedoria, e habilidade em saber quais regras seguir e quais estratégias perseguir”; (b) existem variações no conhecimento e nas estratégias que as pessoas possuem ou aplicam sobre diferentes domínios, bem como variações nos resultados que elas obtêm; e (c), considerado o mais controverso pelos autores, e o âmago daquele que viria a ser conhecido como “Efeito Dunning-Kruger”:

(...) quando as pessoas são incompetentes nas estratégias que elas adotam para alcançar o sucesso e a satisfação, elas sofrem com um fardo duplo: não somente elas

chegam a conclusões errôneas e fazem escolhas infelizes, mas a sua incompetência rouba delas a habilidade de perceber isso. Ao invés disso, como o Sr. Wheeler, eles ficam com a impressão equivocada de que estão indo bem. (...) como Charles Darwin sabiamente notou mais de um século atrás, “a ignorância gera confiança com muito mais frequência do que o conhecimento”. (KRUGER; DUNNING, 1999, p. 1121). Kruger e Dunning (1999) recrutaram um grupo de participantes para quatro estudos em que avaliaram quão discrepantes eram as predições das pessoas com relação às suas habilidades declaradas em contraste com as habilidades testadas. Os domínios de conhecimento escolhidos pelos autores foram humor, raciocínio lógico e gramática inglesa, e os participantes deviam, incialmente, ranquear a sua habilidade na área em questão, e posteriormente essa informação seria contrastada com uma aferição externa (no caso do “humor”, por exemplo, os participantes deveriam classificar piadas em uma escala de humor, e essa escala foi comparada à feita por um grupo de comediantes, que avaliaram as mesmas piadas). Ao final do estudo, Kruger e Dunning (1999) concluíram que os participantes dos quatro estudos que eram mais competentes nas áreas em questão haviam feito uma avaliação razoavelmente precisa de suas próprias competências. No entanto, os participantes cujas avaliações ficaram no quartil inferior (ou seja, aqueles para os quais havia a maior diferença entre suas habilidades percebidas e testadas) não somente superestimaram a si próprios, como também entendiam que estavam acima da média. Pensar que se está acima da média também é uma característica comum em pesquisas que envolvem a percepção de motoristas sobre suas habilidades ao volante (AMADO et al., 2014; HORREY et al., 2015; HORSWILL et al., 2013; MAROTTOLI; RICHARDSON, 1998; MARTINUSSEN et al., 2017). No trabalho de Amado et al. (2014), por exemplo, quase 95% dos motoristas avaliaram a sua própria performance de modo superior à aferição feita por um observador externo. Além disso, esses autores observaram que as avaliações mais altas tendiam a ser feitas pelos motoristas que cometiam mais erros ou violações de trânsito. Estes mesmos motoristas confiantes foram classificados como “inseguros” pelos especialistas que acompanharam o estudo. E o viés não afeta apenas condutores jovens: Marottoli e Richardson (1998) entrevistaram mais de uma centena de motoristas com 77 anos de idade ou mais em uma cidade estadunidense, com o objetivo de examinar as percepções dessas pessoas sobre suas capacidades de direção veicular. A conclusão de sua pesquisa indica que todos os entrevistados se consideraram como motoristas na média, ou acima da média, em comparação com outros de sua faixa etária (MAROTTOLI; RICHARDSON, 1998).

Tendências cognitivas como o efeito Dunning-Kruger, o viés de excesso de confiança e a ilusão de profundidade explanatória (e outras ilusões de conhecimento) são pervasivas em nossas vidas cotidianas. As razões pelas quais esses vieses ocorrem é motivo de crescente discussão na literatura da ciência cognitiva (p. ex. DUNNING, 2011; EHRLINGER et al., 2008;

MERCIER; SPERBER, 2017; SLOMAN; FERNBACH, 2017), e uma possibilidade é a de que nós, em algumas circunstâncias, não sejamos capazes de usar de mecanismos metacognitivos apropriadamente para avaliar nossos próprios pensamentos e habilidades, e assim não conseguimos compreender o quanto somos capazes ou incapazes de realizar uma dada tarefa. Assim, calibramos mal as avaliações que fazemos das nossas próprias capacidades e de nosso conhecimento, e não percebemos isso.

Por que os vieses relacionados à má calibração epistêmica são um obstáculo para o pensamento crítico? Em termos gerais, porque eles frequentemente nos dão a sensação de que sabemos mais do que de fato sabemos, e assim não precisamos investigar ou pensar mais sobre um assunto ou decisão – não exercitamos o pensamento crítico porque entendemos que não precisamos fazê-lo. Essas tendências cognitivas dificultam que reconheçamos a nossa ignorância. Aliás, ser ignorante com relação a determinados assuntos não é um problema, pois todos nós o somos, em algum grau. A maior preocupação reside, como escrevem Fernbach e Sloman (2017, p. 257), nos problemas que podemos ter ao não reconhecê-la.

Problemas de calibragem epistêmica, no entanto, talvez não sejam, por si sós, um desafio tão grande para o pensamento crítico. Afinal, se o excesso de confiança em nossos pontos de vista, as ilusões de conhecimento, e as consequências do efeito Dunning-Kruger puderem ser amenizados quando temos evidência de que não somos tão bons quanto pensamos, então aparentemente esse tipo de tendência cognitiva pode ser de alguma maneira gerenciada. De fato, no experimento de Lawson (2006), muitos participantes mudaram a sua avaliação sobre o quanto sabiam sobre bicicletas após perceberem a dificuldade que tinham para resolver as questões da segunda e terceira etapas da pesquisa. “Acho que eu sei menos do que eu pensava”, disse um participante depois de completar a tarefa de desenhar as partes da bicicleta (LAWSON, 2006, p. 1667), rendendo-se às evidências de que seu conhecimento sobre bicicletas era menor do que ele havia inicialmente imaginado.

No experimento de Fernbach et al. (2013) ocorreu algo semelhante: participantes diminuíram o grau de confiança em suas posições políticas quando a eles se pediu que produzissem uma explicação de como sabiam que estavam certos (mas não quando simplesmente apresentaram razões para sustentar os seus pontos de vista). Ao buscar mecanismos explanatórios, muitos participantes perceberam que suas posições extremas eram difíceis de serem sustentadas, e assim reavaliaram a sua confiança nelas. Voltarei, no Capítulo 5, a discutir trabalhos como os de Lawson (2006) e Fernbach et al. (2013), cujos resultados nos dão algumas pistas de como é possível desnudar nossa ignorância, aumentar as chances de que sejamos mais humildes epistemicamente e, com isso, gerenciar vieses cognitivos que interferem em nossa calibração epistêmica.

Apesar de ser possível, a mudança de opinião em face de evidências contrárias ou da própria percepção de ignorância tende a ocorrer mais naturalmente para problemas ou tópicos que fazem pouca diferença para nós e não ameaçam gravemente a nossa visão de mundo (“onde ficam os pedais de uma bicicleta?”). Para temas sobre os quais nos importamos, em que investimos nosso tempo e carga emocional, ou sobre os quais temos fortes convicções, as coisas não são tão simples. Demonstramos, com frequência, uma lealdade ferrenha a crenças e ideias que estimamos muito, e assim as blindamos contra tentativas de revisão (ABELSON, 1986; FESTINGER et al., 2011; GORMAN; GORMAN, 2017; SHERMER, 2012).

“Um homem com convicção é um homem difícil de mudar. Diga a ele que você discorda, e ele lhe vira as costas. Mostre a ele fatos ou figuras, e ele questiona as suas fontes. Apele à lógica, e ele não conseguirá ver o seu ponto.” As palavras iniciais da clássica obra de Festinger et al, (2011, p. 3) destacam um fenômeno que todos nós, em algum momento de nossas vidas, já vivenciamos, e que tem sido estudado por cientistas cognitivos nas últimas décadas: a dificuldade que temos em mudar de ideia e de revisar as nossas crenças.

Um dos mecanismos de proteção a nossas crenças é o viés de confirmação, a segunda tendência cognitiva que exploro nesta seção. O viés de confirmação é considerado um dos mais bem estabelecidos na literatura da psicologia cognitiva (HART et al., 2009; NICKERSON, 1998) e, também, um dos aspectos mais problemáticos de nossa forma de pensar default. Nickerson (1998, p. 175), por exemplo, escreve que “se tivéssemos que identificar um único aspecto problemático do raciocínio humano que mereça atenção acima dos outros, o viés de confirmação teria que estar entre os candidatos a consideração”. Shermer (2012, p. 274), por sua vez, chama o viés de confirmação de “a mãe de todos os desvios cognitivos”.

Em termos gerais, o viés de confirmação é a tendência que temos, geralmente de modo inconsciente ou pouco consciente, “a procurar e encontrar evidências que confirmem crenças já existentes e ignorar ou reinterpretar evidências que não as confirmem” (SHERMER, 2012, p. 274). O viés de confirmação, na verdade, aparece na forma de uma plêiade de processos cognitivos que funcionam como uma espécie de linha de defesa de crenças e pontos de vista preestabelecidos, e essa defesa tende a ser mais forte quanto maior for o investimento e o apreço que tivermos por uma determinada ideia.

O viés de confirmação, em muitas ocasiões, entra em ação a partir do momento em que adotamos uma crença ou posição sobre alguma questão – que pode ser, inclusive, oriunda de nossa má calibração epistêmica, como discuti acima (BROTHERTON, 2015; NICKERSON, 1998). A seguir, podemos utilizar distintos mecanismos para buscar razões ou evidências para justificá-la, dando menor atenção àquilo que possa contrapor ou até mesmo invalidar esse ponto

de vista específico. Temos a sensação de que estamos certos, como argumenta Burton (2008), e este sentimento é reforçado ao nos expormos a argumentos que sejam favoráveis à nossa crença e ignorando os contrários. “Tudo mentira e zombaria / ainda assim, um homem ouve aquilo que quer ouvir / e descarta o resto”, como cantam os músicos americanos Simon & Garfunkel em “The Boxer”, naquela que pode ser a melhor descrição desse viés na cultura popular.

Uma das maneiras de o viés de confirmação se manifestar é através daquilo que Brotherton (2015, p. 224) chama de “estratégia de teste positivo” (positive test strategy): “procuramos aquilo que queremos encontrar”. Exemplos cotidianos dessa estratégia são abundantes: pessoas que frequentemente se abastecem de periódicos ou sites alinhados às suas posições ideológicas para saber as últimas notícias sobre política; militantes que só acompanham as versões dadas por seus partidos ou políticos de preferência para fatos da vida nacional; torcedores que veem pênaltis claros a favor de seu time em todos os lances duvidosos que ocorrem na área de ataque; leitores de horóscopo que rapidamente se identificam com a previsão apresentada no jornal (que, de tão genérica, serviria para pessoas de todos os outros signos do zodíaco), e assim por diante. Kahneman (2012) explica:

Contrariamente às regras dos filósofos da ciência, que aconselham testar hipóteses tentando refutá-las, as pessoas (e os cientistas, muitas vezes) buscam dados que tenham maior probabilidade de se mostrarem compatíveis com as crenças que possuem no momento. O viés confirmatório do Sistema 1 favorece a aceitação acrítica de sugestões e o exagero da probabilidade de eventos extremos e improváveis. (KAHNEMAN, 2012, p. 106).

A estratégia de teste positivo tem sido examinada empiricamente há algum tempo e, possivelmente, os experimentos mais discutidos a respeito dela são os elaborados por Wason (1960; 1968). Em um deles (1960), o autor disse aos participantes que três números (2, 4, 6) estão arranjados de acordo com uma regra simples, e o objetivo da atividade era descobrir qual é essa regra. Os participantes, para isso, forneceram sequências de três números e, após cada sequência, o experimentador disse se ela se encaixa ou não na regra estabelecida. Quando as pessoas tivessem certeza de que haviam entendido a regra, elas poderiam parar o experimento e dizer qual era ela.

A maior parte dos participantes de pesquisas com o teste de Wason tem respostas iniciais como “8, 10, 12”, e quando o pesquisador confirma que tal trinca está dentro da regra, outras sequências crescentes de números pares, separados por dois, como “20, 22, 24”, surgem, e elas também estão na regra. Em outros casos, número ímpares crescentes, separados por dois, como “9, 11, 13”, “17, 19, 21”, também surgem nas respostas dos participantes, e se encaixam na regra. Após algumas sequências, a maioria dos participantes está convicta de que a regra é

“números pares que aumentam de dois a dois”, ou, em outros casos, “números que aumentam de dois a dois”.

Na verdade, a regra do teste de Wason (1960, p. 130) é “três números em ordem crescente de magnitude”, mas poucos participantes a entendem rapidamente, especialmente porque, se os seus palpites iniciais são endossados pelo pesquisador como corretos, dentro da regra, a tendência é usar outras sequências que também se enquadram na regra imaginada pelo participante, e não números que possam invalidá-la. Mesmo filósofos profissionais estão