Vacina anti-besteira

Há um ditado no meio da divulgação científica que alega que uma bobagem dita em dez palavras requer pelo menos 100 para ser desmentida. Depois de minhas experiências recentes com as questões da fosfoetanolamina e da Terra plana, temo que essa avaliação seja otimista demais. A questão não é apenas que argumentos intelectualmente honestos requerem espaço para se desenvolver, e a correção de erros conceituais muitas vezes demanda longas explicações passo-a-passo para que se encontre o ponto exato em que o raciocínio caiu no acostamento: há ainda barreiras psicológicas a vencer, muitas das quais só começaram a ser identificadas recentemente.

Há, por exemplo, o efeito rebote, em que bombardear uma pessoa com evidências de que ela está errada gera uma reação defensiva que reforça sua crença inicial -- aquela história de que a fé se fortalece nas adversidades tem lá sua razão de ser.

Esse efeito provavelmente está ligado à estrutura em rede das crenças humanas, a constatação de que crenças não existem de forma atomizada no cérebro, mas encontram-se articuladas sob a forma de redes de sustentação mútua, atadas por laços de implicação lógica e/ou emocional: intuímos que aceitar as evidências contra X implica também deixar de crer em Y, ou de gostar de Z. Então, para defender crenças ou afetos que nos parecem dependentes de X, reagimos teimosamente contra a informação nova.

Existe ainda o viés de disponibilidade, em que tendemos a achar que o que está mais disponível -- o que aparece com mais frequência nas mídias que acessamos, o que se conforma melhor à nossa experiência pessoal, aquilo de que nos lembramos com mais facilidade -- é o mais normal, correto, verdadeiro, representativo. Por isso que artigos que começam afirmando o que pretendem desmentir ("Há quem acredita que a Terra é plana. Porém...") não são mais considerados uma boa ideia: se a pessoa não ler até o fim, ou se distrair antes da conclusão do argumento, há o risco de ela ficar só com a afirmação errada ("a Terra é plana") na cabeça.

Falando em vieses cognitivos, encontramos ainda a chamada "cegueira de viés": mesmo pessoas bem-informadas sobre a existência dessas armadilhas psicológicas, no fundo, se acham imunes a elas. Tem um experimento clássico em psicologia que consiste em perguntar para pessoas se elas se acham mais ou menos honestas (ou se dirigem melhor ou pior, ou se são mais ou menos bem informadas, etc.) do que a média. Todo mundo responde que se acha acima da média. Aí o pesquisador explica que essa é uma impossibilidade matemática -- não tem como todo mundo ser acima da média, ora bolas -- e pede aos voluntários que reavaliem suas estimativas de acordo com esse fato. Eis que todo mundo responde "acima da média" de novo.

E, no que pode ser o efeito cognitivo com o nome mais legal já criado, há ainda o Mecanismo de Alice no País das Maravilhas. O nome deriva da frase do livro de Lewis Carroll, "às vezes acredito em seis coisas impossíveis antes do café da manhã", e se refere à capacidade das pessoas de sustentar crenças mutuamente excludentes -- por exemplo, "Princesa Diana foi assassinada" e "Princesa Diana ainda está viva" -- desde que elas sejam, cada uma, consistentes com uma crença considerada mais fundamental, "a Família Real Britânica não merece confiança".

Toda essa avalanche de efeitos, vieses e mecanismos pode gerar um certo desespero, mas em meio a tudo isso é importante ter em mente um dado empírico fundamental: pessoas mudam de ideia o tempo todo. Debates progridem. Consensos são alcançados. Erros são admitidos e corrigidos. Isso tudo acontece bem menos do que uma teoria da racionalidade perfeita preveria, mas o simples fato de que isso acontece nega a ideia de que só o que existe é solipsismo teimoso e relativismo pós-moderno.

Um modo de tornar isso possível foi descrito, no fim da última semana, no periódico PLoS ONE: a vacinação contra desonestidade intelectual. "Assim como vacinas geram anticorpos para resistir a vírus no futuro, mensagens-vacina preparam as pessoas com contra-argumentos que têm o potencial de conferir resistência à desinformação futura, mesmo se essa desinformação for congruente com atitudes pré-existentes", escrevem os autores do artigo Neutralizing misinformation through inoculation: Exposing misleading argumentation techniques reduces their influence, que pesquisam psicologia e comunicação científica.

Eles realizaram dois experimentos, dividindo voluntários (mais de mil no primeiro, 400 no segundo) em grupos que receberam mensagens falaciosas sobre o aquecimento global. Além dessa desinformação, alguns grupos receberam também informação correta e/ou uma "vacina" (uma explicação da falácia contida na informação errada). A diferença entre os experimentos foi a falácia usada (no primeiro, o "falso equilíbrio" da cobertura jornalística; no segundo, a apresentação de "falsos especialistas").

A conclusão geral foi de que "embora os Experimentos 1 e 2 empreguem diferentes estilos de desinformação, ambos determinaram que a vacinação neutralizou a influência negativa da desinformação na percepção do consenso" científico de que o aquecimento global é real e causado por atividade humana.

Abaixo, um gráfico tirado do paper:




A imagem, referente aos resultados do Experimento 1, mostra uma análise estatística das respostas a questões sobre aquecimento global dos diferentes grupos, separados em grau de apoio a políticas de livre mercado e desregulamentação da economia -- essa variável foi usada como preditora da simpatia inicial dos voluntários pelo negacionismo climático. A linha azul contínua representa o grupo de controle, que não sofreu intervenção; a pontilhada vermelha, o grupo que só recebeu a desinformação falaciosa; a verde, o grupo que foi "vacinado" antes de receber a desinformação; a roxa, o grupo que recebeu informação correta antes da desinformação; e a amarela, o que recebeu informação correta e "vacina" antes da desinformação.

As questões formuladas envolveram percepção do consenso científico sobre o aquecimento global, a aceitação da existência do aquecimento global antropogênico, a atribuição das tendências climáticas de longo prazo á atividade humana, o apoio a políticas de mitigação, confiança nos cientistas que estudam clima e confiança nos cientistas que se dizem "céticos" ou "dissidentes".

Comentários

  1. Bom dia Carlos. Gostaria de te cumprimentar pelo excelente texto e blog sensacional! Minha sensação quando acesso teu site é de que entro em um "oasis" de racionalidade e equilíbrio intelectual em meio a crescente insensatez da internet. Percebi que tu trata recorrentemente do tema dos viéses cognitivos e dos desvios do chamado pensamento "normal", que é um assunto que me interessa muito. Tu poderia me passar algumas indicações de referências sobre estes temas? Muito obrigado e parabéns pelo trabalho!!!

    ResponderExcluir
    Respostas
    1. Oi, Rodrigo, obrigado! Olha, dois livros a que retorno sempre são o How We Know It Isn't So , do Gilovich ( https://www.amazon.com/How-Know-What-Isnt-Fallibility/dp/0029117062 ) e o How to Think Straight, do Flew ( https://www.amazon.com/How-Think-Straight-Introduction-Reasoning/dp/1573922390 ). Se vc prefere títulos em português, uma boa pedida são os livros traduzidos no Michael Shermer. O brasileiro Sérgio Navega publicou, faz uns dez anos, um livro sobre raciocínio e argumentação também: https://www.estantevirtual.com.br/b/sergio-navega/pensamento-critico-e-argumentacao-solida/1513747154

      Excluir
  2. Olá Carlos. Muito interessante o artigo e o blog todo, obrigada. Perante o assustador panorama de mentiras circulando livremente e a pouca capacidade do publico geral para reconhecer as besteiras, acho muito importante trabalhar na aplicação dessas "vacinas". Estou à procura de estrategias pedagogicas para trabalhar o tema com estudantes de ensino medio, e não estou encontrando propostas que me auxiliem. Você sabe se há outros trabalhos a respeito, exemplos, outros casos ou temas que tenham sido desenvolvidos?

    ResponderExcluir
    Respostas
    1. Oi, Maria, obrigado!

      Confesso que conheço muito pouco sobre material didático a respeito de pensamento crítico em português. De repente há inúmeros recursos dos quais nunca ouvi falar... Dentro do que sei, o principal material de apoio (e fontes de ideias) que teria a sugerir são os livros "Superstição", do Robert Park, e "Cérebro e Crença", do Michael Shermer. Em inglês existe um livro-texto maravilhoso, "How to Think About Weird Things", de Theodore Schrick e Lewis Vaughn, que embora tenha sido escrito para o nível universitário parece-me adaptável ao ensino médio. Em termos de atividades mais mão na massa, há o exemplo de Emily Rosa, a menina de 9 anos que desbancou o reiki ( http://www.nytimes.com/1998/04/01/us/a-child-s-paper-poses-a-medical-challenge.html ) e, para impressionar a garotada e iniciar um debate sobre testes cognitivos, há o Problema de Wason (http://skepdic.com/refuge/ctlessons/lesson3.html ). Outra boa fonte de ideias é o livro How We Know It Isn't So , do Thomas Gilovich ( https://www.amazon.com/How-Know-What-Isnt-Fallibility/dp/0029117062 ).

      Espero ter ajudado, ainda que só um pouquinho...

      Abs!

      Excluir
    2. Muito obrigada, essas referencias serão excelente ponto de partida.

      Excluir

Postar um comentário

Postagens mais visitadas deste blog

Baleia ou barriga?

O financiamento público da pseudociência

Design Inteligente é propaganda, não ciência