Como dialogar com o pós-verdade científico

Gustavo Empinotti
24 min readAug 9, 2020
Imagem

Em abril, Donald Trump sugeriu que o uso de desinfetante, internamente, no corpo humano, poderia ser uma solução para o coronavírus. No dia seguinte houve um aumento em casos de ingestão da substância. Jair Bolsonaro por sua vez declarou sua confiança no sistema imunológico naturalmente forte de sua nação, afinal o brasileiro “pula em esgoto e não acontece nada.” Gafes presidenciais não são novidade. Dilma não economizava nas trapalhadas verbais; Temer atribuiu a importância econômica da mulher à sua habilidade natural em monitorar preços de supermercado. George Bush é frequentemente lembrado por tropeços gramaticais infantis, e Barack Obama disse ter visitado 57 estados em sua campanha (os EUA têm 50 estados). Essas gafes podem mostrar pouca sofisticação, deslizes ao falar em público ou visões preconceituosas. Mas falas que contradizem entendimentos científicos do Ensino Fundamental por figuras dessa relevância são novidade.

A negação de fatos científicos por figuras públicas importantes faz parte do que chamamos de pós-verdade. O fenômeno pode ser entendido como uma crise de autoridade; uma crise do entendimento sobre quem ou o que tem autoridade para caracterizar algo como verdadeiro. Se antes confiávamos em jornais de grande circulação para informações do dia-a-dia e na ciência para fenômenos mais complexos, o pós-verdade, fortemente associado à popularização da internet e das redes sociais, não distingue entre jornais de grande circulação e blogs de autores desconhecidos, ou entre estudos científicos e vídeos no WhatsApp.

Essa confusão surge de um entendimento incorreto sobre o que, precisamente, confere autoridade a alguém. Pessoas que se informam por WhatsApp não exatamente ignoram o jornalismo e a ciência; elas muitas vezes citam algum “jornalista qualificado” ou “professor da USP” que coincidentemente contou a exata história que elas queriam ouvir. Não importa se a maioria dos jornalistas ou cientistas dizem o oposto. Nesse momento a discussão vira o seu jornalista contra o dela, e o seu cientista contra o dela. Para avançar na conversa aqui, temos que dar um passo a mais na discussão sobre o que caracteriza uma informação como confiável. O que dá origem à autoridade?

Definindo a verdade

É característico do pós-verdade escolher fontes de informação com base em afinidade: confiar naquelas mídias ou pessoas que gostamos, sem exercer muito ceticismo. Mas o que diferencia veículos de grande circulação de redes sociais é que, no primeiro, há motivos para acreditar na informação mesmo que você não goste da fonte específica que a está transmitindo. Pode-se discordar da opinião de um jornalista ou achar que determinado veículo foca desproporcionalmente em uma ou outra questão. Mas o que traz tanta atenção ao fenômeno das fake news é justamente que elas vão além do problema de reproduzir uma agenda: elas relatam fatos literalmente falsos — eventos que não aconteceram e números inventados. Ser enviesado é diferente de ser falso.

O que garante que as informações publicadas em veículos de grande circulação são verdadeiras? Pode parecer uma pergunta óbvia, mas, no contexto acima, vale respondê-la. Podemos dividir a resposta em duas frentes: método e validação.

Método consiste na maneira que o responsável direto pelo conteúdo (digamos, o jornalista) busca e relata suas informações. Quando você lê uma notícia, você sabe de onde vem a informação reportada — se foi uma autoridade que disse ou se é um dado de um órgão oficial — porque o próprio artigo cita suas fontes. Dado que não há motivos para o leitor acreditar cegamente no jornalista, o método consiste em deixar claro para o leitor de onde a informação foi retirada.

O segundo passo, que é a validação, consiste na verificação, por outras pessoas, de que determinada reportagem de fato usou um método adequado. O primeiro momento de validação é a edição do jornal, que não permite ser publicado um artigo com informações questionáveis ou que não deixa claras suas fontes. Além da edição do próprio jornal, o ambiente no qual uma publicação de grande circulação está inserida força-a a não cometer erros. Se um jornal publica uma notícia falsa, pessoas envolvidas na notícia podem processá-lo por difamação; o veículo provavelmente será desmentido publicamente e arrisca perder reputação. Ou seja, o jornal tem incentivos para publicar notícias verdadeiras, e um mecanismo instalado para garantir que isso aconteça.

De fato, um levantamento de 2018 calculou que havia 177 mil processos por difamação correndo na justiça no Brasil, representando 59% do total de processos relativos a liberdade de imprensa. A principal defesa dos jornais nesse caso é provar que o que eles falaram é verdade. (O número alto de processos não implica que a mídia mente ou falha com frequência, mas sim que os ofendidos tentam alegar difamação, podendo suceder ou não). No WhatsApp, é claro, é fácil inventar uma notícia falsa e espalhá-la com a proteção do anonimato. As investigações sobre fake news e discussões sobre as possibilidades de intervenção ainda estão em estágios iniciais.

Esses mecanismos garantem que, quando nos informamos por meio de mídias de grande circulação, estamos confiando não em pessoas específicas, mas sim num mecanismo de validação composto de várias etapas. O alcance atual das fake news se deve a tecnologias que permitem a divulgação em massa de informações que não passam por esse tipo de processo. A ânsia de preencher esse vazio é o que dá origem a sites de checagem de fatos como a Agência Lupa ou o Boatos; o problema, é claro, é que é preciso deliberadamente buscar esses sites, e o leitor suscetível a fake news não faz isso.

Pode parecer uma explicação excessivamente detalhada de algo relativamente simples — a razão por que fake news são fake — mas quero destacar os conceitos de método e validação por dois motivos: primeiro, porque tê-los claros pode levar a conversas mais produtivas com quem se informa por WhatsApp. Segundo, porque eles serão úteis para discutir o pós-verdade científico.

Mesmo para quem se informa na mídia tradicional, fica difícil saber em quem acreditar quando nos deparamos com dois especialistas, ambos aparentemente qualificados, com visões opostas sobre fenômenos científicos. É o caso do que vem acontecendo com a discussão sobre o uso da cloroquina e outras drogas contra a Covid-19, com alguns médicos insistindo no seu uso apesar de estudos científicos (conduzidos, também, por médicos) apontarem que não há efeito.

É aqui que vale a pena discutir os conceitos de método e validação na ciência. Só que na ciência, naturalmente, o entendimento do método é mais técnico, especialmente porque há tantos tipos diferentes de ciência, e é impossível para uma única pessoa entender em profundidade os métodos das diferentes áreas. Então, dado que quase sempre existe algum nível de divergência em qualquer campo científico, a pergunta central é: como um leigo pode buscar a verdade sobre um tema quando há especialistas discordando? Como eu, que não sou médico, posso chegar a um veredicto sobre a cloroquina? Como podemos ser leigos bem informados? A resposta reside em entender método e validação na ciência.

Pós-verdade na ciência

Nós falamos pouco sobre método. Eu lembro de ter estudado o método científico brevemente na escola — alguma coisa envolvendo a palavra “hipótese”. O que eu mais lembro dos meus anos escolares é de ter passado muito tempo memorizando fatos; que, por sua vez, só podem ser considerados verdade devido ao método científico, mas a gente não falava sobre isso. Eu não sei dizer se em algum momento estudei o método da história, por exemplo — quais ferramentas nos permitem saber o que aconteceu exatamente no passado, dado que não estamos observando diretamente? A resposta pode parecer óbvia — porque está escrito em algum lugar — mas isso nos leva a perguntar quem escreveu, por que devemos acreditar naquilo, e o que fazer quando fontes diferentes se contradizem — que é justamente, em grande parte, o que historiadores estudam. Na escola, no entanto, aprendemos apenas a confiar no que os professores e apostilas diziam, como se nosso livro de história relatasse a história gravada em uma câmera secreta nos castelos feudais. Não pretendo embarcar em teorias da conspiração de que a escola sempre mentiu — de fato, vou fazer o oposto disso. O que quero dizer é que um sistema de ensino em que memorizamos fatos, sem refletir sobre como podemos saber que eles são verdade, nos torna suscetíveis a acreditar em alguém que nos diz, depois que somos adultos, que a escola sempre escondeu a verdade de nós — que vacinas são uma farsa, ou que a ditadura militar não existiu.

Falar de método é falar menos sobre o que sabemos e mais sobre como sabemos aquilo. Estamos num momento em que apenas afirmar que a Terra é redonda não é suficiente. E, de fato, a curiosidade por si só é saudável — isto é, querer saber por que podemos afirmar que a Terra é redonda é bom (algo que você pode responder usando o Google). Essa é a curiosidade que estimulamos em crianças. O problema, é claro, é quando a pessoa vê as evidências mas continua se negando a acreditar, porque é mais legal não acreditar, ou porque os seus círculos sociais não acreditam. O ceticismo saudável consiste em buscar mais informações sobre algo e estar aberto a comprovar ou não aquela informação, de acordo com os fatos encontrados. O ceticismo negacionista consiste em se negar a acreditar em algo mesmo quando evidências bem examinadas apontam para aquilo.

Se mesmo no caso de assuntos como o formato da Terra, estabelecido há milênios e não disputado na ciência, há comunidades que o questionam, o problema fica muito mais difícil em tópicos menos claros, em que o consenso científico não é tão avassalador, ou é mais recente. Por exemplo, como convencer alguém de que o aquecimento global por ação humana é real quando este professor de geografia da USP afirma que é tudo uma farsa, ou explicar que a ciência aponta para a ausência de efeito de certas drogas sobre a Covid-19 quando esta pesquisadora de imunologia recomenda o seu uso (ambos os pesquisadores viralizam nas redes sociais com alguma frequência). Afinal, eles estão comentando sobre sua própria área de estudo. Não seriam eles os porta-vozes da verdade científica?

Esses dois casos ilustram o problema com a confiança no professor sem entendimento do método. Quando não discutimos em profundidade o funcionamento da ciência, não entendemos que não existe consenso absoluto na ciência. Mesmo pessoas detentoras de diplomas discordam sobre seu próprio campo. Fatos científicos são considerados verdade não porque existe 100% de certeza sobre eles; mas porque existe uma preponderância de evidência forte o suficiente. Quando não entendemos como funciona o método científico, vivemos na ilusão de que um fato é considerado verdade científica apenas quando ele nunca foi questionado por ninguém, ou quando ele é tão verdade quanto o fato de que o sol vai nascer amanhã. Mas a incerteza é plenamente aceita pela filosofia da ciência, e não torna a ciência menos útil. Porém, quando passamos a maior parte da vida sendo ensinados fatos como verdade sem saber por que eles são verdade, descobrir essa incerteza causa certa dissonância cognitiva.

Uma parte de nós sabe que essa incerteza existe — é por causa dela que frequentemente buscamos uma “segunda opinião” médica, e que recomendações nutricionais estão sempre mudando, por exemplo. Nós sabemos disso, mas às vezes optamos por esquecer.

A ciência consegue ser útil porque há graus diferentes de incerteza. É isso que decide no que devemos confiar ou não. Uma verdade científica é considerada bem estabelecida quando há uma clara maioria de estudos bem elaborados apontando para ela.

Fingir que não há divergência e deferir a verdade a “autoridades,” onde autoridade é definida de acordo com diplomas (afinal, vivemos numa sociedade de diplomas), faz com que seja aceitável ignorar um consenso de 97% de especialistas que entendem que a atividade humana está causando o aquecimento global (consenso que aumenta conforme o nível de especialização, e que inclui, por exemplo, a NASA), escolhendo acreditar em um membro particularmente vocal dos 3% que viralizou na internet. Para a mentalidade de crença na autoridade, a dissonância cognitiva causada pela contradição entre autoridades leva à escolha da história que gostamos mais, e a teorias da conspiração contra a ciência. Numa mente confortável com a natureza do processo científico, essa contradição instiga a pesquisa e a descoberta do motivo do quase-consenso no assunto.

Consenso científico sobre o aquecimento global, por nível de especialidade no assunto. Fonte

O caso dos supostos remédios contra a Covid-19 é parecido. A cobertura sobre os estudos científicos que mostram a ausência de efeito, bem como as críticas aos estudos iniciais, que deram origem aos rumores, é extensa. Mas esse nível de pensamento crítico, capaz de distinguir entre a opinião de um médico conhecido e a opinião prevalecente na comunidade médica, com base em estudos de qualidade, é muito exigente para a maior parte da população. Quem recebe um vídeo de uma médica, formada na USP e com doutorado em pneumologia, dizendo que os remédios funcionam, em geral não vai se perguntar o que outros especialistas igualmente ou mais qualificados estão dizendo, e não vai se perguntar com base em quê ela pode afirmar aquilo — vai apenas acreditar. É muito difícil para um leigo saber se o estudo que a professora escolheu citar foi bem feito ou não; se faz parte de uma literatura vasta ou de uma minoria.

Quando ouvimos um cientista ou médico, temos que nos perguntar com base em quê aquilo está sendo dito. É possível ser formado em medicina e inclusive ser muito bom na sua própria prática, mas não entender o método científico, e portanto ser incapaz de avaliar novos avanços na ciência. Você pode ser muito bom naquilo que faz há décadas, mas não ter a formação necessária para lidar com o desconhecido.

Recentemente tive uma discussão com um conhecido, médico, que estava recomendando cloroquina para casos de suspeita de Covid. Ele é médico, eu não (o que, naturalmente, era parte importante do argumento dele). Mas eu tinha lido os estudos (feitos também por médicos) e sabia explicar por que eles são confiáveis; ele, como ficou claro na conversa, não entendia o método científico.

Meu amigo médico tinha três argumentos (além de “eu sou médico”):

  1. “médicos importantes estavam recomendando o uso”
  2. ele tinha “ouvido casos de pessoas que melhoraram com cloroquina”
  3. “como não temos nada comprovado, temos que arriscar”

Os 3 pontos mostram um entendimento errado de como a ciência funciona, ou para que ela serve.

O problema da afirmação (1) eu já abordei: também há uma série de médicos importantes alertando fortemente contra o uso. Consensos científicos raramente são de 100%. Precisamos pensar no que se baseia cada uma das recomendações.

O número (2) é uma falácia argumentativa conhecida, cotidiana, chamada evidência anedótica. “Anedota” aqui se refere a um “causo”, uma história pontual: “A minha tia tomou cloroquina e melhorou.” O problema é que há grandes chances de que sua tia teria melhorado mesmo que ela não tivesse tomado cloroquina. O argumento “A minha tia tomou cloroquina e melhorou” é tão forte quanto “A minha tia comeu uma banana e melhorou.” Não há nenhuma razão para acreditar que foi a banana, ou a cloroquina, que a fez melhorar, já que ela poderia ter melhorado sozinha. Cabe aqui destacar outra falha cognitiva que é o viés de confirmação — quando olhamos para evidências anedóticas, tendemos a escutar o que confirma nossa crença (“Minha tia tomou cloroquina e melhorou”), mas fazemos vista grossa para todos os casos em que alguém não tomou cloroquina e melhorou, ou tomou cloroquina e não melhorou. Para isso serve o método científico: avaliar se um medicamento está causando a melhora, comparando um número grande de pessoas que tomaram e não tomaram o remédio, que melhoraram e não melhoraram.

O ponto (3) está relacionado ao (2). Como princípio, ele até pode fazer sentido: se soubermos de algum remédio que tem alguma probabilidade de melhorar os sintomas da Covid-19 e probabilidade baixa de causar outros efeitos preocupantes, talvez seja uma boa ideia usá-lo, com precaução, ainda que não haja resultados conclusivos. Mas a cloroquina é o oposto — já há estudos científicos apontando que ela não causa nenhuma melhora nos sintomas do coronavírus e que causa efeitos colaterais cardíacos preocupantes.

Os apoiadores da cloroquina e cia têm citado muito a história do AZT em sua defesa. A medicação compõe o tratamento para a HIV/AIDS, e foi aprovada pela FDA em tempo recorde durante a crise da doença nos anos 80, quando os estudos sobre o assunto ainda eram escassos. Porém os dois casos são drasticamente diferentes. Na época, havia escassez de estudos sobre o assunto, mas o que determinou a decisão da FDA foi um estudo randomizado e controlado com cerca de 300 pessoas que mostrou efeito da droga. O motivo da polêmica é que um único estudo é considerado (corretamente) insuficiente. Hoje, a situação é completamente distinta. Os estudos rigorosos (e já há mais de um deles) apontam que a droga não tem efeito.

A narrativa que defende “tomar o remédio enquanto os estudos ainda estão no começo,” porque “vai que” ele tem efeito, reflete um entendimento errado sobre o conceito de preponderância de evidência. A evidência científica existente aponta de modo avassalador para a ausência de efeito. A lógica que sugere tomar porque “pode ser que depois descubram que tem efeito” se aplicaria a absolutamente qualquer remédio. Seria preciso haver algum tipo de evidência positiva sobre a droga escolhida. E escolher aleatoriamente tem consequências, por exemplo, quanto à priorização de verba pública. Atualmente faltam sedativos e analgésicos necessários para a intubação de pacientes em UTI, mas há em estoque milhões de comprimidos de cloroquina não utilizados comprados com dinheiro público.

Sempre agimos com base na preponderância de evidência existente — qualquer coisa que parece verdade agora pode vir a ser provada falsa no futuro, com novas evidências. Mas isso é inevitável — o melhor que se pode fazer é buscar o máximo de evidências a cada momento. A preponderância da evidência é um conceito central no direito, por exemplo — nós julgamos, condenamos e prendemos pessoas com base nela. Se surgirem evidências que inocentem um condenado no futuro, volta-se atrás.

A pesquisadora que defende a cloroquina parece ser bem intencionada e querer que vidas sejam salvas, como todos nós; mas ela não entende o funcionamento da ciência. Com base em informações não científicas, ela convenceu a si e a outros de que a cloroquina cura a Covid-19, e, dado que morrem 1000 pessoas por dia no país, a única conclusão possível é que se está deliberadamente deixando pessoas morrer. Começa aí uma teoria da conspiração. Ela sugeriu que a pandemia seria resolvida se apenas os governos locais distribuíssem o remédio. A linha de pensamento que começa no entendimento errado do processo científico, com um empurrãozinho, dá origem a teorias da conspiração e visões políticas deturpadas.

Então, como consumidores de informação expostos a profissionais da área que divergem sobre o assunto, como podemos proceder? Precisamos elevar a qualidade do discurso público. Se o nosso discurso para em “estudos dizem que” ou “especialistas dizem que”, não temos como avançar contra a desinformação — você acredita em um médico, eu acredito em outro, e ficamos por isso. Precisamos entender o método científico e trazê-lo para nossas conversas.

Método

Imagine que você quer convencer a sua mãe, que tem colesterol alto, a fazer atividade física. Você lhe disse que o seu tio corre todos os dias e tem níveis de colesterol saudáveis, mas ela observou, corretamente, que isso era evidência anedótica. Então, você decide fazer um estudo científico para avaliar se a atividade física altera o nível de colesterol no sangue.

Digamos que você consegue 200 voluntários para vir ao seu laboratório. Você lhes faz perguntas sobre seu nível de atividade física e em seguida mede o colesterol. Quando você olha os dados, descobre que, de fato, quanto mais atividade física a pessoa faz, mais baixo o seu colesterol. Então você provou que atividade física melhora o colesterol, e você foi rigorosa, porque você usou dados, certo?

Bom, não. Esse estudo tem uma falha conceitual grave. Como você pegou pessoas quaisquer, algumas das quais faziam exercício por vontade própria (digamos, grupo A), e outras que não (grupo B), o grupo A não é apenas o grupo que “faz exercício,” mas também o grupo que “se importa com a saúde” — afinal, fazer ou não fazer exercício, para as 200 pessoas do seu estudo, é uma escolha pessoal. Então, é possível (e bastante provável) que as pessoas do grupo A também se alimentem melhor, por exemplo, porque elas se importam mais. E é possível que a diferença que você observou em níveis de colesterol seja completamente justificada pelas escolhas alimentares das pessoas, e não pelo exercício.

Esse é o problema comumente resumido na frase correlação não implica causalidade. Os seus dados mostram que, em geral, quem se exercita mais tem colesterol mais baixo — isso é uma correlação entre colesterol e exercício físico. Mas isso não prova causalidade — não mostra que o exercício é o motivo do colesterol mais baixo. É perfeitamente plausível, olhando apenas para o seu estudo, que o motivo seja outro. Nesse caso, uma possibilidade é que exista uma terceira variável relevante neste cenário: a disposição individual da pessoa a cuidar da sua saúde. É possível que as pessoas do grupo A deem maior importância à sua saúde, o que simultaneamente faz com que elas corram mais e, digamos, se alimentem melhor, e portanto tenham colesterol mais baixo. Sob essa explicação, é plausível que exista uma correlação entre as duas variáveis, mesmo que o exercício não diminua o colesterol — ou seja, é possível que se uma pessoa com colesterol alto passar a se exercitar mas não mudar nenhum outro hábito, e em particular não mudar sua alimentação, ela não vai melhorar seu colesterol (essa é uma história completamente hipotética para ilustrar bons e maus estudos científicos — aparentemente exercícios têm efeito sobre colesterol).

Existe uma historinha caricata que ilustra a diferença entre causalidade e correlação. Imagine que um estudo mostra que cidades com mais médicos têm mais doentes. Já dá quase para ver as manchetes — Presença de médicos aumenta número de doentes. Mas, é claro, uma explicação alternativa, e mais plausível, é que os médicos estão indo em maior volume para cidades com mais doentes. A explicação sensacionalista comete o que chamamos de falácia da causalidade reversa.

Correlações também podem ocorrer totalmente ao acaso — este site ilustra esse ponto com uma coletânea de correlações aleatórias, por exemplo: o número anual de pessoas que morrem por afogamento em piscina tem correlação com a quantidade de filmes em que Nicolas Cage aparece naquele ano. Não, as pessoas não estão se suicidando por causa dos filmes.

Como resolver isso e chegar a conclusões? Uma maneira de melhorar o estudo, num mundo ideal, seria ter 200 pessoas que se alimentam de modo idêntico, e fazer a comparação de colesterol entre quem se exercita e não se exercita. Isso iria ajudar, mas ainda é possível que a diferença se dê por alguma outra razão — a alimentação é só um possível motivo que você conseguiu pensar. Pode ser que o grupo A fume menos; tome mais suplementos, etc. Sem contar que é difícil encontrar 200 pessoas que se alimentam de maneira idêntica.

Para lidar com isso, a ciência inventou o experimento. Digamos que você quer testar um novo remédio para baixar o colesterol. Você pega 200 pessoas e divide-as aleatoriamente em dois grupos A e B (digamos, você joga uma moeda para cada pessoa). A divisão aleatória é crucial, pois impede que haja outros fatores escondidos na divisão dos grupos (como a alimentação). O objetivo é que a única diferença entre eles seja que você dá o remédio para o grupo A e não para o B. Jogando a moeda, é implausível achar que o grupo das coroas se alimente, na média, melhor que o das caras — seria uma coincidência muito improvável. Então, você dá o remédio para um grupo e para o outro não, e no fim observa os níveis de colesterol. Se tiver diminuído no grupo A, é muito provável que o seu remédio seja o motivo. Se não tiver, o seu remédio não funciona.

Esse é o preceito básico do experimento. Há algumas complicações — os remédios podem ter efeito psicológico, por exemplo — então pode-se dar placebo (uma pílula falsa, de farinha, por exemplo) para o grupo B. Ou seja, os participantes não saberiam se estavam tomando ou não o remédio real, então qualquer diferença observada teria que ser devido à ação químico-biológica do remédio. Depois percebeu-se uma segunda variação deste mesmo problema: se os cuidadores sabem quem está recebendo placebo ou não, eles podem avaliar os pacientes de maneira diferente com base nisso. Assim, avançou-se para os experimentos duplo-cegos, em que médicos que estão cuidando dos pacientes no experimento não sabem se estão dando a pílula real ou não. A única diferença entre os dois grupos, de fato, vai aparecer nos resultados finais. Um estudo que cumpra todas essas exigências é chamado de estudo randomizado controlado, e é o padrão de excelência a ser buscado na ciência atualmente (randomizado se refere à divisão aleatória; controlado se refere ao método duplo-cego).

Uma característica importante do estudo é que é perfeitamente possível que os dados mostrem que não há diferença entre os grupos A e B. Nesse caso, concluiríamos que o remédio não tem efeito. Ou seja, antes de fazer o estudo, você não sabe se ele vai provar que você está certa ou não, e ele é desenhado de modo que ele pode, a depender dos dados que você encontrar, provar que você estava errada. Em termos científicos, dizemos que a hipótese — de que o remédio tem efeito — é falsificável.

Para qualquer discussão que tenhamos, sobre qualquer tópico, é importante garantir, antes de discutir, que a teoria é falsificável. Ou seja, deve haver alguma condição que, se provada verdade, nos fará mudar de ideia. Caso contrário, não estamos nos baseando em evidências ou lógica, mas sim na vontade de acreditar em algo. Por exemplo, eu acredito na gravidade porque ela condiz com o mundo ao meu redor e com experimentos científicos. Se eu acordasse amanhã e observasse objetos flutuando, ou se a pena e a bola de boliche não caíssem na mesma velocidade no vácuo, eu iria questioná-la. Isso faz da gravidade uma teoria falsificável.

No documentário A Terra é Plana (disponível na Netflix), um senhor adepto do terraplanismo faz um experimento. Ele próprio afirma que a melhor maneira de saber algo é através do método científico. Como ele suspeita que a Terra seja plana, ele pesquisa como poderia testar essa hipótese. Ele descobre que se a Terra for redonda, um giroscópio deve registrar uma rotação de 15 graus após 1 hora (pois o dia tem 24 horas e 360 graus, dividido por 24, é 15). No modelo da terra plana, não há rotação, e a rotação esperada, medida pelo giroscópio, seria zero. É um excelente experimento — a hipótese de que a Terra é plana (assim como a de que a Terra é redonda) é falsificável, e o entrevistado no filme explica o experimento corretamente.

A comunidade se mobiliza para comprar um giroscópio a laser, de extrema precisão, que custa 20 mil dólares — o que lhes faz parecer grandes entusiastas da ciência. Eles conduzem o experimento e o giroscópio mede 15 graus após uma hora. De acordo com sua própria lógica, explicada em suas próprias palavras, isso deveria levar o senhor a acreditar que a Terra é redonda. Esse foi o motivo do investimento de 20 mil dólares — descobrir a verdade. Mas então, ele cria uma narrativa alternativa para explicar os dados — ele explica que na verdade o giroscópio estava captando a rotação do céu, e não da terra. Então eles colocam o giroscópio em uma câmara de blindagem e refazem o experimento. De novo, eles encontram 15 graus. Então, ele conta, a próxima tentativa seria isolar a câmara com bismuto, para isolar a influência da rotação do céu. Eles não conseguiram concluir esse experimento antes da publicação do documentário, mas estavam confiantes de que, dessa vez, ia dar certo.

Com essa mentalidade, ele está perdendo o seu tempo (e dinheiro) com os estudos. Não importa o resultado, ele vai continuar acreditando que a terra é plana. Ele está tratando a hipótese como não falsificável — não importa quantos estudos e experimentos mostrem que a Terra é redonda, ele vai continuar acreditando que ela é plana, e vai alegar que está esperando novos estudos. Não há nada de errado em fazer mais estudos; mas, até lá, deveríamos acreditar na preponderância de evidência atual. Buscar mais experimentos deixa de ser útil se, quando o resultado nos contraria, continuamos com a mesma crença.

Teorias da conspiração em geral são não falsificáveis. Se você acha que o aquecimento global é uma farsa e, quando vê que as principais mídias discordam de você, conclui que as mídias são compradas, que a NASA faz parte de uma conspiração, que os dados são fabricados porque há interesse econômico por trás (apesar de você não conseguir explicar exatamente o que é esse interesse econômico), a sua teoria virou não-falsificável. Se toda vez que você encontra evidências contrárias ao que você acredita você questiona a autoridade da fonte (sem ter evidências que indiquem que a fonte está errada), mas exerce zero questionamento quando recebe uma informação que confirma sua crença, suas opiniões viraram não-falsificáveis.

Nem sempre conseguimos reproduzir estudos em casa — como no caso do giroscópio. Por isso, temos que entender sob quais condições devemos considerar uma opinião científica válida. Isso apresenta um desafio para o consumidor de informação leigo. Em estudos sobre o efeito de remédios, como o exemplo que eu inventei, os cálculos estatísticos para determinar se o remédio tem efeito ou não — detalhes sobre o tamanho da amostra (i.e. quantidade de pessoas no estudo) ou sobre se a diferença de resultado entre os grupos é grande o suficiente para ser estatisticamente significativa — são incompreensíveis para um leigo. E se não conseguimos entender esse métodos, como confiar na ciência? É aqui que entra a validação.

Validação

Toda vez que dizemos “a ciência mostra que” ou “estudos mostram que”, estamos de certa forma fingindo que não existe divergência dentro da ciência. Isso pode servir como uma aproximação boa em muitos casos. Mas, como argumentei, a ilusão da ausência de incerteza facilita o surgimento de teorias da conspiração quando essa incerteza, por menor que seja, é exposta.

O método científico, que eu ilustrei acima com um exemplo simplificado, tem vários desafios. Os métodos estatísticos usados para decidir se o remédio teve efeito são complicados, e pode haver erro humano — podem-se achar relações onde elas não existem devido à manipulação incorreta de dados ou atribuir causalidade incorretamente. Tudo fica ainda mais difícil quando o estudo não é randomizado e controlado; apesar de este ser o “padrão-ouro,” nem sempre é possível segui-lo.

Isso não significa que devemos entrar em desespero e questionar a ciência como um todo. Só implica que nenhum estudo sozinho é bala de prata, e é sempre importante olhar para a literatura científica como um todo. Os remédios que tomamos para dor de cabeça ou azia, as comidas que consideramos saudáveis ou não, tudo isso é baseado em ciência suscetível aos problemas citados acima. E tudo bem. Existem graus de certeza que são suficientes para considerar um conhecimento como verdade científica. Mas qual é esse grau?

É aqui que entra a validação. No caso do jornalismo, que discutimos mais cedo, a validação se dá pela equipe de edição do jornal e pelo ambiente de alta visibilidade no qual as publicações estão inseridas, que torna desvantajoso publicar informações falsas. Na ciência existem mecanismos parecidos, adaptados para a alta complexidade do método científico, que apenas outros especialistas daquela mesma área são capazes de avaliar. O trabalho que cabe à edição de um jornal, no caso de revistas científicas, é substituído pelo processo chamado revisão por pares. O processo consiste na revisão do artigo por outros cientistas da mesma área antes da publicação, que decidem se o método do artigo é bom o suficiente para publicação ou não. Por exemplo, um estudo que encontra uma correlação e alega que ela implica causalidade sem ter embasamento para isso não seria aceito. As revistas acadêmicas de maior prestígio são aquelas com revisão de pares. É isso que veículos de comunicação tentam destacar quando dizem que um estudo foi publicado no New England Journal of Medicine, Journal of the American Medical Association ou Annals of Internal Medicine. Aceitação por esses jornais não é uma mera estampa decorativa, mas sim a indicação de que o estudo passou por um processo de revisão apropriado.

Mesmo um estudo com revisão de pares, sozinho, não pode ser considerado evidência final. Para isso, é preciso uma certa quantidade de estudos. Mesmo a análise de pares falha, infelizmente. É o que aconteceu com o estudo do jornal The Lancet, que havia constatado risco aumentado de morte devido ao uso da hidroxicloroquina, mas, após críticas públicas, foi retratado. Apesar de esse episódio estar sendo usado para desvalorizar a ciência e defender a hidroxicloroquina, ele apenas ilustra a falibilidade da ciência que eu discuti neste artigo; não sua completa inutilidade. O episódio mostra que quando um artigo publicado tem problemas, ele é retratado, o que é bom. O fato de que agora há outros artigos mostrando a ineficácia do medicamento, e que estes estão públicos e não foram igualmente criticados ou retratados, nos mostra que podemos confiar neles. O estudo francês que mais tem sido usado para defender o uso da hidroxicloroquina também foi retirado do ar após críticas, e este nem chegou a ser publicado com revisão de pares— foi postado online diretamente pelos próprios pesquisadores — porque suas falhas eram mais gritantes.

É frustrante que não haja uma maneira mais segura de saber a verdade, mas essa é a condição humana. As verdades não caem do céu, e o processo científico, que é difícil e falível, é a única maneira de nos aproximarmos delas. Precisamos entender isso para consumir informação científica corretamente.

Ao comentar um dos estudos mais recentes que apontam a ineficiência da cloroquina, a microbiologista Natalia Pasternak aponta algumas críticas ao estudo, muitas das quais os próprios autores apontam no artigo: por exemplo, o estudo foi randomizado, mas não controlado, ou seja, pacientes e médicos sabiam quem estava recebendo o remédio. Mas ela conclui: “Esse estudo deve ser entendido em contexto mais amplo. Se fosse o único trabalho publicado até o momento sobre hidroxicloroquina para Covid-19, a questão seguiria, a rigor, em aberto. Mas, no cenário atual, ele vem somar-se aos diversos estudos demonstrando que o medicamento não deve ser utilizado.”

Esse é o entendimento que devemos internalizar. No ambiente atual, em que se está politizando a cloroquina e escolhendo o que acreditar antes de olhar os estudos, é muito fácil ser seletivamente crítico (ao estudo do The Lancet, retratado; ou ao estudo acima, não controlado) e ignorar as críticas à sua própria opinião, ou a preponderância da evidência na literatura como um todo. Pasternak apresenta as críticas de forma didática, para percebermos que a sua existência não justifica abandono do conhecimento científico preponderante. É uma questão de qual lado tem evidências mais fortes; não qual é completamente isento de críticas.

Para elevarmos a qualidade do discurso público, precisamos ser mais transparentes sobre o que exatamente se quer dizer com consenso científico, e também sobre críticas às nossas próprias posições. A ilusão de que uma opinião só é válida quando ela está 100% confirmada faz com que pequenas críticas possam desestabilizá-la ao olho público. Precisamos saber diferenciar as pequenas críticas das grandes. Levar esse entendimento ao público geral é difícil, mas podemos contribuir nessa direção se levarmos esses conceitos para nossas conversas do dia-a-dia.

Esse artigo é a segunda parte de uma série. Na primeira discuti o problema da polarização e pensamento crítico de forma mais ampla. Na próxima pretendo discutir como aplicar os conceitos que elenquei aqui — entendimento do processo científico — nas ciências sociais, para termos discussões mais produtivas sobre políticas públicas.

--

--

Gustavo Empinotti

Passo a maior parte do meu tempo livre lendo, escrevendo e tendo crises existenciais. Formado em ciências políticas e matemática