Quando a ciência erra: como resultados falsos podem virar “fatos” científicos
O que acontece quando só publicamos boas notícias na ciência — e deixamos o resto de lado?
Imagine descobrir que algo amplamente aceito como verdadeiro na ciência… na verdade, não é.
Não por má-fé. Não por fraude. Mas por causa de uma engrenagem silenciosa chamada viés de publicação — um mecanismo que favorece resultados positivos e acaba escondendo os negativos.
Isso pode parecer inofensivo, mas tem implicações profundas: políticas públicas, tratamentos médicos e até a forma como aprendemos podem ser baseadas em informações incompletas — ou até erradas.
Um estudo feito por pesquisadores em 2016 mostrou que esse viés pode “canonizar” mentiras — transformar erros em verdades aceitas. E tudo isso pode começar de forma quase invisível.
Neste post, você vai entender como isso acontece, por que é perigoso e o que pode ser feito para tornar a ciência mais justa e confiável.
O problema por trás das boas notícias
Na ciência, nem todo experimento dá certo. Às vezes, os dados não confirmam a hipótese inicial. E isso é ótimo — porque negar uma hipótese também é uma forma de aprender. Mas, na prática, muitos desses resultados negativos ficam fora dos holofotes. São raramente publicados. E isso cria um problema.
Se só vemos os estudos que deram certo, acabamos achando que há uma confirmação forte de algo que, na verdade, foi testado muitas vezes sem sucesso. É como ouvir só um lado da história — e tirar conclusões com base nisso.
Esse fenômeno tem nome: viés de publicação. E ele não é novo. Mas o que este estudo faz de diferente é mostrar como esse viés pode transformar afirmações científicas falsas em verdades aceitas. Mesmo quando elas estão erradas desde o começo.
O estudo: como uma mentira vira “fato científico”
Os pesquisadores Silas Nissen, Tali Magidson, Kevin Gross e Carl Bergstrom usaram um modelo matemático — um processo de Markov — para simular o que acontece com uma afirmação científica ao longo do tempo.
Eles imaginaram que uma afirmação (como “café faz mal para o coração”) é testada várias vezes por diferentes grupos de cientistas. Cada teste gera um resultado positivo (que apoia a afirmação) ou negativo (que a refuta). Mas… só os positivos são publicados com frequência.
O que o modelo mostrou foi alarmante: mesmo que a afirmação seja falsa, ela pode acabar se tornando aceita como verdadeira — simplesmente porque os testes negativos não aparecem na literatura científica.
Com o tempo, a comunidade científica vê uma pilha crescente de resultados positivos (publicados) e, sem saber dos negativos (não publicados), passa a acreditar que a afirmação é verdadeira.
Mas e se a ciência corrigir seus erros com o tempo?
Esse é um dos pilares da confiança pública na ciência: a ideia de que, mesmo com erros, o método científico vai se autocorrigir. Mas o estudo mostra que, se o viés de publicação for forte e persistente, isso pode não acontecer.
Pelo contrário: o sistema pode consolidar o erro.
A coisa piora ainda mais com práticas como o p-hacking — quando os pesquisadores ajustam seus dados ou testes até conseguirem um resultado “estatisticamente significativo”, mesmo que ele não seja real. Ou quando há exploração excessiva de dados: testar muitas hipóteses no mesmo conjunto até uma parecer funcionar.
Essas práticas aumentam o número de falsos positivos. E quando esses são os únicos resultados publicados, o problema se agrava.
Por que isso importa?
Esse mecanismo afeta diretamente a qualidade do conhecimento que usamos para tomar decisões sérias.
Pense em políticas públicas baseadas em dados científicos. Ou em medicamentos aprovados com base em evidências enviesadas. Ou ainda, em debates sociais e ambientais que se apoiam em uma ciência que pode ter “canonizado” afirmações falsas.
A confiança na ciência depende da transparência do processo. E isso inclui mostrar os erros, os nãos, os dados que não deram certo. Afinal, é disso que a ciência é feita: de tentativas, acertos e, sobretudo, correções.
O que pode ser feito?
O estudo propõe uma solução direta: incentivar fortemente a publicação de resultados negativos — especialmente quando uma afirmação começa a se tornar amplamente aceita.
Isso ajuda a equilibrar a balança e dar uma visão mais realista do que está sendo testado. Ajuda os cientistas a corrigirem o rumo antes que um erro vire dogma.
Além disso, melhorar os padrões de análise estatística, combater práticas duvidosas como o p-hacking e promover reanálises independentes de estudos são passos importantes.
A conclusão que fica
A ciência é uma das melhores ferramentas que temos para entender o mundo. Mas ela é feita por humanos, com falhas humanas. E se quisermos que ela continue sendo confiável, precisamos enxergar seus pontos cegos — como o viés de publicação — e enfrentá-los com coragem.
Este estudo nos lembra que a verdade científica não se constrói apenas com descobertas empolgantes. Ela se fortalece também com o que não deu certo, com o que não confirmou, com os silêncios quebrados.
O erro não é o problema. O problema é escondê-lo.
Artigo Científico Selecionado:
Título: Publication bias and the canonization of false facts
Autores: Silas B. Nissen, Tali Magidson, Kevin Gross, Carl T. Bergstrom
Publicado em: arXiv, 2016
Link ou DOI: https://arxiv.org/abs/1609.00494