Logo O POVO+
ChatGPT não é dono da verdade
Foto de Vladimir Nunan
clique para exibir bio do colunista

Vladimir Nunan é CEO da Eduvem, uma startup premiada com mais de 20 reconhecimentos nacionais e internacionais. Fora do mundo corporativo, é um apaixonado por esportes e desafios, dedicando-se ao triatlo e à busca contínua pela superação. Nesta coluna, escreve sobre tecnologia e suas diversidades

Vladimir Nunan tecnologia

ChatGPT não é dono da verdade

Neste texto, vou te mostrar o que dizem os estudos, trazer exemplos reais de gente que se deu mal confiando demais no ChatGPT e mais
Saiba como usar, de maneira crítica, o ChatGPT (Foto: Justin TALLIS / AFP)
Foto: Justin TALLIS / AFP Saiba como usar, de maneira crítica, o ChatGPT

Se tem uma coisa que bombou nos últimos anos foi a inteligência artificial (IA). De repente, todo mundo começou a usar o ChatGPT: estudante para fazer trabalho, advogado para escrever petição, empresa para criar textos e até médico para tirar dúvida. O problema é que, na empolgação, muita gente esquece de um detalhe básico: o ChatGPT não é dono da verdade.

Ele fala bonito, escreve bem, parece até um especialista de confiança. Só que, por trás dessa “inteligência”, ele se apoia em informações que já estavam na internet, muitas vezes vindas de fontes como Wikipedia e Reddit. Isso foi confirmado por estudos recentes, como o da Profound, que mostrou que quase metade das fontes mais usadas pelo ChatGPT são da Wikipedia.

Outro levantamento, feito pela Azoma.ai, mostrou que a Wikipedia aparece em 43% das respostas gerais do ChatGPT, enquanto o Reddit chega a 12%.

Agora imagine: você acredita cegamente numa resposta do ChatGPT, mas ela saiu de uma discussão no Reddit ou de uma página da Wikipedia que talvez nem esteja atualizada. É aí que mora o perigo.

Neste texto vamos bater um papo sobre esse problema. Vou te mostrar o que dizem os estudos, trazer exemplos reais de gente que se deu mal confiando demais no ChatGPT e explicar como usar a ferramenta sem cair na armadilha de achar que tudo que ela fala é 100% verdade.

O que os estudos descobriram

Um estudo feito pela empresa Profound analisou 30 milhões de citações usadas pelo ChatGPT, Google AI Overviews e Perplexity entre agosto de 2024 e junho de 2025. O resultado foi claro: o ChatGPT adora a Wikipedia. Quase metade das suas dez principais fontes vêm de lá, com 47,9%. O Reddit aparece em 11,3%.

Já no Google AI Overviews, o padrão muda. O Reddit aparece com 21% das citações, o YouTube com 18,8% e o Quora com 14,3%. A Wikipedia fica bem mais atrás, com 5,7%.

No caso do Perplexity, a situação é ainda mais extrema: o Reddit domina, com 46,7% das citações nas dez principais fontes.

Outro estudo, da Azoma.ai, publicado em agosto de 2025, trouxe resultados parecidos. A Wikipedia apareceu em 43% das respostas gerais do ChatGPT e o Reddit em 12%, chegando a 15% em buscas de comércio eletrônico. Já no Google AI Overviews, o Reddit liderou com 20%, seguido por YouTube (19%) e Quora (14%).

Esses dados deixam claro que o ChatGPT depende muito da Wikipedia e do Reddit. Isso não significa que ele não use outras fontes, mas mostra que boa parte do que ele fala vem dessas duas plataformas.

O que isso significa na prática

Wikipedia e Reddit são úteis, não dá pra negar. A Wikipedia é uma enciclopédia digital escrita de forma colaborativa, com milhões de artigos. Já o Reddit é uma rede de fóruns onde qualquer pessoa pode escrever sobre qualquer assunto.

Mas pense comigo: será que dá para confiar 100% nessas fontes? A Wikipedia pode ser editada por qualquer pessoa, o que abre espaço para erros, vieses e até vandalismo. Já no Reddit, muita coisa é baseada em opinião, experiência pessoal ou até piada.

Quando o ChatGPT se apoia muito nessas fontes, ele acaba repetindo informações que nem sempre estão corretas. E o pior: ele escreve com tanta confiança que a gente acredita.

Exemplos reais de quem acreditou demais na IA

Esse não é um risco só teórico. Já tem casos reais mostrando como é perigoso confiar cegamente no ChatGPT.

  • Um advogado nos Estados Unidos usou o ChatGPT para escrever uma petição. O problema é que a ferramenta inventou jurisprudências que não existiam. O advogado apresentou o documento no tribunal e acabou passando vergonha. O caso virou notícia no New York Times e deixou claro que a IA não pode substituir checagem profissional.
  • Na área da saúde, um estudo publicado na revista JAMA em 2023 mostrou que respostas do ChatGPT para perguntas médicas eram simpáticas e bem escritas, mas muitas vezes traziam informações incompletas ou incorretas. Imagine um paciente seguindo essas orientações sem procurar um médico de verdade.
  • Na educação, professores perceberam que alunos estavam entregando trabalhos feitos pelo ChatGPT sem nem conferir as informações. Um estudo da revista Computers & Education de 2023 mostrou que estudantes tendem a confiar demais na IA, deixando de lado o hábito de pesquisar em fontes originais.
  • No mercado financeiro, especialistas já alertaram que respostas do ChatGPT sobre investimentos podem ser superficiais, enviesadas ou até perigosas. Um investidor inexperiente que seguir essas dicas sem análise pode perder dinheiro facilmente.

Por que o ChatGPT engana tão bem?

O grande problema é que o ChatGPT fala com muita segurança. Ele escreve de forma organizada, clara e até persuasiva. Além disso, quando cita fontes conhecidas, como a Wikipedia, passa a impressão de ser confiável.

Esse efeito é chamado por pesquisadores de efeito de autoridade. A pessoa lê a resposta e pensa: “Se está escrito desse jeito, deve ser verdade”. Isso é ainda mais forte quando o usuário não domina o assunto.

Um estudo da Cornell University mostrou isso na prática. Pesquisadores analisaram a veracidade de respostas de IAs generativas e descobriram que apenas 51,5% das sentenças estavam totalmente sustentadas pelas citações fornecidas. Ou seja, quase metade das respostas tinha brechas ou informações incorretas.

As bolhas informacionais

Outro risco é o que os especialistas chamam de bolhas informacionais. Isso acontece quando a IA repete sempre as mesmas fontes e reforça as mesmas ideias, sem trazer diversidade.

Se a Wikipedia está errada sobre um tema, e o ChatGPT usa só ela, o erro vai se repetir. Se o Reddit tem uma visão enviesada sobre determinado assunto, o ChatGPT pode acabar reforçando esse viés.

Isso é grave principalmente em temas sensíveis, como política, saúde e direitos humanos. A IA pode acabar ampliando narrativas dominantes e silenciando vozes alternativas.

Questões legais e éticas

Além dos riscos de desinformação, tem também a questão dos direitos autorais. A Wikipedia é aberta e pode ser usada, desde que com atribuição. Já o Reddit é diferente. Os textos são de autoria dos usuários e não está claro se podem ser usados livremente para treinar ou alimentar IAs.

Esse é um debate quente em vários países. Afinal, empresas de tecnologia estão ganhando bilhões com IA, mas boa parte do conteúdo que sustenta esses modelos foi criado de graça por pessoas comuns.

Como usar o ChatGPT sem cair na armadilha

O ChatGPT é útil e pode ser um grande aliado no dia a dia. O problema é quando as pessoas usam como se fosse uma enciclopédia perfeita. Algumas dicas ajudam a evitar problemas:

  • Não confie cegamente. Use as respostas como ponto de partida, não como conclusão final.
  • Cheque em outras fontes. Se o assunto é sério, consulte sites oficiais, artigos acadêmicos ou profissionais especializados.
  • Cuidado em áreas críticas. Para saúde, direito e finanças, nunca use só o ChatGPT. Trate-o apenas como apoio.
  • Questione as respostas. Pergunte “De onde vem essa informação?” ou “Quais são as limitações dessa resposta?”.
  • Aprenda a identificar sinais de incerteza. Às vezes a IA escreve como se tivesse certeza, mas a base pode ser frágil.

O que precisa mudar nas IAs

Os especialistas também apontam caminhos para que as próprias IAs melhorem. Entre eles:

  • Diversificar as fontes, usando mais artigos científicos, bancos de dados técnicos e documentos oficiais.
  • Mostrar quando uma resposta é incerta ou quando não há consenso entre as fontes.
  • Dar mais transparência, permitindo que o usuário veja claramente de onde veio cada informação.
  • Criar sistemas de auditoria para avaliar a qualidade das respostas e corrigir problemas de viés.

Conclusão

O ChatGPT é incrível, mas não é infalível. Ele fala bem, parece inteligente e muitas vezes ajuda muito no dia a dia. Só que acreditar cegamente em tudo que ele diz é uma armadilha.

Os estudos mostram que boa parte das respostas do ChatGPT vem da Wikipedia e do Reddit. Essas fontes são úteis, mas não são perfeitas. Elas podem conter erros, opiniões enviesadas e até informações falsas. Quando a IA repete isso sem filtro, o risco de desinformação cresce.

A ciência já mostrou que modelos de linguagem alucinam, inventam fatos e passam a sensação de autoridade mesmo quando estão errados. E os exemplos reais, como o do advogado que apresentou jurisprudências falsas, deixam claro que confiar demais pode ter consequências sérias.

Por isso, o recado é simples: use o ChatGPT, mas use com senso crítico. Veja suas respostas como um ponto de partida, não como a palavra final. E nunca esqueça que, por trás da inteligência artificial, ainda existem limitações humanas.

Foto do Vladimir Nunan

Ôpa! Tenho mais informações pra você. Acesse minha página e clique no sino para receber notificações.

O que você achou desse conteúdo?