A IA está deixando você mais burro, segundo a Microsoft
clique para exibir bio do colunista
Vladimir Nunan é CEO da Eduvem, uma startup premiada com mais de 20 reconhecimentos nacionais e internacionais. Fora do mundo corporativo, é um apaixonado por esportes e desafios, dedicando-se ao triatlo e à busca contínua pela superação. Nesta coluna, escreve sobre tecnologia e suas diversidades
A IA está deixando você mais burro, segundo a Microsoft
Intitulado The Impact of Generative AI on Critical Thinking, o levantamento examinou 936 situações reais em que 319 profissionais utilizaram inteligência artificial para realizar tarefas cognitivas
Foto: Inteligência Artificial (script próprio): Midjourney
Script usado: Person with donkey hat, Photography, Shot on 70mm, Depth of Field, --ar 16:9 --v 6.0
A revolução da inteligência artificial generativa está transformando profundamente o ambiente de trabalho. Ferramentas como ChatGPT, Copilot e Gemini estão sendo integradas a fluxos de produção, plataformas de produtividade e sistemas de apoio à decisão.
No entanto, além da velocidade e eficiência que proporcionam, está em curso um fenômeno mais sutil e igualmente perigoso: a terceirização do pensamento crítico.
Um estudo publicado pela Microsoft Research em janeiro de 2025 analisou essa questão de forma direta. Intitulado The Impact of Generative AI on Critical Thinking, o levantamento examinou 936 situações reais em que 319 profissionais utilizaram inteligência artificial para realizar tarefas cognitivas.
O objetivo era entender como o uso dessas ferramentas afeta o esforço mental e o envolvimento crítico dos trabalhadores do conhecimento.
Os resultados apontam para um alerta importante: quanto maior a confiança nas respostas da IA, menor o impulso para questionar, refletir e verificar. A eficiência operacional cresce, mas a autonomia cognitiva tende a encolher. A IA não apenas fornece respostas. Ela modifica o comportamento humano.
O que está em jogo: pensamento crítico
O pensamento crítico é a capacidade de analisar informações, formular julgamentos e tomar decisões com base em evidências, lógica e contexto. Não se trata apenas de ser cuidadoso ou cético. É uma habilidade essencial para lidar com problemas complexos, fazer escolhas informadas e construir conhecimento com profundidade.
Apesar disso, o estudo sugere que a inteligência artificial generativa pode levar os usuários a um estado de passividade mental. Isso ocorre quando a facilidade de obter respostas automatizadas reduz o envolvimento ativo do indivíduo na tarefa. A IA começa a substituir a reflexão humana de maneira quase invisível.
A pesquisa conduzida pela Microsoft envolveu trabalhadores do conhecimento de diferentes áreas e níveis profissionais. Todos os participantes já utilizavam IA generativa em suas rotinas de trabalho. Eles foram convidados a descrever situações concretas em que utilizaram a tecnologia e avaliar aspectos como:
Tipo de tarefa executada com apoio da IA. Confiança nas respostas da IA e em sua própria capacidade de análise.
Esforço mental envolvido.
Motivação para aplicar pensamento crítico.
Com base nessas informações, os pesquisadores identificaram padrões de comportamento. Entre eles, destacou-se o seguinte: quanto mais confiável parecia a resposta gerada pela IA, menos os usuários sentiam necessidade de revisá-la criticamente.
Já os participantes com maior confiança em sua própria capacidade de julgamento mostraram níveis mais altos de engajamento mental.
Confiança na IA reduz o pensamento crítico
Um dos principais achados da pesquisa foi a relação entre confiança na IA e diminuição do esforço cognitivo. Ou seja, quando os participantes acreditavam que a IA estava fornecendo uma resposta correta ou bem escrita, tendiam a aceitá-la sem fazer uma revisão crítica.
Esse comportamento é problemático por dois motivos. Em primeiro lugar, revela um viés de autoridade atribuído à máquina. A aparência sofisticada da ferramenta leva os usuários a assumir que ela está sempre certa. Em segundo lugar, demonstra uma transferência perigosa do julgamento próprio para o algoritmo.
Com o tempo, os indivíduos deixam de pensar de forma independente e se tornam dependentes da IA até mesmo para decisões simples.
O estudo mostra que isso é especialmente grave em tarefas que exigem análise, avaliação e síntese de informações. Nesses contextos, o pensamento crítico é fundamental. Quando ele é suprimido, o risco de erro e superficialidade aumenta.
Confiança em si mesmo preserva a autonomia mental
Por outro lado, os participantes que relataram alta confiança em sua própria capacidade de análise mostraram maior propensão a revisar as sugestões da IA. Para esse grupo, a tecnologia era vista como um recurso auxiliar, e não como uma fonte absoluta de verdade.
Esse dado é relevante. A autoconfiança funciona como uma espécie de antídoto contra a passividade cognitiva. Indivíduos mais seguros de si mantêm o pensamento crítico ativo mesmo quando recebem sugestões aparentemente confiáveis.
A IA não reduz sua capacidade de julgamento. Ela é tratada como uma ferramenta, e não como um substituto da inteligência humana.
Portanto, o impacto da IA sobre o pensamento crítico depende menos da tecnologia em si e mais da atitude do usuário diante dela.
Redistribuição do esforço mental
Outro achado interessante do estudo diz respeito à forma como o esforço cognitivo é redistribuído quando a IA entra em cena.
Em tarefas de coleta de dados, busca de informações e geração de conteúdo inicial, o uso da IA reduz significativamente o esforço necessário. Isso gera uma sensação de alívio mental.
No entanto, a etapa seguinte, que envolve revisar, editar, interpretar e validar o que foi gerado, exige mais atenção e análise do que muitos usuários estão preparados para aplicar.
Ou seja, a inteligência artificial não elimina o esforço cognitivo. Ela apenas o transfere de uma etapa para outra. A dificuldade está em reconhecer essa transição e manter o envolvimento mental onde ele é mais necessário.
Muitos usuários, por não perceberem essa mudança, acabam deixando de revisar criticamente as respostas da IA. Isso compromete a qualidade do resultado final.
Motivadores e barreiras ao pensamento crítico
A pesquisa também identificou os principais fatores que estimulam ou inibem o uso do pensamento crítico diante de respostas geradas por inteligência artificial.
Entre os motivadores estão:
O desejo de entregar um trabalho de alta qualidade.
A preocupação com possíveis erros ou consequências negativas.
O interesse em aprender com o processo e desenvolver habilidades.
Exigências externas, como feedbacks de clientes ou superiores.
Entre as barreiras, destacam-se:
A pressão por produtividade, que leva à aceitação rápida da primeira resposta. A fadiga mental, especialmente após longos períodos de trabalho. A falta de percepção sobre a necessidade de revisão. A confiança excessiva na IA como fonte infalível.
Esses fatores demonstram que o contexto organizacional influencia fortemente a decisão do usuário de revisar ou não as sugestões automatizadas.
O papel do design das ferramentas de IA
Um aspecto relevante do estudo está nas recomendações para o design de ferramentas de IA generativa. Os autores argumentam que a forma como a tecnologia é apresentada ao usuário pode incentivar ou inibir o pensamento crítico.
Três princípios são sugeridos para promover o engajamento reflexivo:
1. Aumentar a consciência sobre o tipo de tarefa: a ferramenta pode alertar o usuário quando uma decisão exige atenção especial. Por exemplo, exibir uma mensagem discreta como "esta resposta afeta resultados importantes. Deseja revisá-la?".
2. Estímulo ao aprendizado e à revisão: a IA pode reconhecer quando o usuário faz uma melhoria significativa em uma sugestão e oferecer feedback construtivo, reforçando o aprendizado por meio do engajamento.
3. Facilidade para verificação de informações: a tecnologia deve oferecer recursos como rastreamento de fontes, explicações sobre como a resposta foi gerada, comparação entre versões e destaque de incertezas.
Essas estratégias não impedem a eficiência. Ao contrário, elas criam um ambiente mais seguro e confiável para o uso da IA no contexto profissional.
Educação crítica para a era da IA
Outro ponto levantado pelos pesquisadores é a necessidade de formação específica para o uso consciente da IA. Mais do que ensinar comandos, é necessário ensinar pensamento crítico aplicado ao uso dessas ferramentas. Esse novo tipo de letramento digital envolve:
Saber quando confiar e quando revisar
Saber identificar riscos e limitações da IA
Saber complementar a IA com julgamento humano
Saber recusar sugestões automatizadas quando necessário
Escolas, universidades e empresas devem incorporar essa formação em seus programas educacionais. O pensamento crítico não é uma habilidade obsoleta. Ele é cada vez mais essencial em um mundo onde a automação cresce exponencialmente.
Considerações finais: a máquina não substitui o juízo
A inteligência artificial é uma ferramenta extraordinária. Ela amplia capacidades humanas, acelera processos e viabiliza tarefas antes impensáveis. No entanto, seu uso não pode ser sinônimo de dependência cognitiva.
O estudo da Microsoft mostra que o verdadeiro risco não está no código-fonte da IA, mas no abandono do julgamento humano. Quando as pessoas deixam de pensar porque acreditam que a máquina já pensou por elas, perdem uma parte essencial da autonomia intelectual.
Por isso, o maior desafio da inteligência artificial é pedagógico. Não basta ensinar a usar. É preciso ensinar a usar com discernimento. O profissional do futuro será aquele que souber dialogar com a tecnologia sem perder sua capacidade de reflexão crítica.
Esse conteúdo é de acesso exclusivo aos assinantes do OP+
Filmes, documentários, clube de descontos, reportagens, colunistas, jornal e muito mais
Conteúdo exclusivo para assinantes do OPOVO+. Já é assinante?
Entrar.
Estamos disponibilizando gratuitamente um conteúdo de acesso exclusivo de assinantes. Para mais colunas, vídeos e reportagens especiais como essas assine OPOVO +.