Inteligência artificial? Só se for de mentirinha: o caso Nate
clique para exibir bio do colunista
Vladimir Nunan é CEO da Eduvem, uma startup premiada com mais de 20 reconhecimentos nacionais e internacionais. Fora do mundo corporativo, é um apaixonado por esportes e desafios, dedicando-se ao triatlo e à busca contínua pela superação. Nesta coluna, escreve sobre tecnologia e suas diversidades
Inteligência artificial? Só se for de mentirinha: o caso Nate
Neste artigo, vamos analisar a fundo esse caso, o impacto disso para o ecossistema de inovação, o uso indevido do termo "IA", e o que líderes precisam fazer para evitar serem cúmplices de um mercado que está confundindo hype com inovação de verdade
Foto: Imagem gerada por Inteligência Artificial (script próprio): Midjourney
Script usado: artificial intelligence, Photography, Shot on 70mm, Depth of Field, --ar 16:9 --v 6.0
“Fake it until you make it” — ou em bom português, “Finja até conseguir”. Essa frase, que já foi um lema motivacional, ganhou contornos mais sombrios na era da inteligência artificial. O caso da startup Nate, que prometia um sistema automatizado de checkout por IA, mas operava com um call center escondido nas Filipinas, é o alerta que o mercado precisava — e talvez tenha ignorado por tempo demais.
Neste artigo, vamos analisar a fundo esse caso, o impacto disso para o ecossistema de inovação, o uso indevido do termo "IA", e o que líderes precisam fazer para evitar serem cúmplices (mesmo que inconscientes) de um mercado que está confundindo hype com inovação de verdade.
O que é, afinal, Inteligência Artificial?
Inteligência Artificial (IA) é um campo da computação que cria sistemas capazes de realizar tarefas que normalmente exigiriam inteligência humana, como reconhecer padrões, tomar decisões, entender linguagem ou aprender com dados.
Principais tipos de IA:
1. IA baseada em regras (simbólica): funciona com lógicas do tipo “se isso, então aquilo”. Simples e direta. Exemplo: Se o cliente é inadimplente, bloqueie o acesso.
2. Machine Learning (Aprendizado de Máquina): sistemas que aprendem com dados. Quanto mais dados, mais “inteligente” o sistema se torna. Exemplo: Um sistema que aprende a identificar spam com base em e-mails recebidos.
3. Deep Learning (Aprendizado Profundo): usa redes neurais profundas, imitando o cérebro humano. Está por trás de tecnologias como reconhecimento facial e ChatGPT.
4. IA Generativa: cria conteúdo novo: textos, imagens, sons, vídeos. São ferramentas como o DALL·E ou ChatGPT, que conseguem gerar respostas complexas com base em prompts.
IA é automatização? Não necessariamente.
Muita gente acredita que qualquer sistema automático é uma IA. Mas isso não é verdade. Existe uma diferença importante entre automatizar tarefas e inteligência real. A maioria das ferramentas vendidas como IA no mercado, na verdade, usa RPA.
O que é RPA?
RPA (Robotic Process Automation) é uma tecnologia que automatiza tarefas repetitivas de forma mecânica. Imagine um robô digital que faz o que um humano faria na tela do computador:
Clica em botões.
Copia e cola dados.
Preenche formulários.
Esse robô não aprende, não toma decisões por conta própria e não entende contexto. RPA é como um funcionário super-rápido e obediente, mas sem inteligência.
Foto: Reprodução/Vladimir Nunan
Qual a diferença entre IA e RPA?
Muitas empresas estão vendendo soluções de RPA como se fossem IA. Esse tipo de maquiagem tecnológica é o que transforma o “fake it until you make it” em fraude corporativa.
O caso Nate: onde estava a IA?
A startup Nate, fundada por Albert Saniger, prometia um sistema revolucionário de checkout automático com IA. A ideia era permitir que o usuário fizesse compras online com apenas alguns toques, com a IA cuidando do preenchimento dos dados, pagamentos e finalizações.
Mas a realidade era bem diferente:
Um call center nas Filipinas fazia todo o trabalho manualmente.
Trabalhadores humanos acessavam os sites, preenchiam os dados dos usuários e finalizavam a compra.
Isso era feito rapidamente, de forma a parecer que o sistema era automatizado.
Não havia IA. Havia trabalho humano disfarçado de inteligência artificial.
IA de fachada: por que esse problema é mais comum do que parece?
A Nate não é um caso isolado. Estamos vivendo uma verdadeira epidemia de IA “de mentirinha”. Produtos que se apresentam como baseados em inteligência artificial, mas que, no fundo, operam com processos manuais disfarçados.
Esses produtos muitas vezes são validados por investidores, elogiados pela imprensa e até premiados — tudo com base em uma imagem ilusória. O problema é que esse tipo de prática contamina o ecossistema de inovação, gerando:
Desconfiança generalizada no mercado.
Concorrência desleal com empresas que investem em tecnologia real.
Riscos legais e reputacionais para fundadores e investidores.
Falsas expectativas por parte dos usuários.
A cultura do “Fake it until you make it” na era da IA
A frase “Fake it until you make it” era, até pouco tempo atrás, interpretada como um incentivo à perseverança. Empreendedores deviam simular confiança até alcançarem competência real. Mas o problema começa quando essa “encenação” ultrapassa os limites éticos.
No caso da IA, o uso do termo se tornou tão sexy que virou quase um passe-livre para captar investimento, atrair atenção midiática e conquistar usuários — mesmo que o produto entregue seja um teatro bem roteirizado, e não uma tecnologia de fato.
Essa distorção afeta inclusive decisões estratégicas dentro de grandes empresas, que acabam adotando ferramentas "com IA" que, na prática, só têm um rótulo bonito colado na embalagem.
“Parece IA, mas são só Filipinos”
Manchetes em jornais do mundo todo estamparam — “Parece IA, mas são só Filipinos” — viralizaram porque escancarou o absurdo: uma startup de tecnologia vendendo pessoas como se fossem algoritmos. A Nate:
Enganou investidores, que aplicaram milhões de dólares.
Enganou usuários, que acreditavam usar uma IA de verdade.
Prejudicou startups sérias, que trabalham com tecnologia real.
Essa prática não é apenas imoral. Ela pode configurar fraude comercial e trazer implicações jurídicas sérias.
O papel dos líderes: parar de terceirizar entendimento
Muitos executivos ainda tratam a IA como um “assunto técnico” — e essa é uma das maiores vulnerabilidades das empresas hoje.
Ignorar o funcionamento da IA é como:
Um CFO que não entende um balanço patrimonial.
Um diretor de produto que não conhece o público-alvo.
Não entender IA hoje é perigoso demais para quem lidera. Toda liderança deve saber fazer perguntas como:
“Qual modelo de IA está sendo usado?”
“Existe alguma parte feita por humanos?”
“Quais decisões são realmente automatizadas?”
“Qual é a base de dados usada para treinar esse sistema?”
Investidores: falhas graves na due diligence
O caso Nate também expõe um erro grave na rotina de investidores: confiar apenas no pitch. A startup:
Não apresentava o funcionamento técnico da IA.
Não tinha documentação robusta.
Não demonstrava protótipos reais.
Essa negligência com a due diligence tecnológica favorece fraudes e drena recursos de empresas que realmente inovam.
Têm interface bonita mas nenhum documento técnico.
Prefira soluções que:
Explicam claramente a tecnologia usada.
Têm modelos treinados e testados.
Operam de forma transparente e audível.
Sabem o que é IA — e o que não é.
O custo da mentira: consequências para a Nate
A startup Nate está sendo acusada de fraude e pode enfrentar processos legais, tanto nos EUA quanto em países onde operava. Seu fundador, Albert Saniger, está no centro de uma investigação que pode comprometer sua carreira — e afetar os investidores que embarcaram na narrativa da “IA mágica”. Além disso, o caso foi um balde de água fria para o setor. Agora, startups legítimas que trabalham com IA de verdade terão que redobrar esforços para provar sua autenticidade. A confiança foi abalada.
Como separar o hype da realidade?
Em tempos onde o termo “IA” virou sinônimo de modernidade, é urgente desenvolver um olhar crítico. Aqui vão alguns sinais de alerta para identificar uma IA de fachada:
Interface bonita demais e sem explicação técnica real.
Falta de documentação sobre os modelos utilizados.
Ausência de demonstrações funcionais sem humanos no loop.
Equipe técnica reduzida ou genérica demais para o que se propõe.
Uso excessivo de termos vagos: “machine learning avançado”, “algoritmos proprietários” sem especificar o quê.
Conclusão: a era da responsabilidade tecnológica
O caso da Nate é só a ponta do iceberg. Vivemos uma era onde a tecnologia evolui rápido, mas o senso crítico precisa evoluir junto. Não dá mais para aceitar qualquer coisa rotulada como IA sem questionar, sem entender, sem validar.
Liderar uma empresa hoje exige fluência tecnológica — não para virar programador, mas para não ser enganado como consumidor, investidor ou decisor.
No fim das contas, a verdadeira disrupção está em combinar transparência, conhecimento e ética, e não em fingir que se tem uma IA quando se tem apenas um call center nas Filipinas.
Ôpa! Tenho mais informações pra você. Acesse minha página
e clique no sino para receber notificações.
Esse conteúdo é de acesso exclusivo aos assinantes do OP+
Filmes, documentários, clube de descontos, reportagens, colunistas, jornal e muito mais
Conteúdo exclusivo para assinantes do OPOVO+. Já é assinante?
Entrar.
Estamos disponibilizando gratuitamente um conteúdo de acesso exclusivo de assinantes. Para mais colunas, vídeos e reportagens especiais como essas assine OPOVO +.