O que a ONU quer proibir na IA antes que seja tarde
clique para exibir bio do colunista
Vladimir Nunan é CEO da Eduvem, uma startup premiada com mais de 20 reconhecimentos nacionais e internacionais. Fora do mundo corporativo, é um apaixonado por esportes e desafios, dedicando-se ao triatlo e à busca contínua pela superação. Nesta coluna, escreve sobre tecnologia e suas diversidades
O que a ONU quer proibir na IA antes que seja tarde
O objetivo é impedir riscos que seriam impossíveis de reparar depois. Em vez de punir depois que o dano acontece, a proposta é impedir que esses danos ocorram
Foto: Alan Santos/PR
Fachada do sede da ONU, em Nova Iorque
Durante a 80ª sessão da Assembleia Geral da ONU, em setembro de 2025, foi lançada a campanha global AI Red Lines. A proposta é clara: fazer um apelo urgente para que os governos de todo o mundo assinem, até o fim de 2026, um acordo internacional com limites intransponíveis para o uso da Inteligência Artificial (IA).
Essas “linhas vermelhas” seriam regras globais para impedir usos da tecnologia que representem riscos graves, como ameaçar a segurança mundial, criar desinformação em massa ou desenvolver sistemas autônomos sem qualquer supervisão humana.
Mais de 200 lideranças globais já apoiaram a campanha, incluindo ex-chefes de Estado, cientistas, pioneiros da IA e ganhadores do Prêmio Nobel. Além disso, 70 organizações também se juntaram ao esforço. O recado é claro: não podemos esperar uma tragédia para agir.
O que são “linhas vermelhas” para o uso da IA
A ideia de linhas vermelhas é simples. São proibições que não podem ser quebradas em nenhuma hipótese. São limites globais para usos da inteligência artificial considerados perigosos demais para serem permitidos.
O objetivo é impedir riscos que seriam impossíveis de reparar depois. Em vez de punir depois que o dano acontece, a proposta é impedir que esses danos ocorram. É como um freio de emergência: quando o risco é grande demais, não se negocia, simplesmente não se permite.
IA: exemplos práticos do que não poderia ser feito
Armas autônomas ou sistemas militares sem controle humano.
Sistemas de inteligência artificial que conseguem se autorreplicar fora de ambientes de teste.
Ferramentas de IA capazes de se passar por humanos de forma enganosa, como deepfakes usados em eleições.
Programas de IA criados para invadir sistemas de computadores ou automatizar ataques cibernéticos.
Apoio ao desenvolvimento de armas de destruição em massa.
Vigilância em massa de populações inteiras ou sistemas de “pontuação social”.
Sistemas críticos funcionando sem qualquer supervisão humana.
Esses exemplos mostram bem o espírito da proposta. Quando o risco é de ameaça à vida, à democracia ou à segurança global, o único nível aceitável é risco zero.
Por que a ONU foi escolhida
A campanha foi lançada durante a Assembleia Geral da ONU porque a ONU é o espaço em que temas que ultrapassam fronteiras são discutidos e tratados de forma conjunta.
Questões como mudanças climáticas, armas nucleares e direitos humanos só avançaram porque tiveram um palco internacional.
Do mesmo modo, a inteligência artificial já não é apenas uma tecnologia nacional. Ela se espalha por todos os países e pode gerar consequências globais. A ONU é o fórum natural para esse tipo de pacto.
Quem apoia a iniciativa
Segundo o site oficial da campanha, ela foi lançada com o apoio de mais de 200 nomes de peso e dezenas de entidades internacionais. Entre eles estão cientistas renomados, como Geoffrey Hinton, considerado um dos pais da Inteligência Artificial moderna. Também aparecem ex-chefes de Estado e dez ganhadores do Prêmio Nobel.
A diversidade de apoios mostra que não se trata de uma bandeira apenas de especialistas em tecnologia. É um chamado político, científico e ético ao mesmo tempo.
Infelizmente, o Brasil ainda está distante de participar de um debate profundo sobre esse tema. Por aqui, a inteligência artificial é tratada de forma rasa e superficial. Não conseguimos ainda abrir canais sólidos de comunicação entre empresas, universidades e pesquisadores.
Enquanto outras nações já discutem linhas vermelhas para a IA em foros internacionais, seguimos com iniciativas fragmentadas, sem uma estratégia nacional clara.
É urgente que iniciemos esse debate de forma ampla e profissional, envolvendo academia, governo e setor privado. Só assim poderemos ocupar um espaço real nas negociações globais que estão em andamento.
Linhas vermelhas e gestão de riscos
Alguém poderia perguntar se já não basta regular a inteligência artificial por meio da gestão de riscos. Essa abordagem é útil, mas não cobre todos os cenários. Existem situações em que o risco máximo é inaceitável.
Pense em uma máquina que controla armas nucleares sem supervisão humana. O risco de falha, por menor que seja, não pode ser aceito.
O mesmo vale para sistemas que podem se autorreplicar fora de controle ou para deepfakes que manipulam eleições. Em casos assim, não há margem de tolerância. A única resposta possível é a proibição total.
Acordo internacional até 2026
O objetivo da campanha é que até 2026 exista um acordo internacional assinado e válido. O tratado teria que incluir pontos como:
Definição clara do que é uma linha vermelha.
Lista de proibições categóricas que não podem ser desrespeitadas em nenhum país.
Testes e auditorias obrigatórias antes do lançamento de sistemas de IA de alto impacto.
Cooperação internacional para responder rapidamente a incidentes de violação.
Transparência mínima em todos os sistemas que possam impactar a democracia e a segurança global.
Impacto na inovação
Alguns críticos dizem que colocar restrições pode atrapalhar a inovação. Mas os organizadores da campanha lembram que segurança e inovação podem andar juntas. Regras claras reduzem incertezas, aumentam a confiança e separam pesquisas sérias de práticas irresponsáveis.
Um ambiente regulado de forma responsável pode até estimular mais investimento, porque empresas e governos sabem quais são os limites e podem planejar melhor seus projetos.
Lições de outros acordos internacionais
A humanidade já enfrentou dilemas parecidos. O controle de armas nucleares e os tratados de biossegurança são exemplos de acordos que definiram limites globais.
Eles mostraram que é possível equilibrar desenvolvimento científico e segurança, desde que haja normas claras, fiscalização independente e sanções para quem viola as regras.
E se nada acontecer até 2026?
Se o acordo não sair até 2026, o risco é que cada país crie sua própria lista de proibições. Isso gera fragmentação regulatória e abre brechas que podem ser exploradas.
Outra possibilidade é que grandes empresas de tecnologia imponham seus próprios padrões, baseados em contratos e práticas de mercado. Isso é melhor do que nada, mas muito inferior a um tratado internacional, porque faltam mecanismos de fiscalização, equidade e reparação.
Conclusão
A campanha AI Red Lines não é um freio à inovação. É um pedido de responsabilidade. Define um núcleo mínimo de usos da Inteligência Artificial que simplesmente não podem ser permitidos.
O Brasil precisa despertar para esse debate. Ainda tratamos a IA de forma superficial, sem integrar empresas, universidades e pesquisadores em uma estratégia sólida. Se quisermos participar das grandes negociações internacionais, é urgente iniciar uma discussão ampla, profissional e madura.
A pergunta que fica é: vamos continuar espectadores ou teremos coragem de participar da construção das linhas que protegerão o futuro da humanidade?
Esse conteúdo é de acesso exclusivo aos assinantes do OP+
Filmes, documentários, clube de descontos, reportagens, colunistas, jornal e muito mais
Conteúdo exclusivo para assinantes do OPOVO+. Já é assinante?
Entrar.
Estamos disponibilizando gratuitamente um conteúdo de acesso exclusivo de assinantes. Para mais colunas, vídeos e reportagens especiais como essas assine OPOVO +.