Logo O POVO+
O que a ONU quer proibir na IA antes que seja tarde
Foto de Vladimir Nunan
clique para exibir bio do colunista

Vladimir Nunan é CEO da Eduvem, uma startup premiada com mais de 20 reconhecimentos nacionais e internacionais. Fora do mundo corporativo, é um apaixonado por esportes e desafios, dedicando-se ao triatlo e à busca contínua pela superação. Nesta coluna, escreve sobre tecnologia e suas diversidades

Vladimir Nunan tecnologia

O que a ONU quer proibir na IA antes que seja tarde

O objetivo é impedir riscos que seriam impossíveis de reparar depois. Em vez de punir depois que o dano acontece, a proposta é impedir que esses danos ocorram
Fachada do sede da ONU, em Nova Iorque (Foto: Alan Santos/PR)
Foto: Alan Santos/PR Fachada do sede da ONU, em Nova Iorque

Durante a 80ª sessão da Assembleia Geral da ONU, em setembro de 2025, foi lançada a campanha global AI Red Lines. A proposta é clara: fazer um apelo urgente para que os governos de todo o mundo assinem, até o fim de 2026, um acordo internacional com limites intransponíveis para o uso da Inteligência Artificial (IA).

Essas “linhas vermelhas” seriam regras globais para impedir usos da tecnologia que representem riscos graves, como ameaçar a segurança mundial, criar desinformação em massa ou desenvolver sistemas autônomos sem qualquer supervisão humana.

Mais de 200 lideranças globais já apoiaram a campanha, incluindo ex-chefes de Estado, cientistas, pioneiros da IA e ganhadores do Prêmio Nobel. Além disso, 70 organizações também se juntaram ao esforço. O recado é claro: não podemos esperar uma tragédia para agir.

O que são “linhas vermelhas” para o uso da IA

A ideia de linhas vermelhas é simples. São proibições que não podem ser quebradas em nenhuma hipótese. São limites globais para usos da inteligência artificial considerados perigosos demais para serem permitidos.

O objetivo é impedir riscos que seriam impossíveis de reparar depois. Em vez de punir depois que o dano acontece, a proposta é impedir que esses danos ocorram. É como um freio de emergência: quando o risco é grande demais, não se negocia, simplesmente não se permite.

IA: exemplos práticos do que não poderia ser feito

  • Armas autônomas ou sistemas militares sem controle humano.
  • Sistemas de inteligência artificial que conseguem se autorreplicar fora de ambientes de teste.
  • Ferramentas de IA capazes de se passar por humanos de forma enganosa, como deepfakes usados em eleições.
  • Programas de IA criados para invadir sistemas de computadores ou automatizar ataques cibernéticos.
  • Apoio ao desenvolvimento de armas de destruição em massa.
  • Vigilância em massa de populações inteiras ou sistemas de “pontuação social”.
  • Sistemas críticos funcionando sem qualquer supervisão humana.

Esses exemplos mostram bem o espírito da proposta. Quando o risco é de ameaça à vida, à democracia ou à segurança global, o único nível aceitável é risco zero.

Por que a ONU foi escolhida

A campanha foi lançada durante a Assembleia Geral da ONU porque a ONU é o espaço em que temas que ultrapassam fronteiras são discutidos e tratados de forma conjunta.

Questões como mudanças climáticas, armas nucleares e direitos humanos só avançaram porque tiveram um palco internacional.

Do mesmo modo, a inteligência artificial já não é apenas uma tecnologia nacional. Ela se espalha por todos os países e pode gerar consequências globais. A ONU é o fórum natural para esse tipo de pacto.

Quem apoia a iniciativa

Segundo o site oficial da campanha, ela foi lançada com o apoio de mais de 200 nomes de peso e dezenas de entidades internacionais. Entre eles estão cientistas renomados, como Geoffrey Hinton, considerado um dos pais da Inteligência Artificial moderna. Também aparecem ex-chefes de Estado e dez ganhadores do Prêmio Nobel.

A diversidade de apoios mostra que não se trata de uma bandeira apenas de especialistas em tecnologia. É um chamado político, científico e ético ao mesmo tempo.

E o Brasil discute IA?

Infelizmente, o Brasil ainda está distante de participar de um debate profundo sobre esse tema. Por aqui, a inteligência artificial é tratada de forma rasa e superficial. Não conseguimos ainda abrir canais sólidos de comunicação entre empresas, universidades e pesquisadores.

Enquanto outras nações já discutem linhas vermelhas para a IA em foros internacionais, seguimos com iniciativas fragmentadas, sem uma estratégia nacional clara.

É urgente que iniciemos esse debate de forma ampla e profissional, envolvendo academia, governo e setor privado. Só assim poderemos ocupar um espaço real nas negociações globais que estão em andamento.

Linhas vermelhas e gestão de riscos

Alguém poderia perguntar se já não basta regular a inteligência artificial por meio da gestão de riscos. Essa abordagem é útil, mas não cobre todos os cenários. Existem situações em que o risco máximo é inaceitável.

Pense em uma máquina que controla armas nucleares sem supervisão humana. O risco de falha, por menor que seja, não pode ser aceito.

O mesmo vale para sistemas que podem se autorreplicar fora de controle ou para deepfakes que manipulam eleições. Em casos assim, não há margem de tolerância. A única resposta possível é a proibição total.

Acordo internacional até 2026

O objetivo da campanha é que até 2026 exista um acordo internacional assinado e válido. O tratado teria que incluir pontos como:

  • Definição clara do que é uma linha vermelha.
  • Lista de proibições categóricas que não podem ser desrespeitadas em nenhum país.
  • Testes e auditorias obrigatórias antes do lançamento de sistemas de IA de alto impacto.
  • Cooperação internacional para responder rapidamente a incidentes de violação.
  • Transparência mínima em todos os sistemas que possam impactar a democracia e a segurança global.

Impacto na inovação

Alguns críticos dizem que colocar restrições pode atrapalhar a inovação. Mas os organizadores da campanha lembram que segurança e inovação podem andar juntas. Regras claras reduzem incertezas, aumentam a confiança e separam pesquisas sérias de práticas irresponsáveis.

Um ambiente regulado de forma responsável pode até estimular mais investimento, porque empresas e governos sabem quais são os limites e podem planejar melhor seus projetos.

Lições de outros acordos internacionais

A humanidade já enfrentou dilemas parecidos. O controle de armas nucleares e os tratados de biossegurança são exemplos de acordos que definiram limites globais.

Eles mostraram que é possível equilibrar desenvolvimento científico e segurança, desde que haja normas claras, fiscalização independente e sanções para quem viola as regras.

E se nada acontecer até 2026?

Se o acordo não sair até 2026, o risco é que cada país crie sua própria lista de proibições. Isso gera fragmentação regulatória e abre brechas que podem ser exploradas.

Outra possibilidade é que grandes empresas de tecnologia imponham seus próprios padrões, baseados em contratos e práticas de mercado. Isso é melhor do que nada, mas muito inferior a um tratado internacional, porque faltam mecanismos de fiscalização, equidade e reparação.

Conclusão

A campanha AI Red Lines não é um freio à inovação. É um pedido de responsabilidade. Define um núcleo mínimo de usos da Inteligência Artificial que simplesmente não podem ser permitidos.

O Brasil precisa despertar para esse debate. Ainda tratamos a IA de forma superficial, sem integrar empresas, universidades e pesquisadores em uma estratégia sólida. Se quisermos participar das grandes negociações internacionais, é urgente iniciar uma discussão ampla, profissional e madura.

A pergunta que fica é: vamos continuar espectadores ou teremos coragem de participar da construção das linhas que protegerão o futuro da humanidade?

Referências

AI Red Lines. Site oficial da campanha: https://red-lines.ai

The Verge. “AI red lines campaign launches at the UN General Assembly”, setembro de 2025.

OCDE. Documentos sobre governança de IA e gestão de riscos.

Foto do Vladimir Nunan

Ôpa! Tenho mais informações pra você. Acesse minha página e clique no sino para receber notificações.

O que você achou desse conteúdo?