O diretor do Instituto Internacional de Pesquisa para a Paz de Estocolmo (Sipri), Dan Smith, alerta para o uso da inteligência artificial (IA) e de novas tecnologias na nova corrida armamentista nuclear.
"A próxima corrida armamentista nuclear envolverá tanto IA, ciberespaço e espaço sideral quanto mísseis em bunkers ou submarinos ou bombas em aeronaves. Envolverá tanto o software quanto o hardware", afirmou Smith.
Isso torna a questão de como controlar e monitorar armas e estoques nucleares mais complicada do que apenas comparar totais de ogivas. Há amplos debates sobre IA em relação aos chamados "robôs assassinos" (Sistemas de Armas Autônomas Letais) e ao uso de drones automatizados e semiautomatizados, mas não tanto em relação a armas nucleares.
A inteligência artificial permite que uma grande quantidade de informações seja processada rapidamente e, em tese, isso deveria ajudar tomadores de decisão. No entanto, se algo der errado no software ou num sistema totalmente dependente de LLMs (modelos de linguagem de grande escala), aprendizado de máquina e IA, mesmo uma pequena falha técnica tem potencial para gerar um ataque nuclear.
"Acredito que deve haver uma linha vermelha com a qual provavelmente todos os líderes políticos e militares também concordarão: a decisão sobre um ataque nuclear não pode ser tomada por inteligência artificial", disse Smith.
Ele menciona o exemplo do tenente-coronel soviético Stanislav Petrov, que, em 1983, recebeu alerta no centro de comando do sistema de alerta nuclear soviético, a 100 quilômetros de Moscou: o lançamento de um míssil balístico intercontinental dos EUA, seguido de mais quatro.
Petrov, felizmente, suspeitou que o alerta fosse falso e decidiu esperar em vez de repassar a informação imediatamente à cadeia de comando. A decisão provavelmente evitou um ataque nuclear retaliatório e, na pior das hipóteses, uma guerra nuclear em larga escala. "Num mundo de inteligência artificial, quem vai desempenhar o papel do tenente-coronel Petrov?", perguntou Smith. (DW)