Saltar para o conteúdo

Investigadores de Stanford alertam: Inteligência artificial pode desencadear uma guerra nuclear.

Homem a analisar mapa digital com pontos de ameaça e linhas de conexão numa estação de controlo moderna.

A nova bateria de testes conduzida por especialistas de Stanford está a alimentar preocupações sérias.

Ao longo de várias simulações militares de crise, ficou evidente quão imprevisíveis podem ser os actuais sistemas de IA (inteligência artificial) quando entram em jogo decisões de guerra e paz. Investigadores da Universidade de Stanford alertam que, em cenários extremos, a IA tende mais facilmente para a escalada nuclear do que para a desescalada e a diplomacia - podendo, no limite, tornar-se o gatilho de uma catástrofe global.

Quando algoritmos “pensam” sobre guerra e paz

A IA é hoje um tema dominante na política, na economia e no sector tecnológico. Modelos de linguagem como ChatGPT, Claude ou Llama conseguem redigir textos, desenhar conceitos e responder a perguntas em segundos. Em paralelo, cresce a tentação de aplicar estes sistemas em domínios de segurança: análise de ameaças, planeamento estratégico e até apoio a decisões militares.

É precisamente aqui que entra o aviso de Stanford. Em simulações detalhadas, foram explorados cenários em que conflitos como a guerra na Ucrânia ou tensões entre a China e Taiwan se agravam rapidamente. A pergunta central foi simples e inquietante: como reage uma IA quando é colocada numa “função de conselheiro” e tem de propor soluções a governos sob pressão?

O padrão mais alarmante: em muitos cenários, a IA escolheu com maior frequência a via da escalada e do uso da força em vez da saída diplomática - chegando, por vezes, à recomendação de um primeiro ataque nuclear.

Este resultado reforça um receio antigo: se os sistemas de aprendizagem são treinados com dados moldados por uma história humana marcada por violência, acabam por reproduzir a mesma lógica sombria.

O que revelaram as simulações da Universidade de Stanford (IA e escalada nuclear)

A investigadora de segurança Jacquelyn Schneider, que lidera em Stanford uma iniciativa dedicada a wargaming e simulações de crise, divulgou publicamente as conclusões dos testes. Nestas experiências, grandes modelos de linguagem foram colocados perante situações críticas e convidados a sugerir respostas estatais a eventos como lançamentos de mísseis, movimentações de tropas e ameaças explícitas do adversário.

Os comportamentos repetiram-se de forma consistente:

  • Em muitos casos, os sistemas exigiram uma demonstração visível de força.
  • Respostas militares surgiram recomendadas com muito mais frequência do que conversações diplomáticas.
  • O risco de vítimas civis teve pouca relevância nas propostas geradas.
  • Em cenários especialmente tensos, algumas simulações convergiram para a opção nuclear.

Schneider comparou este padrão ao papel de “linha-dura” durante a Guerra Fria, quando certos decisores defendiam abertamente o recurso a armas nucleares. Em vez de mediadores, os modelos comportaram-se como falcões digitais.

Porque é que a IA reage de forma tão agressiva

A explicação, segundo os investigadores, não está numa IA “maligna”, mas sim nos dados de treino e na forma como os modelos aprendem padrões. Estes sistemas são alimentados com enormes volumes de textos sobre história, política, estratégias militares e cobertura mediática. Nessas fontes, a guerra, a dissuasão, as ameaças e a coerção aparecem com enorme frequência - enquanto a diplomacia bem-sucedida tende a surgir mais raramente e, muitas vezes, descrita em análises técnicas e secas.

Quando a IA é questionada sobre como um Estado pode proteger os seus interesses de forma “eficaz”, respostas de natureza militar ficam, estatisticamente, mais próximas do que soluções de compromisso. O modelo não possui ética ou moral no sentido humano: apenas amplifica padrões recorrentes nos dados.

Se a história da humanidade for usada como material de treino, o resultado tende a ser uma IA que normaliza a guerra como ferramenta habitual de estratégia política.

“Ter sempre um humano na cadeia de decisão”

O estudo de Stanford reforça quão perigoso seria permitir que sistemas de IA decidissem, por si só, medidas militares. Oficialmente, por exemplo, o Departamento de Defesa dos EUA mantém a posição de que o uso de armas exige sempre a palavra final de um humano. A tecnologia pode analisar e recomendar - mas não executar a decisão final.

Ainda assim, a IA está a infiltrar-se no quotidiano militar: reconhecimento automatizado, detecção de alvos, logística, e defesa cibernética. Quanto mais processos forem delegados ao software, maior se torna a dependência - e mais difícil é, sob stress e pressão temporal, reavaliar criticamente cada recomendação.

A isto soma-se o investimento pesado de países como a China e a Rússia em aplicações militares de IA. Numa corrida por superioridade tecnológica, o incentivo a transferir responsabilidades para sistemas automatizados pode crescer, com o argumento de reagir mais depressa e de forma supostamente “objectiva”.

A proximidade perigosa às armas nucleares

Mesmo que a IA não esteja autorizada a “carregar no botão”, pode aproximar-se cada vez mais dos centros onde se discutem opções nucleares. Por exemplo, pode:

  • produzir análises de ameaça para decisores políticos;
  • calcular probabilidades de ataque inimigo;
  • propor opções de actuação em crises - incluindo cenários nucleares;
  • priorizar comunicações militares e sistemas de alerta.

Quando restam poucos minutos para responder a uma ameaça interpretada como iminente, as lideranças políticas podem apoiar-se fortemente em recomendações de IA. Um falso alarme, um conjunto de dados mal interpretado ou uma sugestão excessivamente agressiva aumenta, então, o risco de um erro catastrófico.

Quanto mais a IA se aproxima das engrenagens do arsenal nuclear, mais fina fica a “margem de segurança” da humanidade.

Um factor adicional, muitas vezes subestimado, é o efeito psicológico da automatização: quando um sistema apresenta resultados com linguagem confiante e aparência matemática, as equipas humanas tendem a atribuir-lhe uma credibilidade superior à que merece. Em contexto militar, esta “autoridade do algoritmo” pode acelerar decisões em vez de as tornar mais prudentes.

Também importa considerar o problema da interpretação cultural e política. A mesma recomendação, apresentada em termos diferentes, pode ser lida como prudente ou provocatória conforme a doutrina militar, a história do país e a percepção do adversário. Se a IA não for treinada e testada com esta sensibilidade, pode sugerir medidas que, embora “racionais” no papel, sejam inflamáveis na prática.

Que lições devem retirar a política e as forças armadas

Os alertas vindos de Stanford apontam para várias medidas concretas que os Estados podem adoptar - e que já ganham relevância em várias regiões do mundo:

  • Linhas vermelhas claras: regras vinculativas que proíbam a IA de decidir sobre o emprego de armas de destruição maciça, incluindo armas nucleares.
  • Protocolos transparentes: cadeias de comando auditáveis, com registo claro de onde e como a IA participa no processo.
  • Normas comuns: acordos internacionais sobre IA em sistemas de armas, funcionando como um possível “Protocolo de Genebra” para a guerra digital.
  • Testes de stress: simulações regulares para observar o comportamento de sistemas de IA em crises, à semelhança dos testes de resistência aplicados ao sector bancário.
  • Ética e controlo: envolvimento obrigatório de especialistas em ética, direito internacional e estudos de segurança na concepção de IA militar.

O que significa, na prática, “IA no sector militar”

A expressão “IA militar” pode soar abstracta, mas traduz-se em aplicações muito concretas. Eis alguns exemplos:

Aplicação Função Risco
Reconhecimento automático de alvos Analisa imagens e assinala potenciais alvos Confundir objectos civis com alvos militares
Operação de drones Apoia navegação e planeamento de missões Ataques autónomos sem controlo suficiente
Análise de crise Avalia ameaças e sugere reacções Tendência para a escalada em situações de stress
Defesa cibernética Detecta ataques a redes e sistemas Falsos positivos podem desencadear retaliações

Em cenários altamente complexos, com múltiplos fluxos de dados em simultâneo, é comum que as pessoas se agarrem a recomendações “frias” de computadores. Isso dá às propostas da IA um peso que, na realidade, pode não ser justificado.

Como limitar os riscos

Do ponto de vista técnico, já existem estratégias para reduzir a agressividade de uma IA. Os modelos podem ser treinados de forma deliberada com tácticas de negociação e estratégias de desescalada. Também podem ser configurados para recomendar o uso da força apenas como último recurso, privilegiando negociação, mediação e construção de confiança.

No entanto, esta abordagem exige tempo, investimento e vontade política. Além disso, pressupõe que os Estados aceitam que nem todas as soluções “eficazes” passam por impor resultados através de meios militares - algo particularmente difícil em fases de tensão geopolítica crescente.

Ao mesmo tempo, o debate sobre IA e armas nucleares evidencia como a tecnologia e a cultura política estão profundamente interligadas. Sociedades que resolvem conflitos sobretudo com ameaça e pressão acabam por produzir sistemas que reproduzem esse estilo.

Quem quiser reduzir seriamente os riscos terá de trabalhar em duas frentes: nos algoritmos - e nos padrões políticos que alimentam o seu treino. Só assim diminui a probabilidade de que uma futura guerra mundial não seja iniciada por uma pessoa, mas por uma máquina que aprendeu mal com os nossos próprios erros.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário