Saltar para o conteúdo

Há 10 anos, Stephen Hawking alertou que a evolução da IA e da tecnologia poderia criar um cenário digno de um filme de ficção científica.

Jovem cientista em laboratório com holograma da Terra e relógio flutuante, analisando dados e notas.

Dez anos atrás, um dos cientistas mais reconhecidos do mundo lançou um aviso que, para muitos, parecia longínquo.

Em 2026, esse aviso soa assustadoramente actual.

Stephen Hawking não estava a falar de uma turbulência temporária, mas de um risco existencial: a hipótese concreta de a humanidade se extinguir ao longo de alguns milhares de anos, empurrada por tecnologias fora de controlo, colapso climático e armamento cada vez mais destrutivo. Olhando a partir de 2026, a ideia lembra menos um exercício académico e mais um enredo de ficção científica a acontecer em tempo real.

O aviso de Hawking em Oxford: prazo de validade para a humanidade

Em 2016, numa intervenção na Oxford Union, Hawking apresentou um prognóstico desconfortável: se a humanidade não alargasse a sua presença para fora da Terra, poderia ter entre 1 000 e 10 000 anos de futuro no planeta.

A lógica era simples, mas inquietante. Num único ano, a probabilidade de uma catástrofe global é reduzida; somada repetidamente, ano após ano, essa probabilidade cresce até se tornar praticamente inevitável numa escala de milénios. Para Hawking, o perigo principal não era um asteroide inesperado, mas sim ameaças criadas por nós.

Hawking via a espécie humana como tecnicamente brilhante, mas emocionalmente instável - a brincar com ferramentas capazes de a apagar do mapa.

A sua lista de inquietações colocava a inteligência artificial (IA) no centro: não a IA do quotidiano, que sugere séries ou ajuda a conduzir, mas uma forma avançada, com capacidade de se reprogramar, aprender autonomamente e ultrapassar a inteligência humana - a chamada singularidade.

A singularidade que assombra cientistas e engenheiros (e o alerta de Stephen Hawking)

Na apresentação do Centro Leverhulme para o Futuro da Inteligência, em 2016, Hawking sintetizou o dilema de forma crua: uma IA completa poderia ser o maior triunfo da civilização - ou o seu último.

O receio era o de um ponto de viragem em que sistemas artificiais adquirissem autonomia, saíssem do controlo humano e passassem a tomar decisões a velocidades e em escalas que já não conseguiríamos acompanhar.

De assistente inteligente a risco estratégico

Uma década depois, o panorama tecnológico parece dar razão a parte desse temor. Modelos generativos produzem texto, código e imagens em segundos. Algoritmos já influenciam preços, trajectos de navios, fluxos financeiros e até a selecção de alvos em contextos militares.

  • Sistemas de IA optimizam arsenais e estratégias de guerra digital.
  • Plataformas automatizadas difundem desinformação com elevada precisão.
  • Vídeos e áudios falsos hiper-realistas fragilizam eleições e a confiança pública.
  • Modelos avançados consomem grandes quantidades de energia, aumentando a pressão sobre o clima.

A intersecção entre IA e poder militar é especialmente sensível. Em teoria, um erro de interpretação de dados ou uma falha num sistema automatizado de alerta pode comprimir decisões de escalada para minutos, sem espaço para recuo político.

A este cenário soma-se um desafio novo, pouco visível para o público: a necessidade de governança técnica - auditorias, testes de segurança, mecanismos de desligamento e verificação independente - antes de sistemas cada vez mais capazes serem ligados a infra-estruturas críticas (energia, comunicações, saúde, finanças e defesa). Sem estas travas, a velocidade da inovação pode ultrapassar a velocidade da supervisão.

Clima, armas e o relógio mais perto da meia-noite

Hawking também avisava para o aquecimento global, que descrevia como estando a aproximar-se de um ponto de não retorno. Em 2025, a temperatura média do planeta já teria subido cerca de 1,41 °C face à era pré-industrial.

As projecções sugerem que o limite simbólico de 1,5 °C poderá ser ultrapassado por volta de 2029. Um aumento aparentemente pequeno pode traduzir-se em efeitos profundos: maior frequência de eventos extremos, crises alimentares, migrações forçadas e tensões políticas.

No mesmo tabuleiro permanecem as armas nucleares e biológicas. A força dos tratados de desarmamento enfraquece, projectos secretos multiplicam-se e novos agentes patogénicos sintéticos entram nas matrizes de risco estratégico.

Uma dimensão frequentemente subestimada é a vulnerabilidade de sistemas essenciais em cascata: redes eléctricas, abastecimento de água, logística e serviços de emergência. Quando ondas de calor, consumo energético (incluindo o associado à IA) e instabilidade política se combinam, a resiliência deixa de ser um tema técnico e passa a ser uma questão de segurança humana.

O Relógio do Apocalipse fala alto em 2026

Em Janeiro de 2026, o Boletim dos Cientistas Atómicos ajustou o icónico Relógio do Apocalipse para 85 segundos antes da meia-noite - a posição mais próxima da catástrofe simbólica em quase oito décadas.

Clima em aquecimento, tensões nucleares e uma corrida desenfreada à IA compõem hoje um tripé de risco global raramente visto.

Criado por cientistas associados a Einstein e Oppenheimer, o relógio não mede tempo real: é um indicador da percepção de quão perto estaremos de uma ruptura civilizacional causada por nós próprios.

Colonizar outros planetas: plano de sobrevivência ou ilusão cara?

Para Hawking, uma resposta parecia evidente: não pôr todos os ovos no mesmo cesto planetário. Em termos práticos, dispersar a humanidade pelo Sistema Solar e, mais tarde, por outras estrelas.

O que em 2016 podia soar quase romântico esbarra, em 2026, numa geopolítica concreta. A Estação Espacial Internacional aproxima-se do fim da sua vida útil. Estados Unidos, China e Rússia estruturam programas próprios para estações orbitais, bases lunares e mineração de recursos espaciais.

Em paralelo, surgem sinais de militarização da órbita, como escudos espaciais e sistemas de vigilância global permanente. Um desses conceitos, apelidado de “Cúpula Dourada” durante a era Trump, reactivou alertas sobre a hipótese de armas nucleares ou de energia dirigida serem integradas em plataformas orbitais.

Fuga para a frente ou solução real?

A questão de fundo mantém-se: apostar fortemente na colonização espacial resolve problemas - ou limita-se a transferi-los para outro palco?

Visão Pontos fortes Riscos e limites
Colonização espacial como seguro de vida Reduz a dependência de um único planeta; estimula avanços em ciência e tecnologia. Custos astronómicos; acesso limitado a poucos países e empresas; repetição de desigualdades.
Foco em reparar a Terra Benefícios directos para milhares de milhões de pessoas; respostas climáticas e sociais mais rápidas. Mantém vulnerabilidade a catástrofes globais; instabilidade política pode bloquear acordos.

A leitura crítica é directa: apostar em Marte ou em colónias lunares não pode servir de desculpa para adiar acções climáticas, controlo de armas e regulação de IA aqui em baixo.

O instinto herdado de agressão na era da tecnologia total

Hawking insistia frequentemente num ponto menos técnico e mais psicológico: o instinto herdado de agressão. Na sua perspectiva, a cooperação humana evoluiu, mas continua a conviver com impulsos de dominação e conflito - agora ampliados por ferramentas de alcance planetário.

Com IA, este traço ganha camadas adicionais. Sistemas capazes de segmentar eleitores, amplificar discurso de ódio ou orientar drones armados tornam mais perigosas decisões tomadas por grupos reduzidos, em salas fechadas, com pouco escrutínio público.

A tecnologia, por si só, não fabrica a catástrofe; ela amplifica - até ao limite - escolhas políticas e éticas que já fazemos hoje.

Termos e cenários que ajudam a entender o risco

O que significa “singularidade” na prática

No debate sobre IA, singularidade costuma designar o momento em que sistemas artificiais superam a inteligência humana em praticamente todas as tarefas relevantes e passam a autoaperfeiçoar-se sem depender de programadores.

Alguns cenários discutidos entre investigadores incluem:

  • IA estratégica a controlar cadeias de abastecimento, energia e defesa em vários países.
  • Sistemas autónomos a tomar decisões financeiras em alta velocidade, com potencial para provocar colapsos súbitos.
  • Ferramentas de biologia sintética orientadas por IA a desenhar patógenos com grande capacidade de disseminação.
  • Modelos militares com autonomia para seleccionar e atacar alvos com supervisão humana mínima.

Não existe consenso nem sobre se a singularidade acontecerá, nem sobre datas. O ponto de convergência é outro: a urgência de criar governança antes de sistemas se aproximarem desse limiar.

Simulações que parecem ficção, mas influenciam decisões

Em universidades e centros de investigação, equipas combinam modelos climáticos, dados económicos e simulações de IA para estimar como crises podem acumular-se:

  • Um Verão extremo a desencadear incêndios florestais em vários continentes ao mesmo tempo.
  • Falhas em redes eléctricas pressionadas pelo consumo de IA e pela utilização intensiva de ar condicionado.
  • Desinformação automática nas redes a alimentar pânico e conflitos internos.
  • Governos a responder com medidas de excepção, apoiados em sistemas preditivos pouco transparentes.

Estes cenários não pretendem adivinhar datas; servem para testar políticas: que redes devem ser reforçadas, que tipo de regulação de IA reduz danos e como alinhar metas climáticas com metas tecnológicas.

Riscos, oportunidades e o intervalo que ainda temos

O retrato traçado por Hawking nunca foi apenas apocalíptico. Ele acreditava que a humanidade podia ultrapassar desafios se combinasse ciência, cooperação internacional e limites claros para as suas próprias armas.

A IA, por exemplo, também pode ajudar a prever ondas de calor, optimizar o consumo de energia, desenvolver materiais menos poluentes e acelerar investigação médica. A mesma ferramenta que consome energia pode, em teoria, redesenhar sistemas inteiros para gastar menos.

A tensão está precisamente nesta encruzilhada: quanto mais poderosa a tecnologia, maior o impacto da forma como é orientada. Num planeta a 85 segundos simbólicos da meia-noite, o tempo para decidir a direcção encurta - e a sensação de estarmos a ver ficção científica transforma-se, cada vez mais, num registo quase documental.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário