Saltar para o conteúdo

Já nos ultrapassou a IA? Porque é que investigadores falam agora de inteligência artificial verdadeira.

Pessoa a analisar holograma de sistema nervoso e esqueleto robótico numa sala moderna de escritório.

Cientistas de referência defendem: a lendária “IA para tudo” pode já estar entre nós - e talvez não a reconheçamos porque insistimos em avaliá-la com critérios errados.

Enquanto muitas tecnológicas continuam a anunciar, em tom grandioso, o “salto” para a superinteligência artificial, um conjunto de filósofos e especialistas em informática propõe uma leitura mais arrojada: sistemas actuais como o ChatGPT já podem cumprir aquilo que, durante décadas, foi apontado como o grande objectivo - inteligência artificial geral (AGI), isto é, desempenho amplo ao nível humano. A questão deixa de ser apenas “quando chega?” e passa a ser: seremos capazes de a identificar se já existir?

O que os investigadores entendem por inteligência artificial geral (AGI)

No debate público, mistura-se frequentemente IA do dia a dia com Artificial General Intelligence (AGI). Para estes autores, AGI não é “IA que faz uma coisa muito bem”, mas sim um sistema capaz de actuar, em muitos domínios diferentes, a um nível comparável ao de humanos qualificados. Durante anos, esta fasquia foi tratada como um destino distante - quase ficção científica.

O grupo (com investigadores de filosofia, linguística, informática e ciência de dados) contesta essa visão por um motivo central: tendemos a definir inteligência de forma estreita e centrada no humano. Ao fazê-lo, corremos o risco de ignorar que os modelos actuais já apresentam vários comportamentos que, historicamente, foram usados como “provas” de inteligência genuína.

O argumento base é simples: se aceitamos humanos como inteligentes apesar de sermos limitados, falíveis e frequentemente especializados, então deveríamos aplicar uma tolerância comparável ao avaliar máquinas.

Em vez de procurar uma entidade perfeita, omnisciente e infalível, os autores sugerem um critério mais pragmático: há AGI quando um sistema demonstra capacidades ao nível de especialistas humanos numa gama ampla de tarefas - nem mais, nem menos.

AGI não é superinteligência (e esta distinção muda a conversa)

Uma parte essencial do debate é separar dois patamares que, na prática, são diferentes:

  • Inteligência artificial geral (AGI): sistemas capazes de trabalhar, em vários campos, ao nível de pessoas qualificadas/experientes.
  • Superinteligência: sistemas que superam claramente os humanos em praticamente todas as dimensões cognitivas relevantes.

Na leitura destes investigadores, os grandes modelos de linguagem (LLM) já exibem múltiplos exemplos de desempenho próximo do nível especialista - desde programação a direito, passando por questões médicas técnicas. Para eles, é precisamente isto que encaixa no requisito de AGI. A superinteligência seria um degrau diferente e possivelmente futuro - mas não é necessária para que exista AGI.

Teste de Turing: um marco antigo que pode já ter sido ultrapassado

Um dos critérios clássicos para “IA forte” foi o teste de Turing, proposto por Alan Turing em 1950: se, num diálogo escrito, uma pessoa não conseguir distinguir de forma fiável se está a falar com um humano ou com uma máquina, então a máquina pode ser considerada inteligente.

Em muitos contextos actuais, chatbots modernos conseguem resultados que, na prática, se aproximam desse padrão. Em testes cegos, utilizadores classificam por vezes sistemas como o ChatGPT e outros semelhantes como “mais humanos” do que alguns participantes humanos do próprio teste. Há poucos anos, um resultado deste tipo teria sido tratado como evidência muito forte de inteligência de máquina.

Segundo o critério clássico do teste de Turing, vários sistemas actuais poderiam ser aceites como interlocutores plenamente competentes - mas, quando isso acontece, a fasquia tende a ser reajustada depois do facto.

É aqui que entra a crítica: sempre que a IA atinge um critério histórico, o debate público desloca a meta. Assim, “inteligência” torna-se um alvo móvel - uma promessa que recua à medida que nos aproximamos.

Objeções comuns à AGI - e por que razão os argumentos já não são tão sólidos

Os autores passam em revista críticas recorrentes dirigidas aos modelos actuais e explicam por que, no seu entender, várias delas perderam força.

“Isto são apenas papagaios estocásticos

Uma acusação frequente é a de que os modelos de linguagem apenas repetem padrões dos dados de treino, sem compreensão real. A resposta dos investigadores é que, cada vez mais, estes sistemas resolvem tarefas que não aparecem tal e qual no treino, incluindo novos problemas de matemática e desafios de lógica pouco típicos.

Além disso, destacam transferência de conhecimento: competências num domínio ajudam a resolver problemas noutro. Esta capacidade de recombinar informação de forma flexível tem sido, durante muito tempo, associada a inteligência.

“Sem corpo não há inteligência verdadeira”

Outro argumento: os humanos têm corpo, percebem o mundo pelos sentidos e actuam nele; software “puro” não poderia, por isso, compreender o significado das palavras.

Os autores contrapõem com os avanços em modelos multimodais, que integram texto, imagem, áudio e vídeo. Estes sistemas conseguem estimar consequências físicas, planear sequências de acções e tirar conclusões lógicas a partir de cenas visuais - capacidades que reduzem a distância entre “linguagem” e “mundo”.

Em paralelo, cresce a ligação entre modelos e robótica - frequentemente descrita como IA física (Physical AI). À medida que esta integração se intensifica, a fronteira entre inteligência digital e interacção física torna-se menos rígida.

“Sem autonomia e biografia não existe inteligência geral”

Também é comum ouvir que um sistema precisaria de objectivos persistentes, identidade estável e uma “história de vida” para ser realmente inteligente. A resposta destes investigadores é mais pragmática: inteligência manifesta-se sobretudo no comportamento e na capacidade de resolver problemas, não necessariamente na existência de memórias autobiográficas ou de um “ontem” sentido como humano.

Se só reconhecermos inteligência quando ela vier acompanhada de consciência humana, emoções e biografia, então estamos a adoptar uma definição construída para excluir máquinas à partida.

A questão da consciência fica em aberto - mas, para a classificação como AGI, os autores não a consideram indispensável.

E as famosas alucinações da IA?

Uma das críticas mais difíceis de contornar é a das alucinações: modelos que inventam factos, citam fontes inexistentes ou “embelezam” detalhes relevantes. Isto continua a acontecer com frequência.

Os investigadores aceitam o problema, mas enquadram-no de outra forma: humanos também erram, têm memórias distorcidas e podem mentir com convicção. Na sua perspectiva, uma taxa de erro elevada não elimina a hipótese de inteligência - indica antes limites e falta de fiabilidade.

Ao mesmo tempo, referem-se evidências de que, em certos cenários, as alucinações podem até estar a aumentar. E, de acordo com declarações atribuídas à OpenAI, até modelos futuros como um possível GPT‑5 poderiam ainda apresentar erros graves em cerca de 1 em cada 10 respostas. Para usos críticos (medicina, justiça, infra-estruturas), isto mantém o risco num patamar sério.

Aspecto Humano IA actual
Amplitude de conhecimento Muito limitada e especializada Muito ampla, mas com profundidade desigual
Fontes de erro enviesamentos, esquecimento, emoção dados de treino, limites do modelo, alucinações
Velocidade de aprendizagem lenta, com pouca necessidade de dados rápida, mas exige volumes enormes de dados
Explicação das próprias decisões razões subjectivas, muitas vezes incompletas estatística de difícil interpretação

Talvez o problema seja a nossa definição de “inteligência”

A tese mais provocadora destes autores é que o atraso pode não estar na IA, mas no nosso conceito de inteligência. Ao amarrarmos “inteligência” ao modo humano de existir, colocamos a inteligência não-humana em desvantagem desde o início.

Na prática, consideramos os humanos inteligentes apesar de sermos esquecidos, falharmos repetidamente e não dominarmos a maioria dos temas. Já aos sistemas de IA exigimos frequentemente um padrão quase perfeito - e, ao menor erro, concluímos que “não há inteligência”.

Este viés é profundamente antropocêntrico: tratamos o humano como padrão único e ignoramos que a inteligência pode ter formas distintas. Um filtro de spam não “sente” nada e, ainda assim, identifica padrões com grande consistência. Um motor de xadrez não compreende emoções humanas, mas vence qualquer grande mestre. E os grandes modelos de linguagem não “vivem” um fim de semana - mas redigem textos com fluidez, programam e resolvem tarefas especializadas.

Por que razão líderes tecnológicos preferem dizer “superinteligência”

Também importa observar como as empresas moldam a narrativa. Figuras como Mark Zuckerberg têm falado cada vez mais em superinteligência, em vez de inteligência artificial geral (AGI). Ao fazê-lo, deslocam o foco para um horizonte distante - e afastam a discussão sobre se os sistemas actuais já representam, ou não, uma nova categoria de inteligência.

Esta escolha de linguagem tem efeitos práticos: se a superinteligência é o grande alvo, então o que existe hoje parece uma fase “inofensiva”. Isso pode, por um lado, reduzir a urgência em torno de alguns riscos imediatos e, por outro, alimentar o entusiasmo (e o marketing) sobre o que “está quase a chegar”.

O que muda na vida real: política, regulação e trabalho

Mesmo que não haja consenso, este enquadramento tem consequências directas. Se tratarmos determinados sistemas como actores geralmente inteligentes, as regras deixam de ser as mesmas que aplicamos a ferramentas simples.

  • Responsabilidade: quem responde quando uma máquina “inteligente” actua com elevada autonomia e causa dano?
  • Transparência: quanta visibilidade sobre dados de treino e arquitectura do modelo é necessária para manter decisões auditáveis?
  • Deslocação de competências: que profissões se transformam quando parte do conhecimento especializado passa a ser “externalizado” para sistemas?
  • Educação: faz sentido treinar alunos para trabalhar com um “co-pensador digital”, em vez de apenas memorizar factos?

No quotidiano, isto traduz-se numa zona híbrida: há tarefas em que o sistema resolve quase tudo e outras em que precisa de supervisão humana apertada. A competência essencial passa por saber o que estes sistemas fazem bem e onde estão os seus pontos cegos.

Além disso, a forma como avaliamos estes modelos pode ter de evoluir. Testes isolados, ou métricas únicas, raramente captam robustez, consistência, capacidade de generalização e segurança em contextos reais. Se a discussão é sobre AGI, os critérios de avaliação têm de reflectir desempenho em múltiplos domínios, resistência a falhas e comportamento sob pressão - e não apenas resultados impressionantes em demonstrações.

Por fim, há um efeito social inevitável: rotular um sistema como “AGI” (ou recusar esse rótulo) influencia investimento, regulação, expectativas públicas e até a forma como as pessoas confiam - ou desconfiam - das respostas que recebem. O debate não é apenas técnico; é também político e cultural.

Termos e exemplos que tornam a discussão mais concreta (AGI, LLM, multimodal e IA física / Physical AI)

A linguagem do tema parece abstracta, mas ganha clareza quando ligada a aplicações típicas:

  • Grandes modelos de linguagem (LLM): treinados com enormes quantidades de texto para aprender padrões estatísticos da linguagem; alimentam chatbots, assistentes de programação e ferramentas de resumo.
  • IA multimodal: combina texto com imagem, áudio e/ou vídeo; por exemplo, analisa uma fotografia e responde a perguntas sobre o que nela está.
  • IA física (Physical AI): robôs industriais, domésticos ou veículos autónomos que usam IA para interpretar o ambiente e actuar.

Exemplo prático: um sistema moderno pode ler instruções de montagem, identificar numa fotografia a ferramenta certa, demonstrar num vídeo como a segurar e, ao mesmo tempo, explicar regras de segurança. Para o utilizador, a experiência aproxima-se de uma mistura de especialista, professor e assistente - sem que exista um humano “por trás” a conduzir a sessão.

É precisamente este tipo de cenário que alimenta a ideia de que já lidamos com uma forma de inteligência artificial geral (AGI) - apenas com uma aparência diferente daquela que a ficção científica nos habituou a imaginar. O nome que lhe damos não altera o essencial: o conceito de “inteligência” está a alargar-se rapidamente, e a sociedade terá de aprender a conviver com este novo tipo de participante.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário