A China transforma o Ano Novo Lunar numa montra de aceleração tecnológica: uma nova vaga de modelos de IA desafia de frente a liderança da Califórnia.
Enquanto as ruas se enchem de danças de dragões e o céu se ilumina com fogo de artifício, as grandes tecnológicas chinesas lançam o seu próprio “espectáculo” digital. Modelos de IA desenvolvidos em Pequim, Hangzhou e Shenzhen aproximam-se tanto de ChatGPT, Gemini e companhia que até Sam Altman, CEO da OpenAI, parece repensar a vantagem do Vale do Silício. A pergunta torna-se inevitável: durante quanto tempo mais a Califórnia vai dominar a inteligência artificial?
A China usa o Ano Novo Lunar como vitrina de IA e robótica
No Ano Novo Lunar, a narrativa não foi apenas tradição - foi também alta tecnologia. Em espectáculos oficiais, robôs humanoides actuaram em coreografias sincronizadas ao lado de pessoas. A mensagem simbólica foi clara: a China quer provar que deixou de ser seguidora em robótica e inteligência artificial.
Em paralelo, os principais grupos tecnológicos chineses publicaram uma nova vaga de modelos que cobre praticamente todas as frentes relevantes da IA actual - de geradores de vídeo a chatbots multimodais e assistentes de programação altamente especializados.
Quando os EUA tentaram travar a China com restrições à exportação de chips, essa pressão acabou por forçar as empresas chinesas a uma eficiência radical - com impacto visível na velocidade de desenvolvimento e nos custos.
Num entrevista à CNBC, Sam Altman descreveu como “notável” o ritmo de execução na China. O elogio, vindo de um líder de topo dos EUA, mostra até que ponto o Vale do Silício está a levar esta concorrência a sério.
Um embargo dos EUA que funciona como turbolador inesperado
A origem desta aceleração está, em parte, na própria política norte-americana. Washington impôs fortes limitações à exportação de chips avançados para IA destinados à República Popular. O objectivo era abrandar os planos chineses - mas, na prática, muitas vezes sucede o contrário.
Enquanto empresas como a OpenAI, a Google ou a Meta constroem centros de dados gigantes assentes em chips da Nvidia, muitos equipas chinesas são obrigadas a trabalhar com recursos significativamente mais escassos. Isso empurra-as para abordagens diferentes: arquitecturas mais frugais, processos de treino mais optimizados e alternativas à hardware americana.
Um exemplo é a utilização de chips Huawei Ascend para treinar grandes modelos de linguagem. Estes semicondutores não dependem dos EUA e, entretanto, tornaram-se suficientemente fortes para suportar treino de modelos de topo. Quem aprende a ser eficiente nestas condições reduz custos de forma estrutural - e isso transforma-se num trunfo estratégico no mercado global.
Modelos abertos como vantagem: a aposta chinesa em open source e open weight
Há um factor que tende a agradar particularmente a utilizadores e empresas na Europa: uma parte significativa dos novos modelos chineses surge em versões open source ou open weight.
- Open source: o código-fonte, a arquitectura do modelo e, muitas vezes, também os dados de treino são disponibilizados publicamente.
- Open weight: os pesos do modelo podem ser descarregados, mas o código e outros componentes permanecem, em parte, proprietários.
Ambas as opções partilham um ponto crítico: permitem operar os modelos localmente - em servidores próprios ou até em workstations potentes. Assim, as organizações mantêm controlo total sobre os dados, sem necessidade de os enviar para plataformas norte-americanas ou para clouds chinesas.
Para muitas empresas, o ponto decisivo é a privacidade: um modelo forte a correr inteiramente no seu próprio centro de dados pode tornar-se mais apelativo do que um sistema ligeiramente superior, mas alojado na cloud.
É precisamente aqui que muitos fornecedores chineses estão a posicionar-se: desempenho elevado combinado com possibilidade de descarregar, adaptar e proteger internamente. Para comunidades de desenvolvimento, isto é uma oportunidade; para grupos norte-americanos, representa uma ameaça ao seu modelo de licenciamento e negócio baseado em APIs.
Um detalhe adicional relevante no contexto europeu é que a combinação de RGPD e exigências internas de compliance torna a “residência dos dados” um argumento comercial. Mesmo quando o modelo não é o melhor em todos os benchmarks, a capacidade de manter informação sensível in-house pode pesar mais na decisão de compra.
Vídeos impressionantes: Seedance 2.0 deixa Hollywood em alerta
Entre os anúncios mais mediáticos do período, destacou-se o modelo de vídeo Seedance 2.0, do grupo ByteDance (TikTok). Os clipes gerados assemelham-se a pequenas cenas cinematográficas, com movimentos de câmara trabalhados e personagens convincentes - mais próximos de um padrão “de cinema” do que a maioria das tentativas anteriores.
O Seedance 2.0 também se diferencia por um motivo importante: não está disponível de forma aberta. Nem o código nem os pesos podem ser descarregados; trata-se de um produto proprietários clássico. E já provoca controvérsia: Disney, Paramount e Netflix acusam a ByteDance de possíveis violações de direitos de autor. A suspeita é que o modelo tenha sido treinado com material protegido.
Para o sector, isto funciona como sinal de alerta. Quanto mais realistas se tornam os vídeos gerados, mais forte é o debate - entre estúdios, realizadores e sindicatos - sobre dados de treino justos, protecção de universos de marcas e potenciais perdas de emprego. Ainda assim, o Seedance 2.0 deixa uma conclusão inequívoca: a China já compete na primeira linha da IA de vídeo.
Qwen, GLM, DeepSeek e Kimi: a nova armada de modelos de IA chineses
Qwen3.5 (Alibaba): um multimodal para tudo, com foco em agentes
A Alibaba aposta no Qwen3.5 como um grande modelo vision-language capaz de compreender e relacionar texto, imagens e vídeo. O chatbot reconhece conteúdos em cerca de 200 línguas e pode actuar como “agente” em formulários, websites ou ferramentas internas - por exemplo, para automatizar workflows.
O Qwen3.5 é disponibilizado sob licença aberta em plataformas como o GitHub. Programadores podem integrá-lo em produtos, ajustá-lo (fine-tuning) ou executá-lo na sua própria infra-estrutura. Para a Alibaba, isto também serve para atrair ecossistemas globais de IA para a sua cloud.
GLM-5 (Zhipu AI): pensado para agentes e raciocínio complexo
O GLM-5, apresentado pela Zhipu AI, aponta sobretudo a equipas técnicas e empresas que pretendem construir Agentes de IA com autonomia real. Segundo a empresa, o foco está em raciocínio lógico em múltiplos passos, planeamento mais rigoroso e resolução robusta de problemas.
Do ponto de vista técnico, é relevante a utilização de DeepSeek Sparse Attention (DSA) - uma técnica que restringe a atenção do modelo aos segmentos de contexto mais relevantes. O resultado é menos custo computacional sem uma quebra drástica de qualidade. O GLM-5 foi treinado integralmente em chips Huawei Ascend, reforçando a mensagem de independência face a hardware norte-americano.
DeepSeek V4: o desafiante chinês para GPT e Claude
A comunidade acompanha com especial expectativa a próxima iteração do DeepSeek. A geração anterior, DeepSeek V3, já chamou a atenção por se aproximar de ChatGPT em vários benchmarks - com custos de treino significativamente inferiores.
A versão V4 deverá destacar-se em tarefas de programação. De acordo com investigações de meios especializados do sector, o DeepSeek V4 poderá superar, em testes específicos, modelos GPT da OpenAI e Claude da Anthropic. Se isso se confirmar no uso real, a China passará a ter um assistente de código capaz de aliviar equipas de desenvolvimento em todo o mundo.
Kimi K2.5 (Moonshot AI): especialização em vez de gigantismo
A Moonshot AI segue com o Kimi K2.5 uma estratégia conhecida do Google Gemini 3.0: Mixture of Experts (MoE). Nesta abordagem, o grande modelo é dividido em vários submodelos especialistas. Para cada pedido, um “router” decide quais os especialistas a activar.
A vantagem é clara: poupa-se computação porque nem todas as partes do modelo trabalham com intensidade máxima em cada consulta. Alguns especialistas podem concentrar-se em programação, outros em compreensão linguística, outros em matemática ou escrita criativa.
- Vantagem: menor consumo de energia por pedido
- Vantagem: permite optimizar especialistas de forma dirigida
- Risco: arquitectura mais complexa e mais difícil de depurar (debug)
A diferença de desempenho encolhe - e pode até inverter-se
Modelos norte-americanos como ChatGPT e Gemini continuam, em muitos benchmarks, ligeiramente à frente. No entanto, essa vantagem diminuiu e, muitas vezes, só se nota ao analisar tabelas de teste em detalhe. No uso empresarial, pesam outros factores: custo, controlo, capacidade de personalização e segurança jurídica.
Um modelo apenas um pouco mais fraco, mas que corre localmente e sem fuga de dados, pode ser mais atractivo para empresas do que um serviço brilhante na cloud vindo da Califórnia.
Na Europa, onde as regras de protecção de dados são rigorosas, modelos open source e open weight chineses podem preencher um espaço relevante. As empresas descarregam os pesos, executam em hardware próprio (ou em hosters locais) e mantêm informação sensível dentro de portas. Esta dinâmica tem potencial para alterar o equilíbrio de poder no mercado global de IA.
Um passo prudente - e cada vez mais comum - é criar um processo interno de avaliação antes de adoptar um modelo: testar com dados representativos, medir custos por tarefa, validar riscos de alucinação e fazer red teaming focado em segurança e privacidade. À medida que a oferta aumenta, a capacidade de comparar e governar modelos torna-se tão importante como o desempenho bruto.
O que significam, na prática, “open weight” e “Agentes de IA”
Muitos termos associados a esta nova vaga soam técnicos, mas traduzem-se em usos muito concretos. Open weight, por exemplo, significa que os pesos do modelo treinado estão disponíveis. Isso permite às equipas:
- fazer fine-tuning com dados próprios,
- usar o modelo em ambientes offline, incluindo redes isoladas,
- reduzir dependência do fornecedor original (desde que a licença o permita).
Agentes de IA são sistemas que não se limitam a responder: planeiam e executam passos de forma autónoma - procuram documentos, preenchem formulários, interagem com ferramentas externas. É precisamente este tipo de capacidade que Qwen3.5 e GLM-5 procuram destacar: não serem apenas chatbots, mas assistentes que trabalham “nos bastidores”, da contabilidade ao desenvolvimento de software.
Oportunidades e riscos para a Alemanha, Áustria e Suíça (espaço DACH) - e lições úteis para a UE
Para empresas na região de língua alemã (Alemanha, Áustria e Suíça), esta evolução abre novas opções, mas também introduz incerteza. Do lado das oportunidades, surgem alternativas mais económicas aos serviços dos EUA, maior diversidade tecnológica e a hipótese de construir infra-estrutura própria de IA sem dependência total de um único fornecedor.
Do lado dos riscos, entram em jogo tensões geopolíticas, possíveis restrições futuras à exportação de software de IA e dúvidas legais sobre responsabilidade, direitos de autor e utilização de dados. Quem adopta modelos chineses deve verificar cuidadosamente a licença e procurar clareza sobre como foram treinados.
Em termos operacionais, para muitas organizações faz sentido uma estratégia híbrida: aplicações críticas em modelos open weight operados localmente; casos criativos ou não sensíveis continuam a passar por serviços de cloud como o ChatGPT. Assim, distribui-se risco, ganham-se aprendizagens em duas abordagens - e o fosso entre a China e o Vale do Silício continua a reduzir-se dia após dia.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário