Saltar para o conteúdo

O futuro da IA e os seus lucros dependem de trabalho mal pago: nos EUA, esta precariedade ficou evidente com a demissão de 5.000 pessoas.

Jovem com auscultadores sentado à mesa a analisar gráficos num portátil numa cozinha iluminada.

Enquanto directores executivos (CEO) anunciam um amanhã radioso impulsionado pela inteligência artificial (IA), existe uma mão-de-obra quase invisível que enfrenta despedimentos súbitos, remunerações a descer e vínculos contratuais frágeis.

Por detrás de gráficos triunfantes e de comunicados sobre investimentos de milhares de milhões em IA, a realidade de muitas pessoas é bem menos glamorosa: ritmos intensos, contratos de curta duração que podem terminar sem aviso e rendimentos irregulares - apesar de serem estas tarefas humanas que mantêm viva a corrida tecnológica.

Milhares de milhões a crescer, despedimentos a acelerar

A inteligência artificial tornou-se sinónimo de capital fresco. Cotadas em bolsa, startups e gigantes tecnológicos colocam a aposta dos próximos anos na capacidade dos algoritmos para aumentar a produtividade, reduzir custos e criar mercados inteiros.

De acordo com números citados pelo site Futurism, as actividades associadas à IA terão representado cerca de 92% do crescimento do PIB dos Estados Unidos no primeiro semestre de 2025. Dito de forma simples: quase todo o recente fôlego da economia norte-americana teve ligação directa ou indirecta a esta indústria.

Ainda assim, no mercado de trabalho o movimento é inverso. A Amazon - que beneficia da automação - eliminou aproximadamente 14 mil postos de trabalho numa só vaga, apesar de apresentar resultados robustos. Outubro de 2025 ficou marcado como um dos períodos mais severos em despedimentos no sector tecnológico desde 2003.

O esplendor financeiro da IA coexiste com um subsolo de incerteza: lucros recorde no topo e instabilidade persistente na base.

A contradição tem uma explicação recorrente: a externalização em grande escala das tarefas que alimentam os modelos. Em vez de equipas internas estáveis, uma parte substancial do trabalho passa para plataformas de trabalho a pedido, remuneradas à hora ou à tarefa, com pouca ou nenhuma protecção laboral.

Os trabalhadores invisíveis da inteligência artificial por trás dos modelos

Para que um sistema de IA pareça “inteligente”, alguém teve de preparar o terreno. Há pessoas espalhadas pelo mundo a classificar imagens, rever respostas, avaliar a qualidade de textos, anotar dados sensíveis e assinalar conteúdo violento ou inadequado para treinar a máquina a reconhecê-lo e evitá-lo.

Estas funções aparecem sob vários rótulos: rotulagem de dados, anotação, moderação e avaliação de conteúdo. Em muitos cenários, quem as executa trabalha como freelancer, prestador de serviços (“microempreendedor”) ou através de agências subcontratadas. A remuneração tende a oscilar consoante o tipo de tarefa e o país onde a pessoa se encontra.

  • Baixa visibilidade: raramente entram em relatórios anuais ou apresentações a investidores.
  • Pagamento volátil: valores por hora mudam com pouca explicação e menos transparência.
  • Zero estabilidade: projectos arrancam e terminam sem um padrão claro de aviso.
  • Pressão constante: métricas rígidas de produtividade e risco de bloqueio por “baixo desempenho”.

Apesar de serem indispensáveis, estas pessoas quase nunca entram no debate público sobre o futuro da IA. Na prática, são tratadas como peças facilmente substituíveis numa linha de montagem digital.

Há ainda um custo menos discutido: no caso da moderação e da análise de material violento, parte do trabalho envolve exposição repetida a conteúdos perturbadores. Mesmo quando existe apoio, a intermitência dos contratos e a pressão por produtividade podem reduzir o tempo disponível para pausas, acompanhamento e recuperação, agravando o desgaste.

Mercor: 5.000 pessoas desligadas de um dia para o outro

Um exemplo que ganhou destaque recentemente nos Estados Unidos envolve a Mercor, empresa que trabalha com gigantes como a Meta e a OpenAI. A organização coordenava um projecto de grande escala, denominado Musen, que mobilizava mais de 5.000 trabalhadores remotos.

Segundo relatos publicados pelo Business Insider, muitos participantes foram levados a acreditar que o trabalho se prolongaria até ao final do ano. Alguns ajustaram despesas e compromissos financeiros contando com esse rendimento.

No entanto, o projecto terminou de forma abrupta. Sem período de transição, sem garantias de recolocação e com mensagens contraditórias, milhares de pessoas ficaram sem remuneração em poucas horas.

Pouco depois, a Mercor avançou com um novo projecto, chamado Nova. O tipo de tarefas manteve-se praticamente igual: avaliar respostas de modelos de IA, identificar falhas e sugerir melhorias. A diferença mais sentida foi no valor pago.

Os testemunhos indicam que as actividades continuaram quase idênticas, mas a remuneração à hora desceu cerca de cinco dólares (aprox. 4,5 €) de um projecto para o outro.

Para muitos, o recado foi inequívoco: aceitar menos ou regressar ao fim da fila. A relação de forças entre plataformas e freelancers deixou pouca margem para negociação.

A lógica das “missões descartáveis” na inteligência artificial

O que aconteceu com a Mercor dificilmente é um caso único. Plataformas que prestam serviços a empresas de IA parecem estar a normalizar um modelo: projectos curtos, sem compromisso de continuidade e com possibilidade de reduzir tarifas a qualquer momento.

Nalgumas situações, equipas inteiras foram dissolvidas e substituídas por grupos mais pequenos, com perfis especializados e mais caros, enquanto tarefas repetitivas passaram para uma multidão global de trabalhadores com rendimentos mais baixos. O resultado é uma redução do custo médio sem grande impacto nas margens das empresas que contratam.

Para quem permanece ligado a estes circuitos, a pressão tende a aumentar. As horas estendem-se, as metas sobem, e a ameaça de “ficar sem tarefas” paira sobre cada atraso ou erro. Muitos descrevem uma espécie de resignação: aceitam as condições porque não encontram alternativas de emprego formal nas suas regiões.

O discurso de utopia não bate certo com o chão de fábrica digital

Enquanto a precarização se dissemina, líderes de grandes tecnológicas promovem uma narrativa de optimismo cauteloso. Satya Nadella, CEO da Microsoft, tem defendido que a IA pode melhorar a qualidade de vida global, desde que a decisão final se mantenha nas mãos humanas. Sam Altman, da OpenAI, também sublinha avanços “espectaculares”, embora reconheça riscos.

O argumento assenta numa “utopia pragmática”: máquinas a tratar do trabalho pesado, pessoas concentradas no que é criativo, e mais tempo livre. No papel, parece convincente.

No terreno, porém, a promessa continua assente em trabalho humano mal remunerado. A automação é o produto de montra, mas o funcionamento diário exige uma enorme quantidade de gente a corrigir erros, a apagar fogos e a ajustar saídas para cumprir políticas de segurança.

Enquanto as regras de contratação continuarem permissivas, uma parte relevante do progresso da IA repousa sobre um chão social instável, sempre sujeito a fissuras.

O que esta mudança diz sobre o futuro do trabalho

A forma como a IA está a ser construída funciona como um laboratório para tendências que podem alastrar a outros sectores. Se este modelo se consolidar, torna-se mais provável observar:

Tendência O que significa na prática
Fragmentação de tarefas Em vez de um emprego estável, a pessoa vive de microtrabalhos, nem sempre contínuos.
Rendimento instável Os ganhos mensais variam muito, dificultando o planeamento financeiro básico.
Baixa protecção Sem vínculo formal, é mais difícil aceder a apoios como subsídio de desemprego ou cuidados de saúde.
Competição global Trabalhadores de países com custo de vida mais baixo pressionam salários para baixo nos mercados centrais.

Este arranjo reforça um desenho económico em que poucas empresas concentram tecnologia, dados e capital, enquanto distribuem trabalho “bruto” por uma rede global de prestadores com pouco poder de barganha.

Vale notar que, na Europa, a discussão regulatória tende a ganhar peso: entre regras para plataformas digitais e obrigações de transparência, cresce a pressão para que a cadeia de produção da IA seja auditável também do ponto de vista laboral. Se estas medidas avançarem e forem fiscalizadas, poderão mudar incentivos e tornar menos atractivo o modelo assente em invisibilidade.

Riscos, falhas e alternativas possíveis

Se esta lógica se mantiver, o risco não é apenas social. A qualidade da própria IA pode degradar-se. Pessoas exaustas, mal pagas e inseguras têm maior probabilidade de errar, de aceitar tarefas sem tempo suficiente de análise e de privilegiar volume em vez de rigor.

Para investidores e empresas, isto pode traduzir-se em modelos menos fiáveis, mais enviesamentos incorporados e maior probabilidade de crises reputacionais ligadas a conteúdos tóxicos, discriminatórios ou simplesmente incorrectos. A poupança imediata em custos pode transformar-se num problema caro no médio prazo.

Entre as propostas em circulação em meios académicos, políticos e sindicais surgem: certificações de boas práticas para plataformas, obrigação de transparência na remuneração, criação de pisos mínimos por tarefa, incentivos fiscais dependentes das condições de trabalho e contratos híbridos que combinem flexibilidade com benefícios essenciais.

Conceitos que ajudam a ler este cenário

Alguns termos ajudam a clarificar o momento actual:

  • Trabalho de anotação de dados: processo de rotular, assinalar ou comentar informação (texto, imagem, áudio) para que modelos de IA aprendam padrões.
  • Plataformas de microtarefas: sites ou aplicações que transformam projectos grandes em pequenas tarefas pagas à peça, por vezes por cêntimos.
  • Precarização digital: combinação entre tecnologia e vínculos frágeis, baixos salários e ausência de direitos, frequentemente disfarçada por palavras como “flexibilidade” ou “oportunidade global”.

Nos próximos anos, é plausível ver uma mistura de automação cada vez mais sofisticada com disputas regulatórias e de reputação. Se governos apertarem a fiscalização e se consumidores começarem a valorizar a origem social da tecnologia que utilizam, as empresas poderão ser forçadas a rever o modelo de contratação. Caso contrário, a tendência é aprofundar uma economia de bastidores em que o “futuro brilhante” continua a ser sustentado por pessoas que trabalham no escuro.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário