As prestações dela foram cortadas de um dia para o outro. O sistema indicava que deixara de reunir condições. No pequeno balcão municipal, ninguém conseguia explicar porquê. A técnica carregou em botões, percorreu o ecrã, tentou voltar a iniciar sessão. Nada. “É o novo algoritmo”, murmurou, como se estivesse a nomear uma divindade caprichosa. Lá fora, as pessoas apertavam senhas e pastas de plástico cheias de documentos, à espera de um sim ou de um não vindos de uma máquina que nunca iriam ver. Cá dentro, uma linha silenciosa de código já decidia quem recebe apoio - e quem, simplesmente, desaparece dos dados. Em algum lugar, alguém definiu um limiar, ajustou um modelo, colocou a versão em produção.
Quando o apoio público passa a ser uma linha de código
Em serviços de acção social, balcões de imigração, departamentos de habitação, a mesma cena repete-se com uma regularidade inquietante. Um funcionário pede desculpa, um cidadão franz(e) o sobrolho, e o ecrã mostra um veredicto curto sem assinatura humana. A decisão é rápida, “limpa”, estranhamente fria. Não há gritos, nem discussão confusa - apenas um discreto “O seu pedido foi indeferido”. À primeira vista, parece progresso: menos filas, tratamentos mais rápidos, menos processos perdidos no meio de papéis.
Só que, a certa altura, a realidade impõe-se. Pessoas que antes recebiam apoio passam subitamente a “não cumprir os critérios”. Outras ficam marcadas como suspeitas porque um código postal “correlaciona” com fraude. Por trás de uma interface serena, os serviços públicos estão a deslocar-se do juízo humano para uma triagem automatizada. E, com essa mudança, altera-se algo subtil mas enorme: quem passa a contar como merecedor de ajuda - e quem sai do radar sem que ninguém dê por isso.
Estes sistemas raramente chegam com sinais de alarme. Aparecem embrulhados em linguagem de “modernização” e “governação orientada por dados”: um projecto-piloto aqui, uma actualização discreta ali. Com o tempo, a pergunta implícita deixa de ser Quem precisa de apoio? e passa a ser Quem encaixa no modelo?. Se a vida de alguém é irregular, difícil de quantificar - trabalhos de curta duração, cuidados informais a familiares, guarda partilhada - o algoritmo pode simplesmente não saber como lidar. E, sem ruído, empurra essa pessoa para a pilha errada.
Em alguns países, as consequências já ficaram à vista. Nos Países Baixos, o escândalo dos subsídios de creche mostrou quão devastador isto pode ser: um algoritmo criado para detectar fraude acabou por rotular falsamente milhares de pais e mães como infractores, com impacto particular em pessoas com historial migratório. Famílias afundaram-se em dívidas, algumas perderam casa, outras chegaram a perder a custódia dos filhos. No papel, o sistema era “eficiente”: sinalizações, pontuações de risco, seguimentos automáticos. Na vida real, destruiu vidas em escala. Padrões semelhantes foram relatados no Reino Unido com avaliações automatizadas de incapacidade, e em estados dos EUA onde algoritmos ajudam a decidir apoios à habitação ou assistência alimentar.
Um parágrafo que raramente entra nas apresentações: contratos, compras públicas e opacidade
Há um detalhe que pesa muito e costuma passar despercebido: muitos destes sistemas entram pela porta das aquisições e dos contratos com fornecedores. As regras ficam escondidas em documentação técnica, cláusulas de confidencialidade e especificações que poucos decisores políticos ou trabalhadores de balcão conseguem escrutinar. Assim, as opções mais importantes - que variáveis contam, o que é considerado “anomalia”, quando se bloqueia um pedido - ficam longe do debate público.
E há ainda a fricção do dia-a-dia: quando uma ferramenta automatizada está integrada no fluxo de trabalho, tende a tornar-se “o caminho normal”. Mesmo quando um funcionário discorda, pode não ter tempo, autorização, ou sequer um botão claro para contrariar a recomendação do sistema. A automatização, na prática, pode transformar um “apoio à decisão” numa decisão de facto.
Como os algoritmos nos serviços públicos redesenham em silêncio quem “merece” ajuda
A força destas ferramentas está na repetição. Uma decisão humana enviesada magoa; uma regra algorítmica enviesada pode ser replicada dezenas de milhares de vezes num mês. O que aparece como uma “pontuação de elegibilidade” aparentemente neutra pode esconder pressupostos carregados: emprego estável a tempo inteiro é “bom”; mudanças frequentes de morada são “suspeitas”; quebras de rendimento são “arriscadas”. O modelo não o diz de forma explícita. Limita-se a atribuir uma probabilidade e segue em frente. Depois, os organismos públicos tratam essa probabilidade como se fosse um facto - e não uma estimativa treinada em dados antigos e imperfeitos.
Num ficheiro de cálculo, tudo parece racional. Na sala de espera, significa que algumas pessoas são sistematicamente empurradas para o fim da fila. Pais e mães solteiros muito jovens. Famílias migrantes com documentação complexa. Pessoas com problemas de saúde mental que têm dificuldade em cumprir prazos e formulários. Quando estes padrões ficam inscritos no software, tornam-se difíceis de detectar - e ainda mais difíceis de contestar. Já não há um funcionário irritado com quem discutir, nem um chefe de serviço a quem pedir reavaliação. Há, muitas vezes, apenas uma resposta: “Foi o que o sistema determinou.”
Numa manhã fria numa cidade europeia de dimensão média, um homem a quem chamaremos Karim (nome fictício) percebeu isso da pior maneira. O subsídio de habitação dele tinha sido aprovado durante anos. Mesma casa, mesmo trabalho, mesmo rendimento. Entretanto, a autarquia introduziu um novo algoritmo de pontuação de risco para “optimizar” recursos. Na renovação seguinte, o pedido apareceu assinalado como anómalo. Sem explicação - apenas uma marca vermelha digital. Os pagamentos pararam. Quando uma clínica jurídica o ajudou a recorrer, ele já acumulava três meses de renda em atraso e tinha uma notificação de despejo.
Do ponto de vista estatístico, o caso não é isolado. Estudos em vários países indicam que a detecção automatizada de fraude tende a atingir de forma desproporcionada grupos minoritários e bairros de baixos rendimentos. Uma investigação nos EUA concluiu que um algoritmo usado para priorizar visitas domiciliárias em processos de protecção de crianças sinalizava com muito mais frequência famílias pobres, mesmo quando o risco real era semelhante. Estes sistemas não “vêem” raça ou classe de forma literal - mas usam substitutos: códigos postais, histórico laboral, composição do agregado. E isso basta para reproduzir desigualdades antigas com um nome novo e digital.
Nada disto costuma ser anunciado com estrondo. Quase nunca se diz: “Vamos dificultar o acesso ao apoio a determinados grupos.” A mudança entra por termos como “eficiência”, “gestão de risco” e “transformação digital”. Os critérios que definem quem é “arriscado” ou “baixa prioridade” ficam enterrados em anexos técnicos e contratos com fornecedores. Os eleitos vêem painéis e indicadores, não equações. Os cidadãos só vêem o resultado no seu caso: aceite, atrasado, indeferido.
A lógica parece irresistível: os dados dizem-nos onde colocar recursos escassos. Mas os dados públicos são um registo fossilizado de decisões passadas - incluindo decisões enviesadas. Se um bairro recebeu historicamente menos apoios por discriminação ou por falta de divulgação, um algoritmo treinado nesse passado pode “concluir” que ali as pessoas “pedem menos” ou “precisam menos”. E recomendar que o padrão continue. O que soa a objectividade é, muitas vezes, a injustiça de ontem reembalada como optimização para amanhã.
Um parágrafo a mais, essencial: direitos, transparência e o que pode (e deve) ser exigido
Na União Europeia, regras como o RGPD reforçam o direito a informação, a contestação e, em certos contextos, a não ficar sujeito exclusivamente a decisões automatizadas com impacto significativo. Além disso, o enquadramento europeu para sistemas de inteligência artificial está a elevar a fasquia para usos de “alto risco” no sector público: testes, documentação, supervisão humana e mecanismos de reclamação mais claros. Mesmo quando a prática ainda não acompanha a teoria, estes instrumentos dão linguagem e alavancas para exigir transparência.
O que podemos fazer - como cidadãos e como trabalhadores
É tentador achar que isto é técnico demais para ser tocado. É precisamente assim que estes sistemas ganham poder. Um primeiro passo, muito concreto, é perguntar. Quando um indeferimento chega no estilo “o computador diz que não”, pergunte que ferramenta foi usada, se houve revisão humana e como pode recorrer. Nem sempre haverá uma resposta clara - mas cada pergunta obriga a instituição a reconhecer que existe uma máquina no processo, e que isso não é apenas “ruído de fundo”.
Se trabalha dentro dos serviços públicos, mesmo em funções iniciais, pode começar por um inventário discreto: que decisões são hoje tomadas, ou pré-triadas, por software? Quem escolheu essas ferramentas? Existe política escrita sobre quando e como o atendimento pode contrariar uma recomendação algorítmica? Um gesto pequeno, mas poderoso, é manter um registo pessoal de casos em que o resultado do sistema não fazia sentido e foi preciso intervenção humana. Esses episódios, quando acumulados, costumam convencer mais do que qualquer “pontuação de risco” na hora de rever regras.
Muitas pessoas sentem uma mistura de resignação e frustração perante decisões automatizadas. No ecrã, tudo parece definitivo, quase moral: o sistema falou. Ainda assim, há reflexos práticos que ajudam:
- Guarde provas: capturas de ecrã, cartas, datas e horas, nomes de funcionários com quem falou.
- Se possível, fale com outras pessoas na mesma situação - fóruns, associações de inquilinos, organizações locais.
- Procure padrões: aquilo que isoladamente parece azar, em grupo pode revelar uma falha sistémica.
- E sejamos honestos: ninguém consegue fazer isto todos os dias. Mas um ou dois casos bem documentados podem mudar a forma como jornalistas, advogados ou provedores analisam uma ferramenta digital recém-introduzida.
Para funcionários públicos e activistas, um hábito útil é tratar cada algoritmo como uma política pública - não como um gadget. Isso implica perguntas de política: quem ganha? quem perde? quem pode contestar? quem audita?
“Um algoritmo nos serviços públicos nunca é só código”, disse-me uma pessoa da área dos direitos digitais. “É uma escolha política congelada e vestida de matemática.”
Antes de se implementar um novo sistema, equipas podem insistir em testes com utilizadores diversos, resumos de impacto em linguagem simples e um processo de recurso visível e funcional. Em várias cidades e organismos, isto já começa a acontecer - discretamente.
- Pergunte se está a ser usado um algoritmo e em que parte da decisão.
- Peça os critérios em linguagem clara, não apenas em jargão jurídico.
- Exija saber como recorrer e quem analisa os recursos.
- Apoie jornalismo e organizações que investigam danos causados por algoritmos.
- Partilhe a sua história: é mais difícil descartar uma pessoa real do que uma estatística.
As escolhas silenciosas escondidas nos serviços públicos “inteligentes”
Ao automatizar decisões nos serviços públicos, não estamos apenas a ajustar procedimentos. Estamos a reescrever regras invisíveis que determinam de quem a história parece credível, que dados soam “normais”, que vidas cabem num menu suspenso. A máquina não faz perguntas de seguimento. Não repara nas mãos a tremer, nos recibos de vencimento irregulares do trabalho sazonal, no acordo de guarda escrito à pressa num papel. Limita-se a calcular, classificar e avançar.
No plano humano, isto altera a relação das pessoas com o Estado. Um indeferimento por um funcionário desinteressado pode enervar - mas pelo menos sabe-se para onde dirigir a indignação. Um indeferimento vindo de um sistema é como ser dispensado por um fantasma. Com o tempo, esse fantasma corrói a confiança. Pessoas deixam de pedir apoios a que provavelmente têm direito. Evitam hospitais, serviços de imigração, atendimento social. As ferramentas concebidas para “direccionar recursos” arriscam empurrar ainda mais para longe quem já vive no limite.
Quase todos já passámos por aquele momento em que uma plataforma bloqueia uma conta sem motivo claro e sem resposta humana. Agora imagine essa sensação aplicada ao subsídio de renda, à autorização de residência, às prestações por incapacidade. Esse é o núcleo emocional desta história. Os algoritmos no sector público não são apenas actualizações técnicas: tornam-se novas portas de entrada para as redes de segurança colectivas. Quem atravessa essas portas é uma escolha política - mesmo quando está escrita em linguagem de programação e não em linguagem parlamentar. A pergunta que fica, simples e desconfortável, é esta: se olhássemos para dentro do código, reconheceríamos a nossa ideia de justiça?
| Ponto-chave | Detalhe | Interesse para o leitor |
|---|---|---|
| Algoritmos como “políticas congeladas” | Os modelos podem reproduzir escolhas e enviesamentos antigos, disfarçando-os de neutralidade matemática. | Ajuda a perceber que estes sistemas podem ser contestados - não apenas suportados. |
| Impacto silencioso, mas massivo | Uma regra injusta aplicada automaticamente afecta milhares de pessoas em pouco tempo. | Mostra como uma única “actualização” pode alterar a vida de bairros inteiros. |
| Margens de acção cidadã | Perguntas a fazer, documentos a guardar, alianças a criar com media e associações. | Oferece gestos concretos para recuperar algum controlo perante decisões automatizadas. |
Perguntas frequentes
- Como posso saber se um algoritmo decidiu o meu caso? Nem sempre isso é dito de forma directa. Procure sinais como mensagens automáticas com texto genérico, portais que devolvem decisões instantâneas, ou funcionários que falam “do sistema” em vez de um responsável identificado. Pergunte explicitamente se foi usada uma ferramenta de software, uma pontuação de risco ou uma triagem automática.
- Posso contestar uma decisão automatizada nos serviços públicos? Muitas vezes, sim, embora o processo possa ser confuso. Em vários contextos, existem direitos de revisão humana em decisões administrativas com impacto significativo. Apresente recurso por escrito, peça reavaliação manual e deixe claro que pretende que uma pessoa analise o seu processo - não apenas o resultado do sistema.
- Estes algoritmos são sempre enviesados? Nem sempre, mas nunca são totalmente neutros. O comportamento depende dos dados, dos objectivos e das escolhas de desenho. Mesmo ferramentas bem-intencionadas podem amplificar desigualdades existentes se ninguém testar efeitos indesejados no mundo real.
- O que podem, de forma realista, fazer os trabalhadores do sector público? Podem registar casos problemáticos, pedir formação sobre ferramentas algorítmicas, exigir regras claras de anulação da recomendação automática e levantar preocupações através de sindicatos ou ordens profissionais. Pequenas resistências internas, por vezes, travam abusos antes de ganharem escala.
- Porque devo preocupar-me se não uso apoios sociais? Estas práticas estão a espalhar-se para a saúde, a educação, o policiamento e outros domínios. Mesmo que hoje não seja afectado, as normas estabelecidas agora - transparência, recursos e justiça - vão moldar a forma como os seus dados serão usados quando chegar a sua vez.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário