Saltar para o conteúdo

Regulação da IA: Como os governos tentam controlar uma tecnologia em constante evolução.

Pessoa a trabalhar num computador com gráficos digitais, junto a livros, documentos e bandeira da União Europeia.

As cadeiras da sala de comissões rangem discretamente quando os deputados se inclinam e fixam o olhar no ecrã.

No projector não aparece um PowerPoint: está um chatbot a responder em tempo real - mais rápido, mais incisivo e, por vezes, com uma autoconfiança desconcertante. Um assessor jovem escreve: “Redige uma lei contra ti próprio.” O sistema devolve artigos, notas de rodapé e um tom levemente irónico. Por instantes instala-se aquele silêncio estranho em que todos percebem: algo estrutural acabou de mudar. A discussão sobre horários de pausa e ajudas de custo soa, de repente, datada. Ainda assim, são precisamente estas pessoas que ali estão sentadas, encarregues de escrever regras para uma tecnologia que já lhes foge das mãos.

O instante em que a política percebe que a IA não “lê” o Diário da República

Quem espreite, hoje, uma comissão de assuntos digitais ou de administração interna em capitais europeias sente, quase fisicamente, a mistura de fascínio e desorientação. Em cima das mesas: copos de café para levar, pilhas de papel, emails impressos. Nos portáteis: dossiês de IA, notas urgentes, janelas do ChatGPT e de ferramentas semelhantes. Muitos decisores admitem em privado que já usam IA todos os dias - para resumir documentos, traduzir, ou “só para dar um jeito” a um texto. Em público, o tema chama-se regulação. Nos bastidores, muitas vezes é um esforço para compreender, primeiro, aquilo que estão realmente a tentar governar.

Um técnico parlamentar descreve a sensação como correr numa passadeira que, de um momento para o outro, foi acelerada. Mal circula uma versão de trabalho do Regulamento Europeu da IA (o AI Act), aparece no mercado um novo modelo com riscos diferentes - e novas promessas. A perceção de estar sempre atrasado infiltra-se em cada reunião. A IA não respeita calendários eleitorais nem prazos de comissão. Avança sem pedir licença, do ecossistema de código aberto aos laboratórios das grandes tecnológicas - enquanto a política tenta acompanhar com atas, pareceres e propostas de alteração.

E sejamos francos: ninguém lê por vontade própria centenas de páginas de fundamentação legal sobre classes de risco de algoritmos. No entanto, é nessas páginas que se decide, neste momento, se um sistema pode influenciar quem obtém crédito, quem passa a estar no radar de autoridades de segurança, ou que candidaturas são eliminadas num processo de recrutamento. Perante o desconhecido, a política agarra-se ao que conhece: classificações, proibições, listas de obrigações. A IA é empacotada em “alto risco”, “risco limitado” e “risco mínimo”. No papel, parece arrumado. No terreno, soa mais a tentar arquivar uma cascata em dossiers.

O que a regulação da IA tenta fazer - e onde já ficou para trás (AI Act e política de IA)

O AI Act é o exemplo mais visível desta tentativa de recuperar controlo. Em teoria, a proposta é direta: quem desenvolve ou utiliza aplicações particularmente sensíveis - como reconhecimento facial em espaços públicos, apoio ao diagnóstico médico, ou componentes de infraestrutura crítica - tem de cumprir requisitos exigentes. Transparência, avaliação de riscos, supervisão humana. Sistemas desenhados para manipular pessoas ou explorar vulnerabilidades de forma direcionada deverão ser proibidos. Um tipo de vedação digital feita de artigos e alíneas, erguida a uma velocidade invulgar para os padrões de Bruxelas.

Na prática, o cenário é menos linear. Start-ups perguntam-se se ainda conseguem treinar modelos na Europa sem se afundarem num pântano de conformidade. Entidades públicas fazem contas a quantas pessoas terão de contratar para fiscalizar regras que, por si só, já são complexas. E os lóbis tecnológicos pressionam de todos os lados: uns alertam para a asfixia por excesso de regras, outros para uma legislação “morna”, sem capacidade real de travar abusos. Ao mesmo tempo, surgem modelos de código aberto que qualquer pessoa descarrega da Internet e executa num computador doméstico potente - fora do alcance imediato de qualquer autoridade.

Há uma frase seca que especialistas repetem com frequência: regular a IA apenas onde ela é “vendida oficialmente” é ignorar metade do tabuleiro. O terreno mais difícil está no meio - nos modelos semiprofissionais, nas empresas que usam IA “só internamente”, e em organismos públicos que testam projetos-piloto sem grande visibilidade. Assim, a regulação da IA fica presa num paradoxo: demasiado permissiva para os riscos maiores, demasiado intrincada para os atores pequenos. O conflito central mantém-se: como abrandar a corrida sem empurrar investigação e investimento, por completo, para os EUA ou para a China?

Um ângulo que ganha peso em Portugal: compras públicas, dados e responsabilidade

Há, além disso, uma dimensão muito concreta que tende a ser subestimada: a forma como a IA entra nas organizações. Muitas vezes, não chega por “grandes decisões estratégicas”, mas por contratos de software, módulos adicionais, funcionalidades ativadas por defeito e serviços subcontratados. Em Portugal, isto cruza-se diretamente com regras de contratação pública, com a governação de dados e com a articulação com autoridades como a CNPD quando há tratamento de dados pessoais. Regulação eficaz não é só o texto europeu: é também saber exigir documentação, testar limites, e recusar soluções opacas no momento da aquisição.

E há uma segunda camada igualmente prática: literacia interna. Sem equipas que entendam o básico - o que o modelo faz, com que dados aprende, onde falha, como se audita - a organização fica dependente do fornecedor e, pior, incapaz de detetar quando a ferramenta “se porta bem” num demo mas derrapa no dia a dia.

Como pode ser uma supervisão útil - para lá das manchetes

Quem trabalha na fronteira entre política pública e IA costuma defender uma ideia pragmática: menos teatro simbólico, mais regras de utilização no terreno. Não apenas “uma grande lei de IA”, mas balizas internas em serviços públicos, escolas, redações, empresas. A premissa é simples: a regulação não deve existir só “lá em cima, em Bruxelas”; tem de existir como prática quotidiana. Que dados podem ser usados? Quem responde quando o sistema erra? Como se regista que um algoritmo teve peso numa decisão? É dessas perguntas aparentemente secas que nasce controlo real.

O problema é humano - e recorrente. Muitas organizações já produziram guias de IA com dezenas de páginas que acabam a envelhecer numa pasta do intranet. São aqueles PDFs que ninguém abre, acompanhados de um webinar de meia hora que, na realidade, foi visto enquanto se respondia a emails. A verdade é esta: quase ninguém consegue cumprir “todos os dias” um manual que só existe em teoria. Uma regulação viva precisa de rituais, não de sessões únicas. Breves check-ins de equipa, exemplos concretos, atualizações regulares quando mudam as ferramentas ou o enquadramento legal - e espaço para admitir: “Isto ainda não sabemos; vamos experimentar com rede de segurança.”

Entre o pessimismo tecnológico e a euforia com a IA, alguns autores e decisores tentam fixar esta atitude em palavras.

“Temos de deixar de tratar a IA como se fosse um fenómeno da natureza”, diz uma jurista que participa na elaboração de orientações europeias. “Os algoritmos são construídos, treinados e aplicados por pessoas e organizações, com interesses muito específicos. É aí que a regulação tem de começar.”

Levando isso a sério, a conversa acaba rapidamente em três passos bastante terrenos:

  • Transparência: registar onde a IA é usada - internamente e, quando possível, também externamente.
  • Responsabilidade: definir quem responde, quem decide e quem pode intervir quando um sistema sai do controlo.
  • Limites: estabelecer, de forma deliberada, para que fins a IA não deve ser utilizada - mesmo que seja tecnicamente possível.

E agora? Viver com uma tecnologia que aprende mais depressa do que as instituições

Talvez seja preciso aceitar que a IA nunca se deixará “cercar” com a mesma limpeza com que se cercaram setores industriais clássicos. Fábricas, redes elétricas, linhas ferroviárias - tudo isso, em último caso, podia ser desligado, isolado, desmontado. Modelos de IA viajam como código pelo mundo, são forkados, reduzidos, escondidos em aplicações de nicho. É isso que torna o debate político tão emocional: a sensação baixa e persistente de que, pela primeira vez, se tenta regular uma tecnologia que, se precisar, encontra uma porta traseira para entrar em qualquer sistema. E que, ao mesmo tempo, já está no quotidiano - no telemóvel, no programa de email, no GPS do carro.

Uma forma mais madura de regulação da IA tenderá, por isso, a depender menos de grandes placas de “proibido” e mais de normas partilhadas. O que aceitamos como sociedade? Que decisões automatizadas toleramos - e quais recusamos? Daqui a alguns anos, quem for aos arquivos desta época talvez sorria com alguns alarmismos, mas também abane a cabeça perante a ingenuidade de certas escolhas. A pergunta decisiva não é se a política alguma vez terá “controlo” total sobre a IA. É se consegue, a tempo, construir regras, cultura e educação suficientes para que esta tecnologia não se transforme num foco permanente de impotência - e passe a ser uma ferramenta que reaprendemos a usar, continuamente. Talvez tudo comece com um exercício simples e desconfortável: em cada nova aplicação de IA, perguntar quem ganha, quem perde e quem, no fim, assume a responsabilidade.

Ponto central Detalhe Valor para o leitor
A IA escapa à lógica legislativa tradicional Ciclos rápidos de modelos, disponibilidade global, código aberto Percebe por que razão a regulação muitas vezes parece “chegar tarde” e onde estão os pontos cegos
As regras têm de estar próximas dos usos concretos Balizas internas, responsabilidades definidas, deveres de documentação Obtém pistas para uma abordagem responsável da IA dentro de organizações
As normas sociais também fazem parte da regulação Debate sobre usos aceitáveis de IA, não apenas textos legais É convidado a formar uma posição própria sobre limites e aplicações da IA

Perguntas frequentes (FAQ)

  • Pergunta 1: O que regula, na prática, o Regulamento Europeu da IA (AI Act)?
  • Pergunta 2: Porque parece que a política está sempre a correr atrás da IA?
  • Pergunta 3: Uma regulação mais dura ameaça a inovação e as start-ups?
  • Pergunta 4: Como pode uma empresa, já hoje, usar IA de forma responsável?
  • Pergunta 5: A IA vai algum dia ser regulada como a eletricidade ou os transportes?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário