Saltar para o conteúdo

Regulamento de IA: Novas leis visam travar o abuso de deepfakes, mas especialistas apontam grandes falhas.

Mulher segura telemóvel com vídeo chamada aberta para homem, que também aparece no ecrã do portátil.

O ecrã pisca por um instante e, de repente, aparece o rosto dela.

Ela sorri para a câmara e diz frases que nunca pronunciou. A voz soa assustadoramente convincente; o cenário parece familiar - sala de estar, estante de livros, uma planta demasiado perfeita para ser real. A mudança no ambiente só acontece quando o clip cai no grupo de WhatsApp da família e alguém pergunta: “És mesmo tu?”. Era um deepfake. Outra vez. Esse é o momento que muitos já reconhecem: um link curto, um vídeo de 20 segundos, e a confiança no digital começa a desfazer-se por dentro. E enquanto os políticos prometem “arrumar a casa” com novas leis de IA, basta folhear os rascunhos para perceber que falta qualquer coisa essencial - talvez mais do que uma nota de rodapé.

Leis de IA novas, reflexos antigos - e uma tecnologia que aprende mais depressa do que o Estado

Quem passa hoje pelos corredores de Bruxelas ouve uma palavra a repetir-se em reuniões, conversas à porta fechada e pausas para café: deepfakes. A União Europeia apresenta a Lei de IA da UE como referência global; os governos nacionais gostam da narrativa do “progresso regulado”. No papel, o conjunto impressiona: rotulagem (ou dever de identificação), regras de transparência, auditorias e catálogos de sanções.

O problema é que os modelos não são treinados em comissões parlamentares - são afinados em centros de dados. E quem realmente quer abusar da tecnologia tende a ler textos legais como se fossem um manual de instruções para contornar limites.

Um caso ocorrido na Alemanha ilustra bem como isto pode descarrilar. No verão, circulou no TikTok um vídeo muito credível de um conhecido apresentador de televisão a promover, num “clip exclusivo”, um investimento duvidoso em criptomoedas. Sincronização labial impecável, expressão facial alinhada, voz quase indistinguível da original. Milhares partilharam; alguns investiram as poupanças. Só dias depois se confirmou: era tudo gerado por IA, um deepfake montado peça a peça. As autoridades voltaram ao velho problema com roupa nova: servidores fora da Europa, operadores com identidades falsas e plataformas a escudarem-se em termos de utilização. Sim, há crimes de burla e direitos de personalidade. Mesmo assim, para muitas vítimas, o conselho prático acaba por ser o mais básico: “Denuncie, bloqueie, não transfira dinheiro”.

As novas regras tentam sair deste impasse. Exigem que conteúdos gerados por IA sejam identificáveis, obrigam fornecedores a avaliações de risco e prometem apertar o controlo sobre aplicações de alto risco. A lógica é boa - mas, em muitos rascunhos e enquadramentos, os deepfakes não entram de forma consistente no nível mais elevado de risco, a não ser quando há manipulação eleitoral explícita ou impacto em infraestruturas críticas.

E tudo o resto? Pornografia de vingança, vídeos de candidatura falsificados, áudios manipulados em disputas de guarda de menores, “provas” fabricadas para chantagem. Quem tenta regular o abuso de deepfakes olha demasiado para as urnas e de menos para as conversas privadas do dia a dia. E sejamos francos: antes de partilhar um vídeo viral, ninguém vai ler uma regulamentação europeia.

Deepfakes no quotidiano: o que ajuda já - proteção no bolso, não apenas no Diário da República

Quando a lei chega tarde, o curto prazo depende de rotinas e ferramentas que funcionem no momento em que o conteúdo aparece. A primeira é simples e, por isso mesmo, pouco habitual: uma “segunda opinião” digital. Antes de acreditar num vídeo chocante, pare dois segundos, confirme a fonte, procure se existem versões iguais noutros sítios, veja se há desmentidos. Muitas redações já mantêm canais de verificação (fact-check) e alguns serviços de mensagens estão a testar botões de validação e contexto.

Ao mesmo tempo, estão a surgir ferramentas de deteção técnica de deepfakes, que procuram artefactos de imagem, incoerências de luz, reflexos improváveis ou pequenas imperfeições no áudio. Não são infalíveis - mas um simples aviso do tipo “possível conteúdo gerado por IA” pode ser suficiente para travar a confiança automática na fraude.

A armadilha mais perigosa, porém, é outra: a certeza de que “eu reconheço logo”. Quase toda a gente acredita que notaria um canto da boca estranho ou uma sombra mal colocada. Só que, com modelos recentes, esse teste de instinto está a perder eficácia. E quando alguém cai, vem a vergonha: “Como é que fui tão ingénuo?”. A vergonha é precisamente o que torna o abuso mais fácil, porque silencia as vítimas e torna o fenómeno invisível.

Quem lida com burla por deepfake precisa de menos autoacusação e mais calma colectiva perante o erro. Aqui, enganar-se não é sinal de falta de inteligência; é um efeito colateral normal de uma tecnologia feita para parecer real.

Um especialista em direito penal informático disse-me, numa conversa, com um cansaço irritado:

“Muitas leis são escritas como se os criminosos ainda vivessem na era do fax. Na realidade, já estão em casa com clusters de GPU.”

Em termos práticos, para qualquer utilizador, isto traduz-se em hábitos concretos:

  • Em vídeos carregados de emoção (medo, raiva, ganância), procure sempre uma segunda fonte antes de reagir ou partilhar.
  • Leve a sério falsificações de voz: perante chamadas estranhas, confirme com um retorno para um número já conhecido.
  • Nunca reencaminhe conteúdos íntimos “no impulso” - até supostos “leaks” de figuras públicas podem ser crime.
  • Documente incidentes de deepfakes (capturas de ecrã, links, datas) e denuncie rapidamente, mesmo que a lei pareça confusa.
  • Reveja definições das plataformas: reduza encaminhamento automático, reprodução automática e facilidades de partilha.

Um reforço que ainda falta: prova de origem e contexto (para lá da deteção)

Além de “detetar”, ganha importância “provar de onde veio”. Tecnologias de proveniência (por exemplo, metadados de autenticidade e cadeias de confiança associadas ao ficheiro) e assinaturas de câmara podem, a médio prazo, ajudar a distinguir conteúdos captados de conteúdos sintetizados. Isto não elimina o abuso - mas facilita a vida a quem precisa de demonstrar rapidamente que um vídeo foi manipulado, sobretudo em conflitos familiares, contextos profissionais ou denúncias públicas.

As grandes falhas: quem responde quando ninguém quer ser responsável?

A parte mais explosiva da regulamentação da IA é a pergunta que quase nunca tem resposta imediata: quem é responsável quando um deepfake destrói uma vida? Os fabricantes de modelos apontam para termos de utilização e filtros de segurança. As plataformas dizem que não conseguem analisar, um a um, milhares de milhões de conteúdos por dia. Os autores escondem-se atrás de VPN, contas descartáveis e identidades falsas. E o Estado? Produz directrizes que demoram anos a negociar, enquanto os falsos clips se multiplicam diariamente.

Este triângulo de responsabilidade continua a ser uma zona cinzenta jurídica, onde as vítimas se sentem figurantes no seu próprio drama.

As novas regras apostam muito em deveres empresariais de transparência: divulgação de dados de treino, rotulagem do uso de IA, comunicação de “incidentes graves”. Enquanto mecanismo de controlo, faz sentido - mas, no quotidiano, pode soar abstrato. Para a mulher cujo rosto foi colado num vídeo pornográfico, não interessa se um fornecedor reportou um incidente a tempo à entidade supervisora. O que ela precisa é de remoção rápida, apoio na recolha de prova, acompanhamento psicológico e caminhos claros para indemnização.

Em conferências já se discute, com seriedade, a criação de fundos de apoio a vítimas de abuso de IA. Ainda assim, continua a faltar uma estrutura realmente acessível, onde qualquer pessoa possa pedir ajuda sem ter, à partida, de suportar custos de advogado especializado.

Há ainda outra falha que atravessa tudo: a velocidade. Os modelos melhoram mês após mês; os textos legais mexem-se em câmara lenta. Quem hoje redige um artigo sobre meios sintéticos está, na prática, a legislar para uma tecnologia de anteontem. E mesmo que uma futura regra imponha rotulagem obrigatória para deepfakes, isso não significa que os criminosos a vão cumprir. A discussão lembra os primeiros anos da internet, quando se tentou travar spam com obrigações de identificação. A verdade, por mais desconfortável que seja, é esta: a regulamentação sozinha nunca vai parar o abuso. Mas pode inclinar o campo de jogo, clarificar deveres e reduzir o espaço para modelos de negócio predatórios.

O que sobra é um “entre-dois” desconfortável

Vivemos uma fase de transição em que vídeo e áudio estão a perder o estatuto de prova automática. Antes, uma gravação “valia” - era moeda forte numa discussão. Hoje, até perante uma entrevista emotiva, há um segundo de hesitação: será gerado? Este tipo de desconfiança cansa. Ao mesmo tempo, abre uma oportunidade: somos empurrados a olhar melhor, a tratar literacia de fontes como competência diária e não como luxo de jornalistas ou juristas. Os deepfakes forçam-nos a construir uma nova forma de cepticismo - sem cair numa paranoia total.

Neste cenário, as leis de IA tendem a funcionar mais como guardas laterais do que como uma muralha. Vão gerar conflitos, ocupar tribunais, expor falhas e depois tapá-las - e, ainda assim, são necessárias, precisamente por começarem imperfeitas.

Só que a decisão real não acontece apenas no Parlamento Europeu. Acontece à mesa da cozinha, no chat do trabalho, no grupo da família: partilho este vídeo? acredito nesta voz? falo sobre a suspeita de que algo está errado? No fim, falar de Lei de IA da UE e de regulamentação é falar de algo profundamente humano: a necessidade de confiarmos uns nos outros - e o medo de sermos enganados vezes demais.

Ponto-chave Detalhe Benefício para o leitor
Novas leis de IA apostam em transparência e rotulagem A Lei de IA da UE impõe deveres aos fornecedores, mas nem sempre centra os deepfakes no uso quotidiano Perceber por que a regulamentação existe, mas protege apenas parcialmente no dia a dia
O abuso de deepfakes atinge sobretudo pessoas comuns Exemplos incluem burla financeira, destruição de reputação e violência sexual com media sintético Reconhecer que o risco é real, longe de cenários de cinema e de campanhas eleitorais
Estratégias práticas de autoproteção são aplicáveis já “Segunda opinião” digital, documentação, gestão consciente de conteúdos emocionais Ações concretas que podem ser integradas imediatamente nas rotinas

Perguntas frequentes (FAQ)

  • Pergunta 1: Como é que, sendo leigo, consigo sequer reconhecer um deepfake?
  • Pergunta 2: Tenho proteção legal se alguém montar o meu rosto num vídeo falso?
  • Pergunta 3: Que papel tem, na prática, a União Europeia com a sua Lei de IA da UE no tema dos deepfakes?
  • Pergunta 4: O que posso fazer se um deepfake sobre mim estiver a circular na internet?
  • Pergunta 5: As leis de IA atuais são suficientemente rápidas para acompanhar esta evolução?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário