Saltar para o conteúdo

Deepfakes a crescer rapidamente: Cada vez mais casos mostram como a confiança é destruída e surgem consequências reais.

Jovem numa videochamada dupla, a falar consigo mesmo no telemóvel e no computador portátil.

O vídeo parece inofensivo, quase banal: um CEO conhecido está sentado num escritório sóbrio, fala com uma voz calma e anuncia uma “urgente reorientação estratégica de fundos”.

Na janela de chat por baixo, os comentários disparam, começam transferências em Bitcoin e a cotação afunda. Só horas mais tarde alguém repara que o brilho nos óculos não bate certo com o real, que a respiração não acompanha o ritmo da fala. Tarde demais. O dinheiro desapareceu, o prejuízo é concreto e os rostos dos colaboradores ficam sem cor.

Este momento é-nos familiar: vês algo online, o instinto avisa “há aqui qualquer coisa estranha”, mas a cabeça responde “deve ser verdade, está toda a gente a partilhar”. É precisamente nessa fenda minúscula que os deepfakes entram. Silenciosos, competentes, quase descaradamente perfeitos.

Deepfakes: quando o olhar já não chega

Durante anos, um vídeo tremido de telemóvel bastava para soar credível. Hoje, muita gente desconfia mais da imagem impecável do que do registo instável. A ironia é evidente: no exacto momento em que câmaras e telemóveis captam melhor do que nunca, sentimo-nos mais inseguros. O que é autêntico, o que é algoritmo, quem está mesmo a falar - e quem foi apenas “vestido” digitalmente?

Os deepfakes não evoluem devagar: multiplicam-se. Todos os meses aparecem novas ferramentas, filtros e aplicações. O que ontem exigia horas de trabalho especializado, hoje é feito por um adolescente no autocarro, no telemóvel. E, algures entre “brincadeira” e intenção maliciosa, há uma fronteira que se desloca - e a que nos habituamos sem dar por isso.

Em 2023, houve um caso particularmente marcante em Hong Kong: um burlão recorreu a um deepfake extremamente convincente de um director financeiro durante uma videoconferência. Colaboradores que o conheciam há anos autorizaram, com base nessa conversa, transferências de milhões para uma “conta de parceiro”. Mais tarde veio a público que toda a reunião tinha sido fabricada: os rostos dos supostos colegas foram extraídos de gravações antigas e a voz era sintética. No fim, o dano na confiança interna foi mais difícil de reparar do que o impacto na contabilidade.

E isto já não acontece “de vez em quando”. Surgem casos praticamente todas as semanas: imagens íntimas falsas de alunas de uma escola secundária na Alemanha, um discurso sintético de um político de topo que nunca existiu, um CEO que num suposto directo incentiva investimentos temerários. A força destas histórias não está apenas na perda financeira; está também na sensação, lenta e corrosiva: “já não consigo confiar nos meus próprios olhos”.

Por trás desta avalanche há uma lógica simples e dura: a inteligência artificial aprende a partir de volumes enormes de imagem e som que nós próprios despejamos na internet. Quanto mais selfies, TikToks, entrevistas e podcasts alguém publica, mais fácil se torna construir um duplo verosímil. Ao mesmo tempo, as barreiras técnicas caem: a capacidade de computação cabe no bolso e, com cada nova ferramenta, aumenta a “imitabilidade” de uma pessoa. Resultado: a confiança que antes se colava à presença imediata e visível torna-se porosa. A frase “mas eu vi!” perde peso.

Num contexto como o de Portugal, isto cruza-se com hábitos digitais muito concretos: mensagens de voz no WhatsApp, chamadas de vídeo rápidas, pedidos urgentes de transferências e movimentos imediatos via serviços do dia-a-dia. É precisamente a combinação “urgência + familiaridade” que torna estes ataques mais eficazes - não porque as pessoas sejam ingénuas, mas porque estão a responder em modo automático.

Passos de protecção no dia-a-dia (sem paranoia)

A probabilidade de seres a figura central de um escândalo profissional de deepfake ainda pode parecer baixa. Já a probabilidade de, nos próximos 12 meses, te aparecer um vídeo manipulado ou uma gravação de voz falsa no telemóvel é bastante elevada. Em vez de viver em suspeita permanente, compensa adoptar um método pragmático: pequenas rotinas fixas, como um cinto de segurança. Não são infalíveis - mas são muito melhores do que nada.

A regra com melhor relação esforço/benefício é criar uma “segunda via” para comunicações sensíveis. Se alguém, por videochamada ou mensagem de voz, fizer um pedido fora do normal - transferências, passwords, dados confidenciais - a validação acontece por outro canal:

  • um telefonema rápido para o número já conhecido (e não o que vem na mensagem);
  • uma palavra-código interna combinada previamente;
  • um e-mail para uma caixa geral e reconhecida pela equipa.

Sejamos realistas: ninguém faz isto em todas as micro-decisões do dia. Mas nos momentos em que há dinheiro, reputação ou acesso a sistemas em jogo, essa “minuto extra” é muitas vezes a diferença entre um susto e um desastre.

Também importa reconhecer um ponto subestimado: muita gente cai em deepfakes não por falta de inteligência, mas por stress. Pressão, prazos, a sensação de “tenho de resolver já”. Nas empresas, isso atinge com força as áreas onde decisões e fluxos financeiros se cruzam. Quando se vive em modo “é só mais isto”, deixa-se de pensar por cenários.

Um olhar mais humano ajuda aqui: quem é enganado costuma sentir vergonha, cala-se e, sem querer, abre espaço para que o mesmo truque funcione com outras pessoas. Uma cultura de erro aberta e treinos que recriam casos reais podem parecer pouco excitantes - mas constroem um verdadeiro sistema imunitário colectivo.

Uma especialista em segurança com quem falei para este texto resumiu a questão sem rodeios:

“Os deepfakes não rebentam firewalls; rebentam pessoas. E as pessoas protegem-se melhor quando falam.”

Se queres fortalecer-te a ti e também o teu círculo (equipa, família, amigos), estes pontos são alavancas simples e eficazes:

  • Confirmar sempre instruções invulgares ou pedidos de dinheiro por um segundo canal
  • Definir internamente um protocolo claro para videochamadas, aprovações e escaladas
  • Falar abertamente sobre conteúdos falsificados em família e entre amigos, sem humilhar ninguém
  • Publicar menos imagens e vídeos sensíveis - ou, pelo menos, fazê-lo com mais intenção e controlo
  • Em vídeos altamente emocionais, fazer uma pausa deliberada: respirar, verificar a fonte e só depois partilhar

Vale ainda acrescentar um plano prático para quando a suspeita já não é teórica: se fores alvo de um deepfake usado em burla ou difamação, guarda provas (links, capturas, ficheiros e datas), alerta rapidamente as pessoas afectadas (equipa, familiares, contactos que possam receber o mesmo conteúdo), e comunica às plataformas para remoção. Em incidentes financeiros, o tempo é crítico: contactar de imediato o banco/serviço de pagamento pode fazer a diferença na recuperação.

O que acontece quando deixamos de confiar em imagens?

Cada novo caso de deepfake cria um efeito colateral silencioso: a tentação de duvidar de tudo. Se qualquer vídeo pode ser fabricado, torna-se confortável refugiar-se no cinismo: “já não se sabe de nada”. Essa postura protege a curto prazo contra desilusões, mas a longo prazo corrói a ideia de realidade partilhada. Sem um mínimo de consenso sobre o que aconteceu, o debate vira crença, a política vira encenação e o jornalismo arrisca tornar-se cenário.

Ao mesmo tempo, esta crise empurra-nos para uma redefinição necessária do que é confiar. Menos dependência de “uma imagem como prova absoluta” e mais atenção a padrões, contexto, fontes e reputações: quem está a dizer isto, há quanto tempo, com que histórico, quem confirma, onde mais aparece? Talvez esteja a nascer, à sombra dos deepfakes, uma literacia mediática mais adulta - que junta instinto e verificação, cepticismo sem rigidez. Uma literacia que aceita que a segurança total é uma ilusão - e, ainda assim, mantém a capacidade de agir.

Do lado técnico, também se vê movimento: marcas de água para conteúdos gerados por IA, ferramentas de análise de ficheiros, e esforços para padrões de proveniência que registem a “história” de um vídeo (de onde veio, como foi editado, por quem). Nada disto será um escudo perfeito, mas pode funcionar como um detector de fumo: não garante que não haja fogo, mas dá um aviso valioso.

Nos próximos anos, vamos ver casos ainda mais ruidosos: políticos a “dizerem” o que nunca disseram, gestores a anunciarem acordos em “directos” que só existem no código de um atacante, adolescentes com a reputação destruída em minutos por uma imagem que nunca foi tirada. A pergunta real não é se a onda vem - é se nos deixa mais divididos e desconfiados, ou se a usamos como pretexto para tornar as relações digitais mais robustas, mais lentas e mais conscientes. Talvez seja essa a resposta menos espectacular - e, por isso mesmo, mais eficaz - a uma tecnologia espectacularmente boa a enganar.

Ponto-chave Detalhe Benefício para o leitor
Os deepfakes crescem de forma exponencial A tecnologia fica mais barata, mais simples e acessível a massas Consciência de que o risco é real no quotidiano, não apenas para celebridades
A confiança quebra mais depressa do que antes “Provas” visuais deixam de ser automaticamente fiáveis Ajuda a tomar decisões com mais cautela e intenção
Rotinas de protecção concretas Verificação por segundo canal, protocolos claros, conversa aberta Medidas práticas para reduzir risco sem viver em medo constante

Perguntas frequentes sobre deepfakes

  • Como é que eu, leigo, posso reconhecer um deepfake?
    Muitas vezes há pequenos sinais: pestanejar com um ritmo estranho, movimentos da boca ligeiramente atrasados, reflexos de luz incoerentes na pele ou nos óculos. O áudio também pode soar “demasiado limpo” ou artificial. Ainda assim, o mais fiável é o contexto: quem está a divulgar, existem várias fontes independentes, meios credíveis confirmam?

  • Os deepfakes são ilegais?
    Nem sempre existe uma lei “com o nome deepfake”, mas várias normas podem aplicar-se, dependendo do caso: violação de direitos de personalidade, difamação, direitos de autor e, em certas situações, regras de protecção de dados. Deepfakes de cariz sexual são especialmente graves, pelos danos profundos que causam, e podem dar origem a consequências tanto criminais como civis.

  • Como pode uma empresa proteger-se?
    O mais eficaz é processo, não apenas tecnologia: aprovações com segundo canal, formação de sensibilização, regras obrigatórias para videochamadas e comunicação interna. Ferramentas de detecção podem complementar, mas não substituem a atenção humana e a disciplina operacional.

  • Devo mostrar menos coisas minhas na internet?
    “Menos” não é automaticamente melhor; “mais consciente” é. Fotografias públicas em alta resolução e gravações longas com voz nítida facilitam o trabalho a ferramentas de deepfake. Partilhar conteúdos privados em círculos fechados e conhecer bem as definições de privacidade reduz a superfície de ataque.

  • Vai existir um contra-ataque técnico realmente seguro?
    Há avanços: marcas de água para conteúdos gerados por IA, aplicações que analisam imagens e vídeos, e iniciativas de padrões de proveniência que registam a origem e a cadeia de edição de um clip. Protecção total é improvável, mas estas soluções podem funcionar como um sistema de alerta - não um selo de verdade, mas um aviso útil.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário