Saltar para o conteúdo

Deepfakes crescem exponencialmente: Esta nova tecnologia de IA pode fazer de qualquer pessoa uma vítima e espalha-se mais rápido do que nunca.

Mulher preocupada a olhar para o telemóvel enquanto trabalha num laptop, editando vídeo numa mesa com plantas.

Pouco depois da meia-noite, o ecrã do telemóvel pisca e, no TikTok, aparece um vídeo de um conhecido apresentador alemão.

Ele está aparentemente na cozinha, fala para a câmara e garante - com uma convicção assustadora - que subornou uma política famosa. Os comentários entram em modo avalanche, o clip é partilhado centenas de vezes, alguém faz uma captura de ecrã e envia para o grupo da família. Quase ninguém pára para perguntar se aquilo pode sequer ser verdadeiro. No vídeo, o homem pestaneja, respira, sorri: tudo parece demasiado natural. Só na manhã seguinte se percebe o que aconteceu: Deepfake. Um gerador qualquer da Internet, duas ou três fotografias, umas linhas de texto. Feito. E é aqui que começa o problema a sério.

Quando qualquer rosto se transforma numa arma (Deepfakes)

Há um reflexo que todos conhecemos: vemos um vídeo e pensamos, automaticamente, “isto tem de ser real - nota-se”. É precisamente nesse impulso que a nova geração de ferramentas de Deepfake se apoia. Já não precisa de horas de gravação: muitas vezes, basta um único selfie e alguns segundos de material. O algoritmo trata do resto. Ajusta rostos, recria vozes, imita emoções. A barreira para “sequestrar” alguém digitalmente caiu praticamente a zero.

Há poucos anos, os Deepfakes eram um brinquedo de nicho em fóruns. Hoje, existem sites e aplicações onde se faz upload de uma cara e, em segundos, se recebe um vídeo convincente. Um start-up conhecido gabou-se recentemente de que a sua IA gera 500.000 avatares por dia. E um estudo nos EUA concluiu que o número de vídeos Deepfake identificados online mais do que duplicou num ano. Isto não é apenas estatística: são rostos, carreiras e relações que, no pior cenário, ficam em jogo.

A lógica é tão implacável quanto simples: quanto menor o esforço, mais rápida a propagação. Quem quiser criar hoje um porno de vingança, um discurso político forjado ou uma chamada falsa de “CEO” já não precisa de software caro nem de experiência de Hollywood. Um portátil normal, uma ligação minimamente estável e um tutorial no YouTube chegam. E os modelos aprendem de forma exponencial: quanto mais material consomem, melhor ficam. Quanto melhores ficam, mais gente os usa. Um ciclo que se acelera sozinho - sem travão.

Além disso, os Deepfakes já não vivem só em vídeos virais. Estão a entrar em fraudes do dia a dia: clonagem de voz para enganar familiares, “mensagens” falsas em áudio a pedir transferências urgentes, ou falsos vídeos em reuniões online. Ou seja: não é apenas reputação - é também dinheiro, segurança e confiança.

Como te podes proteger na era dos Deepfakes

A verdade fria é esta: do ponto de vista técnico, não vais travar a enxurrada. O que podes fazer, de forma prática, é reduzir a tua superfície de ataque. Analisa com cuidado onde colocas o teu rosto em alta resolução. Fotografias públicas, imagens de férias super nítidas, retratos profissionais em múltiplas plataformas - tudo isso funciona como matéria-prima para geradores de Deepfake.

Um conjunto de passos simples ajuda mais do que parece: tornar perfis privados, apagar imagens desnecessárias e rever álbuns antigos. Não por paranoia - por auto-protecção.

Sendo honestos: quase ninguém faz isto de forma consistente. Muitos de nós arrastamos contas esquecidas há uma década, das quais nem sabemos a que endereço de e-mail estão ligadas. E é precisamente aí que as novas IAs de Deepfake se agarram. Quem tem um nome, normalmente tem também fotografias acessíveis algures. E quem é visível torna-se atacável. Isso não significa que tenhas de desaparecer - significa apenas que vale a pena ter consciência de que imagens tuas circulam e quão perto chegam da tua vida privada.

“Os Deepfakes não são apenas um fenómeno técnico - são uma ferramenta de poder. Quem controla o teu rosto, controla uma parte da tua identidade.” - investigadora fictícia de cibercrime, em conversa comigo

  • Verifica contas antigas e fecha as que já não usas há anos
  • Partilha fotografias com crianças ou situações muito íntimas apenas em grupos fechados
  • Desconfia se surgirem vídeos teus ou de conhecidos que “não encaixam” no contexto habitual
  • Combina com família e amigos como agir perante conteúdos suspeitos (confirmar antes de partilhar)
  • Se fores alvo: mantém a calma - não apagues tudo em pânico; guarda provas e procura apoio

Um ponto adicional que muitas pessoas ignoram: cria rotinas de verificação. Se um vídeo ou áudio pedir acção imediata (“envia já dinheiro”, “não digas a ninguém”, “é urgente”), trata isso como sinal de alarme. Confirma por outro canal: uma chamada para o número habitual, uma mensagem directa, ou até uma pergunta simples que só a pessoa verdadeira saberia responder.

A próxima vaga: o que acontece quando a confiança fica rara

Quando qualquer rosto pode ser convertido num potencial alvo, muda algo fundamental no quotidiano: a confiança no que vemos. A geração dos nossos pais cresceu a ouvir “um vídeo não mente”. Agora, estamos a entrar no inverso. Amanhã, um político pode fazer um discurso real e, no dia seguinte, alegar que “era Deepfake”. Uma influencer pode aparecer num vídeo escandaloso e a comunidade fica presa entre duas hipóteses: é verdadeiro ou é falso? A verdade torna-se negociável - dependendo de quem grita mais alto ou tem mais alcance.

É isto que torna a tecnologia tão perigosa numa camada mais profunda. Não apenas porque pode prejudicar directamente pessoas - de imagens íntimas a vídeos usados para extorsão - mas porque corrói a realidade partilhada. Se tudo pode ser falsificado, a sensação de segurança desaparece. Quem ganha com isso? Sobretudo actores que vivem do caos: grupos radicais, campanhas de desinformação, certas correntes políticas. E, claro, criminosos que lucram com a confusão. A tecnologia avança a grande velocidade enquanto leis, escolas e instituições ainda estão a aquecer no bloco de partida.

Há também um segundo efeito perverso: o chamado “dividendo do mentiroso”. Quando as falsificações se tornam comuns, até provas verdadeiras podem ser descartadas com um “isso é IA”. No fim, perde-se duas vezes: espalham-se mentiras mais fáceis e, ao mesmo tempo, a verdade passa a ser mais fácil de negar.

Talvez seja agora que temos de reaprender algo antigo: dúvida saudável. Não acreditar por instinto. Confirmar fontes. Perguntar directamente: “És mesmo tu?” Parece básico, quase ingénuo. Mas entre estados do WhatsApp, Reels do Instagram e canais de Telegram, isso acontece muito menos do que devia. Vivemos depressa, estamos sempre online, partilhamos por impulso. Abrandar pode ser o acto mais radical - porque quem acredita mais devagar é mais difícil de manipular.

Resumo prático

Ponto-chave Detalhe Valor para o leitor
Os Deepfakes estão a melhorar de forma exponencial Novos modelos de IA precisam de poucas fotografias e aprendem a partir de milhares de milhões de imagens Perceber por que razão o teu rosto hoje pode ser usado de forma abusiva com muito mais facilidade do que há poucos anos
Cada rasto público é matéria-prima Perfis abertos, contas antigas e imagens de alta resolução fornecem dados ideais para treino e geração Motivação concreta para rever a presença online e geri-la com mais intenção
A confiança tornou-se um recurso escasso A verdade na Internet fica “negociável” e vídeos reais e falsos começam a confundir-se Ideias práticas para reagir com cepticismo saudável e acordos claros com o teu círculo

FAQ

  • Como reconheço um Deepfake no dia a dia?
    Muitas falsificações revelam-se em pequenos detalhes: pestanejar estranho, sombras incoerentes, contornos do rosto mal recortados, dentes ou orelhas com formas esquisitas. O áudio também pode parecer ligeiramente fora de sincronização. Se o vídeo for muito emocional, chocante ou escandaloso e vier de uma única fonte, vale a pena fazer uma pesquisa rápida antes de acreditar ou partilhar.

  • É possível criar um Deepfake a partir de um único selfie?
    Com ferramentas modernas: sim, em muitos casos. Quanto melhor a luz e maior a resolução do selfie, mais fácil é abusar dele. Para falsificações especialmente credíveis, várias fotografias ou pequenos clips ajudam, mas a barreira de entrada já é baixa mesmo com pouco material.

  • O que devo fazer se surgir um Deepfake meu?
    Guarda provas (capturas de ecrã, links, data e contexto) e evita apagar tudo por impulso. Depois, procura aconselhamento jurídico - por exemplo, junto de uma associação de defesa do consumidor, um advogado ou serviços especializados. As plataformas podem ser notificadas para remoção e, em casos graves, pode fazer sentido apresentar queixa por difamação, injúria ou violação de direitos de personalidade.

  • Todos os vídeos gerados por IA são perigosos?
    Não. Esta tecnologia também é usada de forma criativa e útil: cinema, publicidade, dobragens, acessibilidade. O problema começa quando pessoas reais são envolvidas sem consentimento, sobretudo em contextos sexualizados ou políticos. O contexto determina quando uma brincadeira se torna uma arma.

  • Como sensibilizo a minha família sem criar pânico?
    Fala do tema com naturalidade, mostra exemplos e explica que os falsos podem ser muito convincentes. Definam regras simples: não reenviar “vídeos escândalo” de imediato, confirmar directamente com a pessoa em caso de dúvida, e incentivar crianças e jovens a avisar quando virem algo estranho. Informação consistente protege mais do que medo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário