Saltar para o conteúdo

Deepfakes em crescimento: Por que basta uma foto para seres alvo de violência digital e ninguém fala disso

Mulher preocupada assente olhando para o telemóvel com várias imagens digitais de rosto triste no ambiente.

O retrato tinha sido só um instantâneo.

Sexta‑feira à noite num bar: alguém levanta o telemóvel, três segundos de flash, gargalhadas, “envias‑me isso?”. Duas semanas depois, o mesmo rosto aparece nu num clip pornográfico - um vídeo que ela nunca gravou. Amigos mandam capturas de ecrã perturbadoras; desconhecidos enviam a nova “correspondência de fãs”. Ela não publicou nada, não “se expôs”; estava apenas ali, no fundo de uma noite, como tantas vezes acontece a qualquer pessoa.

Vivemos num mundo em que uma imagem já não é apenas uma recordação - tornou‑se matéria‑prima.

Quem é fotografado uma vez fica, em potência, maleável como plasticina para fantasias alheias, para algoritmos e para a raiva anónima.

E quase ninguém nos diz, com frontalidade, até onde isto já chegou.

Um clique, uma fotografia, um pesadelo com Deepfakes

Conhecemos bem aquele instante em que alguém diz: “Espera, mais uma foto” - e o sorriso sai no automático.

O rosto fica meio tenso, meio irritado: mais uma imagem para um chat qualquer, para uma story qualquer.

Antes, isto parecia inofensivo. Hoje, esse mesmo instantâneo pode ser a primeira peça de um processo de violência digital.

As novas ferramentas de deepfake apresentam‑se como brinquedos. Há sites que prometem “transformar‑te numa estrela” e aplicações que colam a tua cara em memes de filmes.

Só que, por trás do verniz, existem modelos que aprendem a partir de uma única fotografia centrada no rosto: como tu és, como piscares, como a tua boca se move.

Nos artigos técnicos, isto soa abstracto. Nos fóruns de agressores, aparece como se fosse um menu: “Só tens de carregar uma selfie; a IA faz o resto”.

A barreira de entrada baixou tanto que já nem é preciso um “hacker” - basta um colega de turma aborrecido.

Uma investigação do instituto Sensity contabilizava, já em 2023, centenas de milhares de deepfake‑pornos não consentidos. A maioria trazia o rosto de mulheres reais, muitas vezes retirado das redes sociais e, por vezes, apenas de fotos de perfil.

As vítimas descobrem quando um colega lança um olhar estranho ou quando um ex‑parceiro “por acaso” envia um link.

E aí instala‑se algo particularmente tóxico: a pergunta vira‑se imediatamente contra elas.

“Porque é que tiraste essas fotos?” ou “porque é que publicas tanto sobre ti?”. O facto de o material ser completamente falsificado passa a contar menos do que a vergonha que fica.

Para uma IA, um rosto é pura geometria: linhas, ângulos, padrões. O algoritmo memoriza a sobrancelha marcante, o queixo, a forma como o sorriso levanta as maçãs do rosto.

Até uma fotografia suada num concerto pode bastar - desde que o software consiga focar bem a cara.

Depois, essa “máscara” é colocada sobre corpos alheios. Os píxeis esticam, as cores ajustam, as sombras imitam‑se, até que, no primeiro segundo de choque, até tu hesitas: “Sou eu mesmo ali?”.

Esse milissegundo de dúvida é a violência em si.

É essa confusão que os agressores exploram. Ameaçam com a divulgação, vendem “clips exclusivos”, comportam‑se como se fossem donos do teu corpo numa versão digital.

E tudo pode ter começado com uma única fotografia de que já nem te lembravas.

Porque é que quase ninguém fala do risco exponencial

Existe um consenso silencioso para não olhar com demasiada atenção.

Celebramos filtros de IA no TikTok, rimo‑nos com vozes falsas de políticos, ficamos a ver trailers hiper‑realistas criados em segundos. Debaixo desse brilho, cresce um mercado sombrio que prefere manter‑se invisível.

Os políticos falam de deepfakes quando temem eleições manipuladas. As empresas falam quando as suas marcas são copiadas. Quem raramente entra no centro destas conversas são as pessoas comuns, cujos rostos passam a ser “material grátis”.

Mulheres, pessoas queer, adolescentes: acabam como figurantes numa história tecnológica que oficialmente fala de inovação e, na prática, é empurrada por desejo, humilhação e abuso de poder.

Sejamos realistas: ninguém lê todos os termos e condições todos os dias, nem acompanha onde é que o próprio rosto vai parar. Vamos deslizando para dentro sem perceber quão fundo o buraco ficou.

E o perigo não cresce em linha recta - cresce de forma exponencial. A cada novo modelo de IA, fica mais fácil, mais rápido e mais barato gerar falsificações credíveis, até a partir de fotografias medianas.

O que ontem exigia trabalho artesanal em cantos obscuros da internet, hoje é um botão num site acessível ao público.

Isto explica porque a violência digital não só se repete como se multiplica. Um deepfake criado uma vez pode ser copiado centenas de vezes, reeditado, recortado e republicado.

Uma plataforma remove um clip - e, no mesmo minuto, ele já está espelhado em sete outros locais. Para quem é alvo, a sensação é de um jogo infinito de “acertar no alvo”: denuncias, envias e‑mails, juntas links para advogados… enquanto outra pessoa carrega em “Play” e vê o teu suposto corpo numa cena que nunca aconteceu.

E falamos pouco sobre isto porque o tema é pesado, está carregado de vergonha e não é “vendável”. Porque custa admitir que qualquer fotografia de férias, qualquer história de uma festa, pode cair numa espiral destas. Porque é mais cómodo pensar: “isto acontece aos outros”.

O que podes fazer, na prática - sem apagares a tua vida da internet

O mito mais perigoso é: “Então não publiques nada.”

Isto ignora que, muitas vezes, bastam fotografias tiradas por outras pessoas: posts de amigos, imagens de festas, um boletim interno de empresa, uma newsletter.

Desaparecer por completo não é realista para a maioria - nem é justo.

O que ajuda mais é uma espécie de treino muscular digital. Não precisas de ser perfeito; precisas de alguns reflexos.

Começa por ser mais criterioso sobre quem pode fotografar‑te e em que contexto. “Envia‑me depois, mas por favor não publiques” parece um detalhe - mas, na prática, é um sinal de limite.

O mesmo acontece quando perguntas a uma amiga se ela quer mesmo que a cara dela fique marcada (tag) naquela fotografia. Frases assim não fazem barulho, mas vão criando um novo tipo de consciência.

Em paralelo, vale a pena fazer uma verificação das tuas pegadas. Pesquisa no Google pelo teu nome e usa a pesquisa de imagens com uma selfie que carregas de propósito para teste. É desconfortável passar a “varrer” a própria presença como se fosse uma marca, mas dá‑te um ponto de partida.

E prepara um plano de emergência. Se suspeitares que existe um deepfake teu a circular, não precisas de uma prova perfeita para agir: guarda capturas de ecrã, preserva o link, regista datas, identifica onde apareceu, avisa uma pessoa de confiança - um pequeno checklist frio para um momento em que, por dentro, tudo está a arder.

A armadilha mais comum é tentar carregar isto sozinho. A vergonha sussurra: “Se não contares a ninguém, não é real.” Só que o link continua a existir, mesmo em silêncio.

Outro erro é começar pela prioridade errada. Muitas vítimas gastam toda a energia a tentar apagar ficheiros antes de guardar evidências.

Sem capturas de ecrã, URLs e e‑mails guardados, torna‑se muito mais difícil apresentar queixa mais tarde ou pressionar plataformas a agir.

A verdade crua: não consegues controlar cada upload.

O que consegues influenciar é a tua rede - se amigas, parceiros e colegas sabem como reagir quando alguém lhes envia falsificações “engraçadas” ou “sensuais” sobre ti.

Ninguém gosta de falar disto - até ser tarde demais.

Definir limites antes de acontecer parece exagero. Depois, essas frases valem ouro.

“A auto‑protecção digital já não é uma questão individual e privada; é um esforço de equipa”, diz uma consultora de um serviço de apoio HateAid na Alemanha. “Quem faz de conta que não viu quando deepfakes são partilhados facilita a vida aos agressores.”

O que ajuda, de forma concreta, quando a protecção é colectiva:

  • Dizer claramente nos grupos de amigos que deepfake‑pornos não são “uma brincadeira”: são violência digital.
  • Em grupos de WhatsApp, não deixar clips problemáticos “passarem”; nomear o que são e porque são inaceitáveis.
  • Não reenviar links - nem “só para informação”. Cada partilha aumenta o dano.
  • Oferecer solidariedade cedo: ajudar a documentar, denunciar e acompanhar a pessoa afectada.
  • Em equipas e escolas, promover sessões sobre violência digital em específico, em vez de falar apenas de “ciberbullying” de forma genérica.

Um par de camadas extra de protecção (que quase ninguém menciona)

Além dos reflexos sociais, há medidas práticas que reduzem exposição sem te isolarem. Revê definições de privacidade em redes sociais (quem pode ver fotos, quem pode fazer tag, se o teu perfil aparece em motores de busca) e limita a partilha pública de imagens com boa definição do rosto quando não houver necessidade.

Também ajuda combinar, em eventos e no trabalho, regras simples: pedir consentimento antes de publicar, evitar álbuns públicos com fotos de grupo e definir um ponto de contacto caso alguém detecte uso indevido. Em ambientes profissionais, isto pode ser integrado em políticas internas de comunicação, tal como já se faz com dados pessoais.

E quando o problema já existe: registar, denunciar, pedir apoio

Se encontrares conteúdo, o impulso de “apagar já” é natural, mas a sequência mais eficaz costuma ser: (1) preservar prova, (2) reportar às plataformas, (3) procurar apoio jurídico e psicológico. Na União Europeia, princípios de protecção de dados (como o RGPD) e mecanismos de denúncia podem ajudar na remoção, mas os tempos variam e o processo é desgastante - por isso, ter um roteiro e pessoas ao lado faz diferença.

O que está em jogo - e porque ignorar já não é opção

A pergunta deixou de ser se os deepfakes vão chegar ao quotidiano. Eles já cá estão, muitas vezes disfarçados de humor, de tendência ou de “brinquedo” tecnológico.

O que está em causa é se um rosto humano online ainda significa uma promessa de verdade - ou apenas material para qualquer encenação.

Quanto mais “normal” se torna a ideia de que imagens “não têm de ser levadas a sério”, mais fácil fica o victim blaming. “Isso é tudo falso” transforma‑se em segundos em “bem, ela também não deve ser assim tão inocente”.

De repente, quem foi alvo tem de provar que algo não aconteceu - uma inversão de prova quase impossível de suportar.

Talvez a oportunidade esteja precisamente aqui: falar cedo, mesmo de forma imperfeita. Com amigos, com filhos, com chefias. Ninguém precisa de ser especialista para dizer: “Não quero que usem a minha cara contra mim.”

Os deepfakes não são apenas um cenário futurista de séries de ficção científica. São uma ferramenta concreta para quem quer exercer poder sem dar a cara.

Quanto mais se fala, quanto mais se estabelecem limites claros, mais caro fica - socialmente - partilhar estas imagens.

Talvez tudo comece com uma frase discreta:

“Mostra‑me, por favor, qual é a fotografia minha que queres publicar.”

Esse pequeno gesto de autodeterminação ainda não é um escudo. Mas é um começo num mundo em que uma única fotografia pode bastar para te transformar num alvo.

Ponto‑chave Detalhe Valor para quem lê
Uma foto pode bastar para deepfakes realistas Modelos modernos de IA conseguem reconstruir expressões e traços a partir de uma selfie e colocá‑los sobre corpos de outras pessoas. Percebe porque até imagens “inocentes” podem tornar‑se base para violência digital grave.
O risco cresce de forma exponencial A cada geração de ferramentas, os custos e as barreiras de entrada descem, e as falsificações espalham‑se como avalanche. Entende que o risco não fica estável: aumenta depressa - e agir cedo faz sentido.
Protecção digital é trabalho de equipa Comunicar limites, não reenviar, guardar provas, reagir com solidariedade em vez de silêncio. Ganha alavancas concretas para se proteger e proteger outras pessoas no dia‑a‑dia.

FAQ

  • Pergunta 1: Um único retrato pode mesmo ser suficiente para criarem um deepfake meu?
    Sim. Muitos sistemas actuais precisam apenas de uma imagem nítida do teu rosto para o colocarem sobre corpos de outras pessoas ou para o animarem em vídeo. Mais material melhora a falsificação, mas não é obrigatoriamente necessário.
  • Pergunta 2: Como é que sei se existe um deepfake meu a circular?
    Muitas vezes, descobre‑se através de conhecidos que enviam links ou capturas de ecrã. Podes pesquisar com regularidade o teu nome e imagens no Google, mas não existe controlo a 100%.
  • Pergunta 3: O que devo fazer primeiro se for alvo?
    Preservar provas: capturas de ecrã, URLs, datas e contexto. Depois, envolver uma pessoa de confiança e contactar apoio especializado (linhas de apoio, juristas/advogados) antes de ficares apenas focado em “apagar”.
  • Pergunta 4: Apresentar queixa vale a pena quando os agressores são anónimos?
    Pode valer, porque investigadores muitas vezes têm mais meios de acesso do que as vítimas imaginam. Mesmo que não se identifique de imediato quem fez, é possível pressionar plataformas e estabelecer limites.
  • Pergunta 5: Como preparo amigos e crianças sem lhes meter medo?
    Fala em linguagem do dia‑a‑dia sobre respeito por imagens e por limites. Sublinha que deepfakes são violência, não uma piada, e que qualquer pessoa tem o direito de dizer: “Esta foto minha fica privada.”

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário