O chat aparece de repente, ali mesmo, no meio da carruagem.
“Sei onde moras.” Logo a seguir, surge uma fotografia da própria porta de entrada - desfocada em alguns pontos, mas inconfundível. A pessoa que envia a mensagem não existe: o perfil tem uma imagem criada por IA e um nome inventado. Passados cinco minutos, o telemóvel vibra outra vez: novas contas, novas ameaças, novas imagens - todas artificiais, todas assustadoramente credíveis. A mulher sentada no corredor segura o smartphone como se queimasse. As mãos tremem-lhe; olha em volta como se o agressor pudesse estar atrás do banco seguinte. Algures, num servidor, há modelos a correr neste instante, a clonar-lhe a voz, a cara, a vida. O ataque já não vem necessariamente de um indivíduo, mas de uma máquina treinada para atropelar pessoas. E os dados mostram: isto está longe de ser um caso isolado.
Como a violência digital se multiplica com IA (Inteligência Artificial)
Durante anos, violência digital significava, muitas vezes, um perseguidor, uma conta falsa, algumas mensagens ameaçadoras. Hoje, a sensação é a de um enxame. Uma ferramenta de IA consegue gerar dezenas de perfis em segundos, escrever num português impecável (e até imitar registos regionais), e espalhar o ataque por vários canais ao mesmo tempo. O que antes exigia dias de insistência e algum conhecimento técnico, pode agora acontecer num clique - e voltar a acontecer, vezes sem conta.
Muita gente conhece aquele momento em que uma única mensagem “dá um nó no estômago”. Só que, na era da IA, raramente fica por uma. O assédio pode chegar por e-mail, mensagem privada, comentários, menções, tudo em simultâneo. Soa humano, mas por trás pode estar apenas código - e esse código não se cansa, não hesita, e escala sem piedade quando ninguém trava.
Investigadores/as da University of Cambridge estimam que o assédio automatizado com IA generativa pode escalar até 1.000 vezes mais depressa do que o trolling clássico. E há sinais claros de aceleração: na Alemanha, a organização HateAid registou em 2023 um aumento superior a 70% nos casos reportados de violência digital com ligação a IA - incluindo deepfakes de nudez, mensagens de voz sintéticas e conversas forjadas.
Uma professora descreveu como, de um dia para o outro, começou a circular na escola um vídeo deepfake: o seu rosto montado num clip pornográfico. Em apenas 12 horas, o conteúdo foi partilhado em mais de 20 grupos de WhatsApp. O aluno que enviou o link primeiro recorreu a uma ferramenta online gratuita e terá demorado poucos minutos. O impacto, esse, não desaparece em minutos - acompanha-a durante anos.
Porque isto nos diz respeito a todos (e não apenas a figuras públicas)
A realidade, sem dramatismos desnecessários, é esta: a violência digital com IA deixou de ser um problema “de gente conhecida”. Já se infiltra em grupos de turma, conversas de família, matches em apps de encontros, fóruns de bairro. Se um estudo da Agência dos Direitos Fundamentais da União Europeia indica que quase metade das mulheres jovens na Europa já viveu assédio digital, não estamos a falar de excepções - estamos a falar de ambiente. E, nesse ambiente, a IA funciona como acelerante.
Um ex-companheiro anónimo, um colega ressentido, um grupo radicalizado: todos beneficiam de ferramentas que transformam frustração em campanha em segundos. Quem hoje não é alvo, muito provavelmente conhece alguém que já foi - e que optou por não contar.
O mais inquietante nas estatísticas actuais é que mostram apenas a ponta do icebergue. Muita gente não denuncia deepfakes e ódio gerado por IA por sentir que “não vai dar em nada”, ou por receio do chamado efeito Streisand (quanto mais se combate, mais atenção o conteúdo ganha). Ao mesmo tempo, as empresas continuam a desenvolver modelos cada vez mais fortes: vozes mais perfeitas, sincronização labial mais convincente, estilos de escrita mais fáceis de copiar. Se a sociedade assistir a isto apenas como espectáculo tecnológico, o espaço fica entregue aos mais agressivos.
Em Portugal, vale a pena saber - antes de precisar - onde procurar ajuda: a APAV (apoio à vítima), a Linha Internet Segura (orientação sobre segurança e abuso online), e as autoridades competentes quando há crime (por exemplo, denúncia junto do Ministério Público e participação às forças policiais; em situações específicas, a Polícia Judiciária pode ser relevante). Mesmo quando a sensação é de impotência, registar, reportar e pedir apoio reduz o isolamento e aumenta a probabilidade de resposta coordenada.
Também nas escolas e nas famílias há um trabalho preventivo que quase não existia há poucos anos: falar abertamente sobre consentimento na partilha de imagens, explicar o que são deepfakes, e criar regras claras para grupos (por exemplo, remover e denunciar conteúdos humilhantes em vez de os “passar adiante”). A prevenção aqui não é moralismo - é literacia de sobrevivência.
O mecanismo por trás do problema: menos esforço, mais dano
A lógica é dura, mas simples: onde antes eram necessários tempo, competências e alguma coragem para confrontar, hoje bastam prompts e um ego inflamado. A IA baixa drasticamente a barreira para praticar violência digital - quase “por botão”. Além disso, as pistas confundem-se: quem está por trás, afinal? Uma pessoa real, uma rede de bots, uma campanha semi-automatizada? A investigação criminal tende a avançar mais devagar do que a velocidade de propagação, e as plataformas nem sempre reagem a tempo.
Para quem é alvo, a distinção técnica interessa pouco. O medo é verdadeiro. As noites sem dormir também.
Um jurista que estuda violência digital há anos resumiu a questão de forma crua:
“A IA não inventa necessariamente novas formas de violência; ela sobe o volume até ao máximo - e retira aos agressores o pouco esforço que ainda existia.”
O que podemos fazer, de forma prática - agora, não “um dia”
Enquanto se discute o sistema (e é importante que se discuta), muitas vítimas precisam de passos concretos que funcionem hoje. Um dos mais úteis é criar um plano de emergência de violência digital antes de acontecer alguma coisa. O nome pode soar burocrático, mas a utilidade é real: em situação de choque, ter uma lista pronta evita decisões erradas e perda de prova.
Um plano simples pode incluir: - como tirar capturas de ecrã de forma consistente; - como guardar URLs, nomes de utilizador e IDs de publicações; - como registar data/hora (carimbos temporais) e contexto; - quais os formulários de denúncia das plataformas que usa; - e que pessoa de confiança pode ajudar.
Muitas entidades de apoio recomendam escolher antecipadamente uma “pessoa de primeiros socorros digitais”: alguém que, no momento do ataque, assume tarefas práticas - documenta, reporta, organiza - quando o corpo está em modo de pânico e a cabeça parece vazia. Nessa fase, rotina vale mais do que improviso.
É comum ouvir conselhos que parecem saídos de 2012: palavras-passe fortes, autenticação de dois factores, privacidade bem afinada. A verdade é que quase ninguém faz isto com disciplina diária, quase ninguém lê termos e condições extensos, quase ninguém se lembra de tudo o que ainda existe em backups antigos. Só que, com IA, estes detalhes ganham outra urgência: um único vídeo público pode bastar para produzir deepfakes; um conjunto de notas de voz pode ajudar a imitar timbre e cadência; selfies “inocentes” podem ser recontextualizadas.
Um erro típico é desvalorizar material aparentemente banal - vídeos de festas, mensagens de áudio, fotografias sem contexto - e perceber tarde demais que pode ser usado como matéria-prima. Outro erro é adiar o pedido de ajuda por vergonha, ou por achar que “ainda não é grave o suficiente”.
Três níveis de protecção contra violência digital com IA
Para reduzir riscos e danos, ajuda pensar em três camadas que se reforçam mutuamente:
- Prevenção no dia-a-dia - gerir com mais cuidado imagens, voz e dados de localização; rever definições de privacidade com alguma regularidade; reduzir “rastros invisíveis” (ex.: permissões de apps e partilhas automáticas).
- Reacção quando acontece - guardar provas, evitar discutir a sós com quem ataca, pedir apoio a entidades especializadas (por exemplo, HateAid na Alemanha como referência internacional; em Portugal, apoio à vítima e canais de segurança online), e reportar às plataformas.
- Pressão estrutural - exigir respostas mais rápidas e claras de plataformas e legisladores, para que a protecção não dependa apenas da resistência individual.
Sem pressão colectiva sobre plataformas e decisores políticos, cada pessoa fica desnecessariamente exposta no “vendaval” da IA.
Síntese (para guardar e partilhar)
| Ponto-chave | Detalhe | Valor para quem lê |
|---|---|---|
| A IA multiplica a violência digital | Bots automatizados, deepfakes e texto sintético permitem ataques em larga escala com esforço mínimo. | Percebe porque as ameaças hoje surgem mais depressa e com mais volume - e que isso não é “falha pessoal”. |
| Plano de emergência de violência digital | Passos claros: guardar provas, envolver uma pessoa de confiança, contactar apoio especializado, denunciar nas plataformas. | Em crise, tem um guião de acção em vez de paralisia. |
| A protecção é em camadas | Combina prevenção pessoal, resposta inteligente e pressão política sobre plataformas e legislação. | Entende que as medidas individuais ajudam, mas funcionam melhor com mudanças colectivas. |
FAQ
Pergunta 1 - Como perceber se a violência digital é “assistida por IA”?
Sinais frequentes incluem muitas mensagens num curto espaço de tempo, textos muito semelhantes vindos de contas diferentes, perfis pouco claros com imagens geradas, ou vozes “perfeitas” demais. Nem sempre é possível provar o uso de IA sem dúvidas - ainda assim, o impacto e a gravidade contam na mesma.Pergunta 2 - Posso agir legalmente contra deepfakes?
Sim. Em Portugal, podem aplicar-se protecções ligadas ao direito à imagem e aos direitos de personalidade, bem como enquadramentos criminais consoante o caso (por exemplo, ameaças, difamação, perseguição, devassa da vida privada). O essencial é reunir prova (capturas, links, ficheiros, carimbos temporais) e procurar aconselhamento especializado. Noutros países, como a Alemanha, também existem vias legais (como o direito geral de personalidade e normas penais em casos de injúria ou ameaça), o que mostra que há bases jurídicas, ainda que a resposta nem sempre seja rápida.Pergunta 3 - Devo responder a mensagens de ódio ou “dar troco”?
Regra geral, não. Responder tende a alimentar o ciclo, a aumentar visibilidade e a consumir energia. Priorize documentação, denúncias e apoio. Debater só faz sentido em espaços moderados, com regras claras e identidade verificável.Pergunta 4 - Como apoiar amigas/os que estão a ser atacados?
Ouça, acredite e evite minimizar. Ajude de forma prática: fazer capturas, preencher denúncias, acompanhar à polícia/Ministério Público ou a uma entidade de apoio. E, no seu círculo, não seja espectador: posicionar-se contra a partilha de conteúdos humilhantes corta a cadeia de propagação.Pergunta 5 - Estou a ser exagerado/a se passar a publicar menos sobre mim?
Não. Reduzir exposição online não é paranoia; é auto-protecção num contexto em que dados e imagens são facilmente reaproveitados. Cada pessoa deve poder decidir quanta presença pública continua a parecer segura.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário