Saltar para o conteúdo

Deepfakes em alta: Mais de 80% das pessoas não percebem a manipulação a tempo e perdem controlo sobre a sua imagem online.

Jovem preocupado verifica o rosto no espelho e no telemóvel enquanto está sentado à secretária com computador portátil.

Ela fixa o olhar no telemóvel, faz zoom até à zona dos próprios olhos.

No vídeo no ecrã, ela ri-se, diz frases que nunca disse, e as mãos desenham gestos inequívocos. O link circula no grupo de WhatsApp, no chat do trabalho, num fórum com milhares de desconhecidos. “És mesmo tu?”, pergunta uma mensagem. Alguém responde apenas com um emoji carregado de intenção. Sente o estômago gelar. A cara é dela. Tudo o resto, não.

Conhecemos esse instante em que aparece na Internet uma imagem nossa que nem sabíamos que existia. Na maioria das vezes é só uma fotografia má de uma festa. No mundo dos deepfakes, esse momento descamba para algo bem mais sombrio. De repente, o nosso rosto deixa de nos pertencer. E enquanto ainda olhamos, incrédulos, já há um algoritmo a trabalhar em modo turbo nos bastidores.

O que soava a ficção científica está a transformar-se num risco do dia a dia.

Quando o próprio rosto se torna um corpo estranho: deepfakes

O número é dito de forma fria, mas acerta em cheio: mais de 80 % das pessoas afectadas apercebem-se tarde demais de que foram alvo de um deepfake. Só identificam a manipulação quando o vídeo já foi partilhado, comentado, guardado. Quando, na prática, tudo já começou a derrapar. O que fica é uma sensação como se alguém arrancasse a própria identidade à força e a espalhasse pela Internet.

Os deepfakes já não são um fenómeno exótico de nicho em fóruns de hackers. Aparecem no escritório, em conversas de família, em apps de encontros, no grupo da escola dos filhos. Quem passa por isto descreve, muitas vezes, o mesmo choque: vê-se a si próprio, ouve uma voz familiar, reconhece as expressões - e, ainda assim, sabe que aquilo que ali é dito ou feito nunca aconteceu. A confiança na própria imagem desaba.

Uma estudante de 23 anos, da Renânia do Norte-Vestefália, conta que tudo começou com um selfie no Instagram. Alguém pegou na fotografia e, com IA, colocou-lhe o rosto num vídeo pornográfico. O ficheiro foi parar a um canal de Telegram e, depois, ao grupo da universidade. Quando ela soube, o vídeo já tinha milhares de visualizações. Tentou denunciar links, contactar contas, falar com plataformas. Enquanto lutava, surgiam novas versões. Quem entra nesse tipo de canais dificilmente volta a sair rapidamente.

Relatórios e estatísticas de segurança informática confirmam aquilo que as vítimas sentem na pele: em algumas áreas, o número de vídeos deepfake identificados chega a duplicar de ano para ano. Muitos casos nunca entram nas contas oficiais, porque a vergonha e o medo são enormes. Em documentos internos de grandes plataformas já se fala há muito num “problema de volume”. A tecnologia fica mais barata, mais rápida, mais acessível. Hoje, com poucos minutos de vídeo do TikTok ou do YouTube, dá para criar uma cópia de um rosto com um realismo assustador - e sem ser preciso um curso de programação.

Como é que chegámos a um ponto em que a manipulação só é percebida quando quase já não há nada a fazer? Uma explicação é a velocidade. Ferramentas de IA que há três anos pareciam experimentais agora funcionam como aplicações web, com modelos prontos a usar. Quem quer exercer violência digital já não precisa de grande competência - basta tempo e intenção maliciosa. E a arquitectura das plataformas amplifica o estrago: os algoritmos empurram para cima conteúdos emocionalmente carregados, e os clips seguem em vagas antes de alguém conseguir verificar se são reais.

Há ainda um factor psicológico. Estamos habituados a acreditar no que vemos. Durante décadas, a regra implícita foi: um vídeo não mente. Essa ideia está profundamente enraizada. O nosso sistema de alerta interno não foi feito para um mundo em que os rostos são tratados como moldes, colados e descolados à vontade. Quando alguém se vê num vídeo, precisa de um instante para sequer compreender a dissonância. E esse instante basta para a Internet transformar um falso numa avalanche.

Como recuperas o controlo - ou como evitas perdê-lo em primeiro lugar (deepfakes)

Parece duro, mas ajuda chamar as coisas pelo nome: já não existe controlo total sobre a nossa imagem online. O que existe é uma margem de manobra pequena, mas valiosa. E começa muito antes do que imaginamos. Quem hoje tem alguma visibilidade na Internet - seja no LinkedIn, no TikTok ou num blog de um clube local - ganha em criar um “arquivo de imagem” próprio, mantido de forma consciente. Não por vaidade. Por prova.

Pode ser simples: uma pasta com fotografias e vídeos originais e os respectivos dados de captura, talvez com marca de água ou metadados. Se um dia for preciso demonstrar que um clip foi manipulado, é essencial ter material de comparação. A forense digital trabalha com referências. Sem referência, qualquer perícia fica mais difícil. Muitos especialistas em segurança recomendam também uma espécie de “jejum de dados”: publicar menos conteúdo íntimo, menos planos muito aproximados, menos situações facilmente comprometedoras. Sejamos honestos: quase ninguém consegue cumprir isto todos os dias. Ainda assim, cada fragmento de dados a menos é uma camada de protecção.

Para quem já foi alvo, as perguntas mudam por completo: o que fazer primeiro quando a nossa cabeça aparece num vídeo falso? Muita gente reage por instinto e corre em todas as direcções: avisar amigos, escrever às plataformas, procurar advogado, querer descobrir o agressor. No imediato, isso pode gerar mais caos do que clareza. Um plano de emergência organizado soa quase a excesso de zelo - até ao dia em que faz falta. Um primeiro passo útil é documentar o caso com método: capturas de ecrã com data/hora, links, nomes de contas, possíveis testemunhas.

Em paralelo, vale a pena identificar apoios de forma pragmática. Algumas estruturas sindicais, universidades, entidades patronais e serviços de apoio a mulheres já têm pontos de contacto para ataques digitais. Quem procura estes canais consegue, pelo menos, orientação; por vezes, uma primeira avaliação jurídica; por vezes, apoio psicossocial. O impacto emocional destes falsos é frequentemente subestimado por quem está de fora. E, no entanto, muitas pessoas relatam que esse reconhecimento - “sim, isto é violência” - é o primeiro momento em que voltam a sentir o chão.

Uma especialista em forense digital com quem falei disse-o assim:

“Os deepfakes não destroem apenas a confiança nos conteúdos - atacam a confiança na própria percepção. Quem é alvo precisa de ajuda técnica e de apoio humano.”

O que é possível fazer, na prática, para não ficar totalmente indefeso?

  • Configurar uma pesquisa de alerta precoce: verificar com regularidade o teu nome e as tuas imagens através de pesquisa inversa, por exemplo com o Google Imagens ou ferramentas especializadas.
  • Preparar a tua comunidade: explicar a amigos, colegas e família como pode ser um cenário de emergência - e pedir que não reencaminhem clips suspeitos.
  • Definir e comunicar limites: tornar público, de forma clara, quais são os teus canais oficiais e onde nunca publicarias nada.
  • Avaliar opções legais: reunir capturas e links, procurar aconselhamento jurídico ou contactar serviços de apoio a cyberbullying e violência digital.
  • Aceitar ajuda emocional: recorrer a terapia, grupos de entreajuda ou pessoas de confiança, em vez de reduzir tudo a “é só Internet”.

O que está em jogo - e porque temos de reaprender a ver

A discussão sobre deepfakes costuma focar-se em política ou celebridades: manipulação em campanhas, discursos falsificados, entrevistas inventadas. Mas a vaga mais silenciosa - e muito mais ampla - acontece no quotidiano. Alunas cujos rostos aparecem em montagens nude. Gerentes de pequenas e médias empresas que, em vídeos falsos, “promovem” negócios duvidosos. Profissionais de saúde cujos supostos “registos” deepfake circulam em grupos de conspiração. A fronteira entre “pessoa privada” e “figura pública” desfaz-se no instante em que um vídeo se torna viral.

Falar abertamente da própria vulnerabilidade pode, paradoxalmente, dar força. Quem assume, de forma consciente, que a sua imagem pode ser abusada retira aos agressores uma parte do poder da surpresa. A literacia parece aborrecida até se tornar íntima. Famílias que conversam com os filhos sobre deepfakes constroem uma base para que, mais tarde, um pedido de ajuda não afunde na vergonha. Equipas que discutem no trabalho procedimentos de segurança e canais de denúncia reagem muito mais depressa quando acontece.

No fundo, trata-se de criar uma nova cultura de dúvida. Não no sentido cínico de “já não se pode acreditar em nada”, mas no sentido atento de “um vídeo é um indício, não uma prova”. Isto exige de todos nós uma pequena mudança interna: perguntar mais uma vez. Partilhar menos uma vez. Parar mais uma vez antes de comentar com indignação. Caso contrário, quem é alvo de um deepfake paga o preço da nossa impaciência colectiva. E talvez seja aqui que existe uma saída discreta: comunidades que deixam de se deixar arrastar, por reflexo, pelo próximo clip escandaloso.

Talvez daqui a alguns anos nos lembremos de quão ingénuos ainda éramos em 2024 com imagens e vídeos. Não com gozo, mas com alguma indulgência. Estávamos num ponto de viragem: rostos a tornarem-se dados e a verdade a tornar-se matéria de negociação. Se então pudermos dizer que aprendemos alguma coisa depende, hoje, de muitas decisões pequenas. Do clique em “Partilhar”. Do breve segundo de hesitação. Da coragem de defender pessoas a quem arrancaram a imagem das mãos.

Ponto-chave Detalhe Valor para o leitor
Muitas pessoas só detectam deepfakes tarde demais Mais de 80 % das vítimas só se apercebem do abuso quando o material já se tornou viral Aumenta a consciência do risco pessoal e da urgência da prevenção
Proteger activamente a própria imagem Arquivo de imagem próprio, menos publicações íntimas, pesquisas inversas, canais de comunicação claros Passos concretos para ter provas e detectar abuso mais depressa
Plano de emergência e rede de apoio Documentação, denúncias, aconselhamento jurídico, apoio psicossocial, comunidade informada Dá um roteiro para sair da impotência e reduz a sobrecarga emocional

FAQ:

  • Como posso, sendo leigo, identificar um deepfake? Pormenores mal trabalhados são sinais comuns: padrões de pestanejar pouco naturais, contornos do rosto ligeiramente a tremelicar, iluminação incoerente, movimentos labiais que não encaixam totalmente no áudio. Também é suspeito quando um clip surge “do nada” com um tom altamente emocional - sobretudo em canais duvidosos.
  • O que devo fazer primeiro se eu for alvo? Manter a calma e registar tudo: capturas de ecrã, links, momento em que surgiu, contas envolvidas. Depois, usar os mecanismos de denúncia das plataformas, envolver pessoas de confiança e perceber se existem serviços locais de apoio a violência digital. Só depois faz sentido ponderar uma resposta pública.
  • Posso agir legalmente contra deepfakes? Em muitos casos, sim - sobretudo em deepfakes de teor sexual, difamação ou usurpação de identidade. Direitos de personalidade, direitos de autor e normas penais podem oferecer vias de actuação. Uma consulta jurídica inicial ou um serviço especializado consegue avaliar quais os passos mais realistas.
  • Como me posso proteger preventivamente sem deixar de estar online? Escolher com cuidado o que publicas, reduzindo sobretudo grandes planos do rosto e cenas muito íntimas. Usar definições de privacidade, identificar claramente os teus canais oficiais e fazer pesquisas inversas regulares das tuas imagens. Protecção total não existe, mas é possível aumentar a barreira ao abuso.
  • Devo avisar amigos se vir um possível deepfake deles? Sim, mas com tacto e sem contribuir para a divulgação. Contacta em privado, explica o que viste, porque desconfias e que não vais partilhar. Só mostres o material à pessoa se ela o pedir expressamente e oferece ajuda - por exemplo, a denunciar e a procurar apoio.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário