As nudes artificiais gerados por IA - os chamados deepfakes - inundaram de repente a internet: partilhados em fóruns, comentados por desconhecidos, arquivados por algoritmos. Enquanto ela se defende em público, há quem, sentado ao nosso lado no autocarro, deslize pelo ecrã como se nada fosse por entre essas mesmas imagens. Sem pestanejar. Sem perguntar quem está, de facto, ali exposto. Há um instante em que percebemos: isto é maior do que uma história sobre uma celebridade. Diz algo sobre todos nós - sobre o nosso olhar, sobre poder e impotência na era digital. E é precisamente aí, no tremor frio da luz do ecrã, que começa a verdadeira história.
Quando o nosso rosto passa a ser mercadoria
Imagine-se a cena com nitidez: acordas, ainda meio a dormir, estendes a mão para o telemóvel - um reflexo que todos conhecemos - e encontras mensagens de amigos, colegas e desconhecidos. Links. Capturas de ecrã. “És tu?” Collien Fernandes descreve exactamente este tipo de emboscada, só que com amplificação máxima: empurrada por meios de comunicação, sites de mexericos e redes sociais. O seu rosto, o seu corpo, a sua intimidade - montados de forma sintética, mas para muita gente “suficientemente reais” à primeira vista. De um momento para o outro, o corpo deixa de ser privado e transforma-se num dado. Um ficheiro que se partilha, copia e distorce. Sem descanso. Sem retorno.
A lógica por trás disto é implacavelmente simples. Tudo o que alguma vez chega à internet - uma fotografia, uma entrevista, uma aparição pública - torna-se matéria-prima. A partir de milhares de imagens, algoritmos constroem um modelo capaz de ser encaixado em qualquer fantasia. Figuras públicas como Collien são alvos preferenciais porque há imenso material acessível sobre elas. Mas o choque maior vem de outro lado: a barreira técnica está a descer tão depressa que este mecanismo pode atingir qualquer pessoa que publique selfies algures. Sejamos francos: quase ninguém lê termos e condições num upload apressado, nem pensa em geradores de imagem com IA. Publicamos, colocamos gostos, fazemos scroll. E, entretanto, a máquina continua a aprender em segundo plano.
O caso de Collien não é, portanto, uma excentricidade isolada - é um sintoma. Segundo um estudo dos EUA, já há alguns anos, mais de 90% dos deepfakes analisados na altura eram pornográficos - na maioria, com mulheres como “protagonistas” involuntárias. A tecnologia está mais barata, as aplicações estão mais simples, e muitos clips já não nascem apenas na dark web: fazem-se com dois ou três toques no smartphone. Uma espécie de cultura de “diversão tipo TikTok” a descambar para o extremo. No caso de Collien, juntaram-se alcance, um rosto conhecido e curiosidade voyeurística numa combinação tóxica. E a mensagem é crua: hoje, a visibilidade não traz só aplauso - traz também um novo grau de vulnerabilidade.
Como nos podemos proteger num mundo sem controlo total da imagem
Por mais impotente que tudo isto pareça, há passos concretos para aumentar a nossa margem de manobra. O primeiro é estranhamente básico: consciência. Não no sentido de moralismo, mas no sentido prático. Que imagens minhas estão públicas? Que perfis estão abertos e quais estão privados? Quem já pesquisou o próprio nome numa pesquisa de imagens conhece aquela sensação desconfortável - é exactamente aqui que começa a auto-defesa digital. É possível, por exemplo, fechar contas antigas e esquecidas, mudar fotografias de perfil, remover dados EXIF quando as imagens são sensíveis. Não é uma protecção perfeita, claro. Mas é uma espécie de arrumação digital que, pelo menos, reduz a superfície de ataque.
O segundo passo é emocionalmente mais exigente: não acreditar automaticamente no que se vê. Soa a banalidade, mas, hoje, funciona quase como regra de sobrevivência. Quando aparecem imagens de conhecidos, celebridades ou colegas em contextos duvidosos, um segundo de cepticismo faz uma diferença enorme. Não partilhar de imediato, não julgar por impulso. E, se fizer sentido, vale também falar com o nosso círculo - sobretudo com adolescentes, que crescem num universo visual em que o “falso” muitas vezes só é detectado quando o estrago já está feito. Todos conhecemos aquele “clique” interno que desperta com um thumbnail escandaloso. Fazer o esforço consciente de contrariar isso parece discreto, mas é mais poderoso do que parece.
Collien Fernandes e a resposta pública aos deepfakes
Collien Fernandes escolhe avançar: fala sobre o que aconteceu, dá nome à injustiça e actua legalmente. Com isso, quebra um padrão antigo de silêncio, em que muitas vítimas se fecham por vergonha. Num momento destes, uma posição como a seguinte soa credível:
“Isto não é apenas um ataque à minha pessoa, mas um ataque ao direito de cada ser humano de decidir como é visto.”
Desta postura, saem de imediato algumas linhas de orientação muito concretas:
- Nunca cair na armadilha da culpa - a responsabilidade é dos agressores e das plataformas, não da pessoa visada.
- Documentar cedo - guardar capturas de ecrã, links e registos de data/hora antes de o conteúdo desaparecer.
- Procurar aliados - advogados especializados em media, serviços de apoio, amigos e família, para não atravessar a tempestade sozinho.
- Usar a esfera pública de forma doseada - quem quiser falar pode (e deve) decidir o ritmo e a dimensão.
- Consumir com consciência - não clicar em imagens duvidosas, não reenviar, não discutir como se fosse “neutro”.
O que o caso de Collien revela sobre o nosso futuro colectivo
O caso de Collien Fernandes funciona como um holofote intenso sobre uma tendência que já avançava nas sombras. Atinge uma mulher incontornável no espaço público e mostra o que acontece quando visibilidade e perda de controlo colidem de frente. Ao mesmo tempo, lança uma pergunta que diz respeito a todos: a quem pertence o nosso rosto quando existe como ficheiro? À entidade que emite documentos? A nós? Ou, de repente, às plataformas que aspiram cada imagem para os seus “piscinas” de treino de IA sem darmos por isso? Entre protecção de dados, direitos de personalidade e realidade técnica, abre-se uma fissura cada vez maior.
O mal-estar que tantas pessoas sentem ao ler a história de Collien é um sinal importante. Mostra que ainda temos intuição para limites - mesmo quando a tecnologia os desloca mais depressa do que as leis conseguem acompanhar. Talvez este caso se torne um ponto de viragem, como foram, noutra altura, as primeiras grandes discussões sobre ciberbullying ou revenge porn. Talvez nasça daqui uma nova consciência: não apenas para proteger quem é alvo, mas também sobre o papel de quem assiste. Se clicamos ou não. Se contestamos ou nos calamos.
Talvez, daqui a alguns anos, olhemos para trás e digamos: naquele momento em que os deepfakes passaram do nicho ao mainstream, aprendemos que as imagens já não significam automaticamente verdade. Sim, até figuras públicas deixaram de ter controlo completo sobre a própria imagem. Mas também aprendemos que o controlo nunca pode ser só um trabalho individual - é uma questão social. Direito, tecnologia e cultura estão interligados. E é nesse emaranhado que se decide se a história de Collien desaparece como um aviso ignorado - ou se fica como ponto de partida para uma ética digital diferente, sobre a qual vale mesmo a pena falar.
| Ponto central | Detalhe | Valor para o leitor |
|---|---|---|
| Deepfakes como nova forma de agressão | O caso Collien Fernandes mostra como imagens de IA, sem consentimento, podem violar a esfera íntima. | Perceber por que razão estes conteúdos não são “escândalos”, mas violência digital. |
| Controlo limitado sobre a própria imagem | Fotografias públicas tornam-se material de treino para algoritmos e podem ser desviadas da sua finalidade. | Lidar com as próprias imagens de forma mais consciente e avaliar riscos de modo realista. |
| Estratégias e atitude concretas | Higiene digital, cepticismo no consumo de imagens, solidariedade com vítimas. | Passos aplicáveis no imediato para se proteger e proteger outros. |
FAQ
Pergunta 1 - O que aconteceu exactamente no caso de Collien Fernandes?
Foram difundidas na internet imagens falsas de nudez (deepfakes), nas quais o rosto dela foi colocado sobre corpos de outras pessoas. As imagens foram criadas sem o seu consentimento e partilhadas em massa.Pergunta 2 - Estes deepfakes são puníveis por lei?
Em muitas situações, aplicam-se direitos de personalidade, direitos de autor e, por vezes, normas penais - por exemplo, quando há divulgação de conteúdos pornográficos sem consentimento. O enquadramento legal está a ser progressivamente clarificado, mas ainda não está totalmente definido em todos os detalhes.Pergunta 3 - Isto também pode acontecer a pessoas “comuns”?
Sim. Quanto mais fotografias existirem em acesso livre, mais fácil é, tecnicamente, montar um rosto noutras cenas. Celebridades são afectadas com mais frequência, mas, em princípio, qualquer pessoa pode tornar-se alvo.Pergunta 4 - O que posso fazer se eu próprio for vítima?
Guardar provas, obter aconselhamento jurídico, denunciar o conteúdo nas plataformas, apresentar queixa às autoridades se for caso disso e procurar apoio de pessoas de confiança ou serviços especializados. O isolamento, muitas vezes, agrava o impacto.Pergunta 5 - Como agir no dia a dia de forma mais responsável perante este tipo de conteúdo?
Não clicar, não partilhar, não reenviar “por diversão”. Manter cepticismo quando as imagens parecem demasiado escandalosas e deixar claro, no nosso meio, que deepfakes não são uma moda engraçada, mas uma forma de violência digital.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário