Whispers a seguiu offline. Online, o abuso implodiu, sem controle: comentários, ridicularização, compartilhamentos, capturas de tela. Ela nunca consentiu com nada disso. Isso não impediu ninguém.
Em poucos minutos, milhares de pessoas viram o conteúdo. Em poucas horas, milhões.
O pesadelo estava apenas começando.
Dias se passaram antes que as plataformas respondessem. Até então, as imagens já haviam sido vistas, salvas e replicadas. Ela ficou perguntando: a quem devo denunciar isso? Alguém vai acreditar em mim? As pessoas que fizeram isso enfrentarão consequências? Ou a culpa recairá sobre mim?
Esta é a realidade de milhares de mulheres e meninas todos os dias. Os deepfakes de IA estão destruindo vidas reais e a justiça permanece fora do alcance da maioria dos sobreviventes.
A história dela pode ser a sua.
O abuso de deepfake é a ponta afiada de um padrão muito mais amplo de violência digital contra mulheres e meninas. É de gênero e está aumentando. Neste momento, os sistemas concebidos para proteger as pessoas estão a falhar, enquanto as ferramentas para causar danos se tornam cada dia mais baratas, rápidas e fáceis de utilizar.
Aqui está o que você precisa saber:
O que é abuso de deepfake e quão comum é?
Deepfakes são imagens, áudios ou vídeos manipulados por inteligência artificial (IA) que fazem parecer que alguém disse ou fez algo que nunca fez.
A tecnologia em si não é nova, mas a sua utilização como arma contra mulheres e raparigas é um fenómeno mais recente e está a acelerar rapidamente.
- a pornografia deepfake representou 98% de todos os vídeos deepfake online e 99% retratava mulheres, de acordo com um relatório de 2023.
- vídeos deepfake foram estimados 550 por cento mais prevalentes em 2023 do que em 2019
- as ferramentas para criá-los estão amplamente disponíveis, geralmente gratuitas, e requerem muito pouco conhecimento técnico
- uma vez publicado, o conteúdo gerado por IA pode ser replicado indefinidamente, salvo em dispositivos privados e compartilhado entre plataformas, tornando quase impossível removê-lo completamente.
Por que os sobreviventes não denunciam e o que acontece quando o fazem
A subnotificação é uma das maiores barreiras à responsabilização. Para os sobreviventes que se manifestam, o sistema judicial torna-se muitas vezes outra fonte de trauma.
- Os sobreviventes são solicitados repetidamente a visualizar e descrever conteúdo abusivo com a polícia, advogados e moderadores da plataforma, enquanto muitas vezes enfrentam perguntas como “você tem certeza de que não é real?” ou “você já compartilhou imagens íntimas antes?”
- Se um caso chega ao tribunal, suas roupas, relacionamentos e comportamento passado são examinados ao microscópio, e não o do perpetrador.
- Os danos não permanecem online, de acordo com uma pesquisa da ONU Mulheres, que descobriu que 41% das mulheres na vida pública que sofreram violência digital também relataram ter enfrentado ataques offline ou assédio relacionado a ela.
Por que os criadores de deepfakes raramente enfrentam justiça
Apesar da escala dos danos, os processos judiciais são raros, as plataformas falham rotineiramente na sua ação e os sobreviventes ficam frequentemente traumatizados novamente quando tentam procurar ajuda. Aqui está o porquê:
A lei não alcançou já que menos da metade dos países têm leis que abordam o abuso online e menos ainda têm legislação que cobre especificamente conteúdo deepfake gerado por IA
- a maioria das leis de “pornografia de vingança” ou abuso baseado em imagens foram escritas antes da existência dos deepfakes, deixando brechas abertas
- em muitos países, pornografia deepfake ou imagens de nudez geradas por IA caem em áreas legais cinzentas
- os sobreviventes não têm certeza se o abuso é mesmo ilegal e se os perpetradores podem ser processados
A aplicação está atrasada porque mesmo quando existem leis, os investigadores precisam de conhecimentos de perícia forense digital, coordenação transfronteiriça e cooperação de plataforma para construir um caso, enquanto a maioria dos sistemas de justiça não tem recursos adequados para qualquer um destes
- as evidências desaparecem rapidamente à medida que o conteúdo se espalha e as cópias se multiplicam, enquanto os perpetradores se escondem atrás do anonimato ou operam em jurisdições
- as plataformas são lentas ou não estão dispostas a partilhar dados com as autoridades policiais, especialmente em casos transfronteiriços
- atrasos na análise forense digital significam que os casos param antes mesmo de começarem
As plataformas tecnológicas estão falhando com os sobreviventes já que há muito se escondem atrás do status de “intermediário” para evitar a responsabilidade pelo conteúdo gerado pelo usuário.
O que deve acontecer agora
Embora existam vários países e regiões a tomar medidas (ver caixa de texto abaixo), impedir o abuso de deepfakes requer uma ação urgente e coordenada por parte de governos, instituições e plataformas tecnológicas.
Aqui estão cinco coisas que precisam acontecer:
1. Leis que realmente cobrem o abuso de deepfake
Os governos devem aprovar legislação com definições claras de abuso gerado pela IA e centrando-se no consentimento, na responsabilidade estrita dos perpetradores, nas obrigações de remoção rápida para plataformas e nos protocolos de aplicação transfronteiriços.
2. Sistemas judiciais que podem investigar e processar
A aplicação da lei precisa de formação, recursos e capacidade dedicada para recolher e preservar provas digitais, ao mesmo tempo que os atrasos na análise forense digital são resolvidos, com os quadros de cooperação internacional a tornarem-se rápidos, funcionais e adequados à sua finalidade.
3. Plataformas responsabilizadas
As empresas de tecnologia devem ser legalmente obrigadas a monitorizar e remover proativamente conteúdos abusivos dentro dos prazos obrigatórios, cooperar com as autoridades policiais e enfrentar consequências financeiras reais quando não agem.
4. Apoio real aos sobreviventes
Devem estar disponíveis profissionais da lei e profissionais jurídicos treinados e informados sobre o trauma, bem como assistência jurídica gratuita.
5. Educação que previne abusos
A literacia digital, incluindo a educação para o consentimento, a segurança online e o que fazer quando se sofre abuso, precisa de começar desde cedo e chegar a todos, uma vez que a prevenção é tão importante como a ação penal.
A ONU Mulheres alerta que este não é um problema de nicho da Internet: “É uma crise global”.
- em um caso recente de grande repercussão, a jornalista britânica Daisy Dixon descobriu imagens dela sexualizadas e geradas por IA no X em dezembro de 2025, criadas usando a ferramenta Grok AI da própria plataforma; demorou dias para a plataforma bloquear geograficamente a função, enquanto o abuso continuava se espalhando
- O abuso de deepfake pode servir como catalisador online para os chamados “crimes baseados em honra” em certos contextos culturais, onde a violação percebida das normas de honra em plataformas digitais pode resultar em violência física extrema contra as mulheres, ou mesmo em morte
- mais da metade das vítimas de deepfake nos Estados Unidos da América pensaram em suicídio, de acordo com pesquisas recentes
Enquanto isso, algumas jurisdições estão começando a agir:
- Brasil alterou o seu código penal em 2025, aumentando a pena para quem causar violência psicológica contra mulheres utilizando IA ou outra tecnologia para alterar a sua imagem ou voz
- o União Europeia lei de inteligência artificial (IA) impõe obrigações de transparência em torno de deepfakes
- O Reino UnidoA Lei de Segurança Online proíbe o compartilhamento de imagens explícitas manipuladas digitalmente, mas não aborda a criação de deepfakes e pode não ser aplicada quando a intenção de causar sofrimento não puder ser comprovada
- o Estados Unidos A Lei Take It Down cobre explicitamente imagens íntimas geradas por IA e exige a remoção da plataforma dentro de 48 horas
Fonte: VEJA Economia
