Deepfake vende ‘nude falso’ de celebridades e vizinhas por app
University College Cork (UCC) – Um estudo com mais de dois mil participantes expôs que a pornografia criada por inteligência artificial já virou um mercado de “violência sob demanda”, onde qualquer rosto – de atrizes a colegas de trabalho – pode ser colado em cenas explícitas com poucos cliques.
- Em resumo: 98% dos vídeos deepfake na internet são pornográficos, e mais de 100 apps oferecem esse serviço sem exigir habilidade técnica.
Como funciona o “nude instantâneo”
Basta subir uma foto ao aplicativo ou ao banner presente em sites adultos para que o sistema gere um vídeo explícito em minutos. Levantamento de janeiro identificou 50 ferramentas na Google Play e 47 na App Store dedicadas a esse fim, todas apresentadas como entretenimento inofensivo.
Segundo o Fórum Brasileiro de Segurança Pública, a distribuição de imagens íntimas sem consentimento é considerada violência sexual e pode ser enquadrada na Lei 13.718/2018, que prevê até cinco anos de prisão.
“98% dos deepfakes publicados hoje são de conteúdo adulto”, concluiu o projeto ITAS-KIT, lançado em fevereiro na Alemanha.
Por que o dano vai além da falsidade
Especialistas alertam que a agressão não depende de alguém acreditar no vídeo. O simples fato de ver a própria imagem hiper-sexualizada rouba da vítima o controle sobre o corpo e aumenta sintomas de ansiedade e depressão.
A pesquisa da UCC também demonstrou que quanto maior a familiaridade do agressor com a vítima, maior o valor atribuído ao material. Esse efeito alimenta um ciclo de repetição: amigos, ex-parceiros e colegas tornam-se alvos porque a violência vem acompanhada de sensação de poder e anonimato.

Regulação ainda patina
No Brasil, projetos de lei que tentam tipificar o deepfake avançam devagar. A Lei 14.155/2021 endureceu penas para crimes digitais, mas especialistas defendem ajustes para abarcar manipulações geradas por IA. Países como Reino Unido e Austrália já criaram sanções específicas para “pornografia de vingança” envolvendo deepfake.
Enquanto a legislação não acompanha o ritmo da tecnologia, organizações de direitos digitais recomendam guardar provas, registrar boletim de ocorrência e acionar as plataformas imediatamente. No caso de aplicativos, a remoção exige identificação do desenvolvedor e envio de notificação formal amparada no Marco Civil da Internet.
O que você acha? A legislação brasileira está pronta para enfrentar esse tipo de crime? Para mais detalhes sobre segurança digital, acesse nossa editoria especializada.
Crédito da imagem: Divulgação
