
Estudo aponta que IA aumenta a criação de deepfakes de pornografia com mulheres

Um estudo realizado pelo Oxford Internet Institute (OII), da Universidade de Oxford, no Reino Unido, acendeu um alerta global sobre o impacto do avanço das ferramentas de inteligência artificial (IA) na produção de deepfakes, principalmente, imagens íntimas de mulheres.
Segundo a pesquisa, divulgada no início de maio, a facilidade de uso dos softwares de IA resultou no aumento da criação e disseminação de imagens manipuladas, muitas vezes de cunho pornográfico e sem consentimento das vítimas. O levantamento identificou a existência de quase 35 mil softwares de deepfake disponíveis para download público, capazes de gerar imagens falsas de uma pessoa em apenas 15 minutos, utilizando cerca de 20 fotos reais como referência.
De acordo com os pesquisadores, esses softwares de deepfake são programados para trabalhar com imagens de pessoas identificáveis como celebridades e também com informações de usuários comuns, extraídas principalmente de perfis em redes sociais.
Saiba mais:
- YouTube vai exigir que usuários identifiquem vídeos feitos com inteligência artificial
- Inteligência artificial deve mudar radicalmente aplicativos de namoro; entenda
O estudo aponta ainda que 96% das ferramentas de IA analisadas são utilizadas para replicar imagens de mulheres, sejam elas figuras públicas ou anônimas. Os países com maior ocorrência desses casos são China, Coreia do Sul, Japão, Reino Unido e Estados Unidos.
Pesquisador defende regulação das IAs para reduzir deepfakes
Os deepfakes são geralmente publicados na internet com etiquetas como “pornô“, “sexy” ou “nu“, violando a privacidade das mulheres retratadas e alimentando o mercado de conteúdo íntimo não consensual, conhecido pela sigla NCII (Non-Consensual Intimate Image).
Para o principal autor do estudo, Will Hawkins, é urgente a adoção de medidas que limitem a produção e circulação dessas imagens.
“Existe uma necessidade urgente de proteções técnicas mais robustas, políticas de plataforma mais claras e aplicadas de forma mais proativa, além de novas abordagens regulatórias para lidar com a criação e a distribuição desses modelos de IA prejudiciais”, enfatizou Hawkins.