Um homem foi preso por usar IA para criar centenas de imagens sexuais de crianças

Homem preso por usar IA para criar imagens sexuais de crianças

  • Um homem na Coreia do Sul foi preso por criar imagens sexualmente explícitas de crianças.
  • Ele foi condenado a dois anos e meio de prisão em um caso histórico, relatou o Korea Herald.
  • Uma cidade espanhola foi abalada após o uso de um aplicativo de IA para criar fotos falsas de meninas nuas.

Um homem sul-coreano foi preso por usar prompts de IA para criar imagens sexualmente explícitas de crianças, informou o Korea Herald, citando veículos locais.

O homem não identificado, com cerca de quarenta anos, foi acusado de violar a Lei de Proteção de Crianças e Jovens e condenado a dois anos e meio de prisão.

Alega-se que o homem usou um programa de IA que gera imagens para criar cerca de 360 imagens sexuais, informou o escritório do promotor ao CNN. Ele não distribuiu as imagens, que foram apreendidas pela polícia.

Ele usou prompts como “10 anos de idade”, “nua” e “criança” para gerar as imagens, que o tribunal considerou suficientemente realistas para rejeitar as alegações da defesa de que não poderiam ser consideradas sexualmente exploradoras, relatou o Korea Herald.

A decisão do tribunal mostrou que imagens falsas, mas realistas, de menores criadas com tecnologia de “alto nível” podem ser consideradas como conteúdo sexualmente abusivo, disse o escritório do promotor ao CNN.

No início deste mês, uma pequena cidade da Espanha foi abalada pela criação e distribuição de imagens nuas de meninas jovens geradas por IA em várias de suas escolas.

Mais de 20 meninas, com idades entre 11 e 17 anos, foram identificadas como vítimas na cidade de Almendralejo, na região oeste da Extremadura.

As imagens deepfake foram supostamente feitas usando o aplicativo Clothoff, alimentado por IA, que permite aos usuários “despir meninas gratuitamente”. Elas foram principalmente criadas usando fotos tiradas das contas de mídia social das meninas, nas quais elas estavam totalmente vestidas.

A tecnologia deepfake é onde a IA é usada para gerar vídeos, áudios ou imagens novos e realistas para retratar algo que não aconteceu de fato.

A tecnologia tem um passado obscuro e frequentemente foi usada para criar pornografia não consensual, como um anúncio de serviço público do FBI de junho de 2023 alertou.

“O FBI continua recebendo relatos de vítimas, incluindo crianças e adultos não consentidos, cujas fotos ou vídeos foram alterados para conteúdo explícito”, disse a agência, acrescentando que esse conteúdo muitas vezes era “circulado publicamente em redes sociais ou sites pornográficos, com o objetivo de assediar as vítimas ou extorsão sexual”.

O escritório do promotor sul-coreano não respondeu imediatamente a um pedido de comentário da Insider, feito fora do horário normal de trabalho.