Imagens nuas geradas por IA de adolescentes incentivam as famílias a exigirem proteção Estamos lutando pelos nossos filhos.

Aumento de imagens comprometedoras de adolescentes criadas por inteligência artificial desperta o chamado por proteção das famílias! Estamos na batalha para manter nossos filhos a salvo.

Enquanto isso, do outro lado do país, autoridades estão investigando um incidente envolvendo um adolescente que supostamente usou inteligência artificial para criar e distribuir imagens semelhantes de outros estudantes – também adolescentes – que frequentam uma escola de ensino médio nos arredores de Seattle, Washington.

Esses casos perturbadores colocaram novamente em destaque o material explícito gerado por IA que prejudica desproporcionalmente mulheres e crianças e está se proliferando online em uma velocidade sem precedentes. De acordo com uma análise da pesquisadora independente Genevieve Oh, compartilhada com a Associated Press, mais de 143.000 novos vídeos deepfake foram postados online este ano, o que supera todos os outros anos combinados.

Desesperadas por soluções, as famílias afetadas estão pressionando os legisladores para implementar salvaguardas robustas para as vítimas cujas imagens são manipuladas usando novos modelos de IA ou a infinidade de aplicativos e sites que abertamente anunciam seus serviços. Defensores e alguns especialistas jurídicos também estão pedindo regulamentação federal que possa fornecer proteções uniformes em todo o país e enviar uma mensagem forte aos atuais e futuros perpetradores.

“Estamos lutando por nossas crianças”, disse Dorota Mani, cuja filha foi uma das vítimas em Westfield, um subúrbio de Nova Jersey, nos arredores de Nova York. “Elas não são republicanas e não são democratas. Elas não se importam. Elas só querem ser amadas e querem estar seguras”.

O problema dos deepfakes não é novo, mas especialistas afirmam que está piorando à medida que a tecnologia para produzi-los se torna mais disponível e fácil de usar. Pesquisadores vêm alertando este ano sobre a explosão de material abusivo sexualmente gerado por IA, usando representações de vítimas reais ou personagens virtuais. Em junho, a FBI alertou que continuava recebendo denúncias de vítimas, tanto menores quanto adultos, cujas fotos ou vídeos foram usados para criar conteúdo explícito divulgado online.

Vários estados aprovaram suas próprias leis ao longo dos anos para tentar combater o problema, mas variam em escopo. Texas, Minnesota e Nova York aprovaram legislação este ano criminalizando deepfake pornográfico não consensual, juntando-se à Virgínia, Geórgia e Havaí, que já tinham leis em vigor. Alguns estados, como Califórnia e Illinois, permitiram apenas que as vítimas processem os agressores por danos em processo civil, o que Nova York e Minnesota também permitem.

Alguns outros estados estão considerando sua própria legislação, incluindo Nova Jersey, onde um projeto de lei está em andamento para proibir deepfake pornográfico e impor penalidades – tempo de prisão, multa ou ambos – para aqueles que o espalham.

A senadora estadual Kristin Corrado, do Partido Republicano, que apresentou a legislação este ano, disse que decidiu se envolver depois de ler um artigo sobre pessoas que tentavam contornar leis de pornografia de vingança usando a imagem de seu ex-parceiro para gerar deepfake pornográfico.

“Tivemos a sensação de que um incidente iria acontecer”, disse Corrado.

O projeto de lei ficou estagnado por alguns meses, mas há boas chances de ser aprovado, especialmente com a atenção que o caso de Westfield atraiu para a questão.

O incidente de Westfield ocorreu neste verão e foi trazido à atenção da escola em 20 de outubro, afirmou a porta-voz da Westfield High School, Mary Ann McGann, em comunicado. McGann não forneceu detalhes sobre como as imagens geradas por IA foram divulgadas, mas Mani, mãe de uma das meninas, disse que recebeu um telefonema da escola informando que fotos nuas foram criadas usando os rostos de algumas estudantes e depois circularam entre um grupo de amigos no aplicativo de mídia social Snapchat.

A escola não confirmou nenhuma ação disciplinar, citando confidencialidade em assuntos envolvendo estudantes. A polícia de Westfield e o escritório do procurador do condado de Union, ambos notificados, não responderam aos pedidos de comentários.

Ainda não foram divulgados detalhes sobre o incidente no estado de Washington, que ocorreu em outubro e está sendo investigado pela polícia. Paula Schwan, a chefe do Departamento de Polícia de Issaquah, disse que eles obtiveram múltiplos mandados de busca e observou que as informações que têm podem estar “sujeitas a alterações” à medida que a investigação continua. Quando contatado para comentar, o Distrito Escolar de Issaquah disse que não pode discutir os detalhes específicos devido à investigação, mas afirmou que qualquer forma de bullying, assédio ou má conduta entre estudantes é “completamente inaceitável”.

Se as autoridades decidirem processar o incidente em Nova Jersey, a atual lei estadual que proíbe a exploração sexual de menores já pode ser aplicada, afirmou Mary Anne Franks, professora de direito da Universidade George Washington e líder da Cyber Civil Rights Initiative, uma organização que visa combater abusos online. Mas essas proteções não se estendem aos adultos que podem se encontrar em uma situação semelhante, disse ela.

A melhor solução, disse Franks, viria de uma lei federal que pudesse fornecer proteções consistentes em todo o país e penalizar organizações duvidosas que lucram com produtos e aplicativos que permitem facilmente a criação de deepfakes. Ela disse que isso também poderia enviar um sinal forte aos menores que podem criar imagens de outras crianças de forma impulsiva.

O presidente Joe Biden assinou uma ordem executiva em outubro, que, entre outras coisas, prevê a proibição do uso de IA generativa para produzir material de abuso sexual infantil ou “imagens íntimas não consentidas de indivíduos reais”. A ordem também orienta o governo federal a emitir diretrizes para rotular e marcar conteúdo gerado por IA para ajudar a diferenciar entre material autêntico e material produzido por software.

Citando o incidente em Westfield, o deputado federal Tom Kean Jr., um republicano que representa a cidade, apresentou um projeto de lei na segunda-feira que exigiria que os desenvolvedores incluíssem informações sobre o conteúdo gerado por IA. Entre outros esforços, um outro projeto de lei federal apresentado pelo deputado federal Joe Morelle, um democrata de Nova York, tornaria ilegal compartilhar imagens pornográficas deepfake online. Mas ele não avançou há meses devido ao impasse no Congresso.

Alguns argumentam com cautela – incluindo a União Americana pelas Liberdades Civis (ACLU), a Electronic Frontier Foundation e a Coalizão de Mídia, uma organização que trabalha para grupos comerciais representando editoras, estúdios de cinema e outros – dizendo que é necessário um cuidado considerável para evitar propostas que possam violar a Primeira Emenda.

“Algumas preocupações sobre deepfakes abusivos podem ser tratadas com as leis existentes de cibermolestamento”, disse Joe Johnson, um advogado da ACLU de Nova Jersey. “Seja federal ou estadual, deve haver uma conversa substancial e participação das partes interessadas para garantir que qualquer projeto de lei não seja excessivamente amplo e aborde o problema declarado.”

Mani disse que sua filha criou um site e estabeleceu uma organização de caridade com o objetivo de ajudar vítimas de IA. As duas também têm conversado com legisladores estaduais que defendem o projeto de lei de Nova Jersey e estão planejando uma viagem a Washington para defender mais proteções.

“Nem toda criança, menino ou menina, terá um sistema de apoio para lidar com esse problema,” disse Mani. “E eles podem não ver a luz no fim do túnel.”

__

Repórteres da AP Geoff Mulvihill e Matt O’Brien contribuíram de Cherry Hill, Nova Jersey e Providence, Rhode Island.