A OpenAI oferece uma maneira para os criadores optarem por não utilizar dados de treinamento de IA. É tão oneroso que um artista o chamou de ‘enfurecedor’.

A OpenAI permite que os criadores optem por não usar dados de treinamento de IA, sendo considerado tão oneroso que um artista o chamou de enfurecedor.

  • Artistas e proprietários de imagens agora podem solicitar à OpenAI a remoção de suas imagens dos dados de treinamento do DALL-E.
  • No entanto, o processo coloca um grande ônus sobre os criadores para extrair seu próprio trabalho.
  • Um artista chamou o processo de exclusão “enfurecedor”.

Pela primeira vez, a OpenAI está permitindo que artistas removam seu trabalho dos dados de treinamento usados para o DALL-E 3, a versão mais recente de seu gerador de imagens de IA. O processo de exclusão é tão oneroso que quase parece ter sido projetado para não funcionar.

A OpenAI recentemente lançou um novo formulário que proprietários e criadores de imagens podem usar para solicitar a remoção de imagens de propriedade ou protegidas por direitos autorais dos dados de treinamento do DALL-E.

Os modelos de IA precisam de dados de treinamento de alta qualidade e gerados por humanos para ter um bom desempenho. Existe uma corrida para acumular todas essas informações. Mas os criadores originais desse conteúdo agora perceberam que o valor e a inteligência incorporados em seu trabalho estão sendo absorvidos e processados em benefício de outra pessoa. Isso está pressionando as grandes empresas de tecnologia a oferecer maneiras para os criadores decidirem participar ativamente ou extrair seus dados desse grande experimento de IA.

Um por um

Para que uma solicitação de exclusão seja considerada pelo novo processo da OpenAI, um artista, proprietário ou detentor dos direitos deve enviar uma cópia individual de cada imagem que deseja remover do conjunto de dados de treinamento do DALL-E, juntamente com uma descrição.

Para a maioria dos artistas, isso poderia significar centenas ou milhares de obras que precisam ser enviadas uma por uma. O Museu Georgia O’Keeffe, por exemplo, como detentor dos direitos das obras desse artista, precisaria enviar solicitações individuais para cada uma das mais de 2.000 obras de O’Keefe para que elas sejam consideradas para remoção do conjunto de dados do DALL-E.

A OpenAI é composta por tecnólogos muito inteligentes. A empresa poderia ter implementado um processo no qual um artista ou proprietário pudesse fazer uma única solicitação para remover todo o seu trabalho dos dados de treinamento. Mas a empresa não fez isso. Por quê? Provavelmente porque precisa de o máximo de dados possível para construir seus modelos de IA.

“Enfurecedor”

Toby Bartlett, um artista com uma empresa de consultoria homônima, escreveu no Threads que o processo de exclusão do DALL-E da OpenAI é “enfurecedor”.

“Agora os artistas vão ter que praticamente arruinar seu trabalho com marcas d’água de proporções épicas na esperança de que seu trabalho não seja usado… se isso funcionar mesmo!” ele acrescentou.

Greg Madhere, um consultor de TI, também escreveu no Threads que recentemente tem se dedicado à fotografia e queria compartilhar suas imagens online. Ele agora está hesitante, dada a extensão em que o conteúdo online está sendo coletado e usado para treinar modelos de IA como o DALL-E e o ChatGPT.

“Onde é seguro postar online hoje em dia?” ele perguntou.

Tarde demais

Mesmo que a OpenAI atenda a uma solicitação de exclusão de um artista ou proprietário, ela se aplicará apenas aos dados de treinamento “futuros” do DALL-E. A versão 3 que acabou de ser lançada já terá utilizado o trabalho artístico solicitado para remoção de seus dados de treinamento. Ou, como a OpenAI colocou, seu modelo terá “aprendido com seus dados de treinamento” e será capaz de “manter os conceitos que aprendeu”.

Tradução: Aqui está o processo de exclusão, mas é tarde demais porque já extraímos a maior parte do valor do seu trabalho.

Vários problemas relacionados ao uso de obras protegidas por direitos autorais para treinamento de IA estão atualmente em processo de elaboração de regras no Escritório de Direitos Autorais dos EUA, incluindo a opção de exclusão.

“Ouvimos de artistas e proprietários de conteúdo criativo que nem sempre desejam que seu conteúdo seja usado para treinamento, então estamos oferecendo a eles a possibilidade de optar por excluir suas imagens de treinamento futuro de modelos”, disse um porta-voz da OpenAI.

Opção robots.txt

Para aqueles com grandes coleções de obras ou um “alto volume de imagens de URLs específicas”, a empresa sugere bloquear o web crawler GPTBot da OpenAI implantando o robots.txt. A OpenAI afirmou no mês passado que respeitaria o método de décadas em que os sites sinalizam que não desejam ter seus dados coletados por um web crawler.

O problema é que, para um artista ou proprietário implantar o robots.txt, eles não apenas precisariam saber todos os sites que hospedam suas imagens, mas também ter acesso aos códigos desses sites para adicionar um arquivo robots.txt que pudesse bloquear o GPTBot.

Sem tal acesso, é provável que seja impossível para um artista ou proprietário ter suas obras removidas completamente dos dados de treinamento do DALL-E.

Você é um funcionário de tecnologia ou alguém com conhecimento para compartilhar? Entre em contato com Kali Hays em [email protected], no aplicativo de mensagens seguro Signal em 949-280-0267 ou por meio de DM no Twitter em @hayskali. Entre em contato usando um dispositivo não relacionado ao trabalho.