Um executivo de estabilidade demitiu-se depois de afirmar que a IA generativa explora os criadores. Isso poderia ser um problema para as empresas de IA.

Executivo de estabilidade pula do barco ao afirmar que a IA generativa está botando para quebrar. Isso pode afundar as empresas de IA.

  • O executivo da Stability AI, Ed Newton-Rex, saiu dramaticamente da startup de IA movimentada esta semana.
  • Ele se opôs ao argumento da Stability de que ela deveria poder treinar IA usando obras protegidas por direitos autorais de graça.
  • Uma grande luta está se formando sobre se as gigantes de tecnologia devem pagar pelos dados necessários para construir IA.

Uma briga está se formando sobre se as gigantes de tecnologia devem pagar pelos dados protegidos por direitos autorais necessários para treinar suas IA – e uma renúncia dramática esta semana sugere que isso está prestes a se tornar pessoal.

O chefe de áudio da Stability AI, Ed Newton-Rex, deixou a startup na quarta-feira e lançou uma série extraordinária de críticas contra seu ex-empregador depois que a Stability argumentou que não deveria ter que pagar aos criadores para treinar seus modelos de IA em seu trabalho.

É um argumento compartilhado por muitos dos rivais gigantes de tecnologia da Stability, que alertaram que bilhões podem ser eliminados do setor de IA em expansão se eles não conseguirem o que querem.

Modelos de IA gerativos como ChatGPT e Diffusion Estável são treinados usando enormes quantidades de informações extraídas da Internet, incluindo arte, letras de música e livros.

Artistas e criadores argumentaram que esses modelos foram treinados usando seu trabalho sem permissão e estão sendo usados agora para substituí-los, com várias ações judiciais contra empresas de IA como Stability e OpenAI.

A renúncia de Newton-Rex, que construiu um criador de música de IA treinado usando música licenciada enquanto estava na Stability, mostra que seus medos são compartilhados por alguns daqueles que realmente constroem modelos de IA.

“Empresas avaliadas em bilhões de dólares estão treinando modelos de IA generativos em obras de criadores, sem permissão, que estão sendo usados para criar novo conteúdo que, em muitos casos, pode competir com as obras originais”, escreveu Newton-Rex em um post no X anunciando sua renúncia.

“Para deixar claro, sou a favor da IA generativa. Ela terá vários benefícios; é por isso que trabalhei nisso por 13 anos. Mas só posso apoiar a IA generativa que não explora criadores, treinando modelos – que podem substituí-los – em seu trabalho sem permissão”, afirmou ele.

O Escritório de Direitos Autorais dos EUA está atualmente considerando novas regras para a IA generativa, e grandes empresas de tecnologia deixaram bem claro em suas propostas para o regulador que discordam do ponto de vista de Newton-Rex, com empresas como Meta e Google argumentando que isso imporia uma “responsabilidade esmagadora” aos construtores de IA.

Eles têm muito a perder. A gigante do capital de risco e autodenominada “tecnóloga otimista”, Andreessen Horowitz, alertou que bilhões de dólares podem ser eliminados do setor se as gigantes de IA forem obrigadas a pagar pelos dados em que seus modelos operam.

Giorgio Franceschelli, um cientista da computação que escreve extensivamente sobre IA e direitos autorais, disse ao Business Insider que era razoável afirmar que treinar um modelo de IA generativo usando obras protegidas por direitos autorais estava dentro dos limites do uso justo, comparando-o com humanos “aprendendo” de pinturas no Google e tentando reproduzi-las à mão.

No entanto, ele disse que os argumentos apresentados pelas gigantes de tecnologia para justificar a coleta de materiais protegidos por direitos autorais não estão alinhados com o princípio por trás do uso justo.

Mesmo que seja tecnicamente legal, Franceschelli disse que isso é moralmente errado.

“Pode ser legal, mas ainda é errado treinar modelos dessa maneira”, disse ele.

“Esses modelos não são como nós, treinados com material protegido por direitos autorais para melhorar suas oportunidades; é apenas para aprimorar suas habilidades, que são posteriormente exploradas pelas empresas para ganhar dinheiro e pelos usuários para gerar resultados que podem ameaçar o mercado dos autores dos dados de treinamento.”

O fato de críticas como as de Franceschelli agora serem ecoadas pelas pessoas que realmente constroem modelos AI generativos sugere que a renúncia de Newton-Rex poderia ser um momento decisivo para a AI.

Talvez preocupantemente para as empresas que estão correndo para desenvolver a AI, o ex-funcionário da Stability pediu que outros que têm dúvidas semelhantes sobre as ferramentas em que estão trabalhando se manifestem.

“Tenho certeza de que não sou a única pessoa nessas empresas de AI generativa que não acredita que o argumento de ‘uso justo’ seja justo para os criadores. Espero que outros se pronunciem, seja internamente ou publicamente”, disse ele.

A Stability AI não respondeu imediatamente a um pedido de comentário do Business Insider.