Meta e IBM enfrentam o Google e a Microsoft enquanto chefes da tecnologia de IA todos exigem regulamentação – apenas tipos totalmente diferentes

Meta e IBM enfrentam os gigantes Google e Microsoft na corrida pela liderança da tecnologia de IA, todos eles exigindo regulamentação - mas com abordagens totalmente diferentes

Isso não quer dizer que todos eles queiram a mesma coisa.

A Meta, empresa-mãe do Facebook, e a IBM lançaram na terça-feira um novo grupo chamado AI Alliance, que defende uma abordagem de “ciência aberta” para o desenvolvimento de IA, colocando-as em desacordo com os concorrentes Google, Microsoft e OpenAI, fabricante do ChatGPT.

Esses dois grupos divergentes – o aberto e o fechado – discordam sobre a construção de IA de uma forma que torne a tecnologia subjacente amplamente acessível. A segurança está no centro do debate, assim como quem lucra com os avanços da IA.

Os defensores do aberto preferem uma abordagem que não seja “proprietária e fechada”, disse Darío Gil, vice-presidente sênior da IBM, que dirige sua divisão de pesquisa. “Então não é como uma coisa trancada em um barril e ninguém sabe o que é isso.”

O que é IA de código aberto?

O termo “código aberto” vem de uma prática com décadas de existência de construir software no qual o código é gratuito ou amplamente acessível para qualquer pessoa examinar, modificar e desenvolver.

A IA de código aberto envolve mais do que apenas código, e os cientistas da computação diferem em como definir isso, dependendo de quais componentes da tecnologia estão disponíveis publicamente e se há restrições que limitam seu uso. Alguns usam a ciência aberta para descrever a filosofia mais ampla.

A AI Alliance – liderada pela IBM e Meta e incluindo Dell, Sony, fabricantes de chips AMD e Intel e várias universidades e startups de IA – está “se unindo para articular, simplesmente, que o futuro da IA será construído fundamentalmente sobre a troca científica aberta de ideias e sobre a inovação aberta, incluindo código aberto e tecnologias abertas”, disse Gil em entrevista à Associated Press antes de seu lançamento.

Parte da confusão em torno da IA de código aberto é que, apesar de seu nome, a OpenAI – a empresa por trás do ChatGPT e do gerador de imagens DALL-E – constrói sistemas de IA que são decididamente fechados.

“Para dizer o óbvio, existem incentivos comerciais contra o código aberto”, disse Ilya Sutskever, cientista-chefe e co-fundador da OpenAI em uma entrevista em vídeo realizada pela Universidade de Stanford em abril. Mas também há uma preocupação de longo prazo envolvendo o potencial de um sistema de IA com capacidades “extraordinariamente poderosas” que seria muito perigoso para ser acessível publicamente, disse ele.

É perigoso?

Até mesmo os modelos atuais de IA representam riscos e podem ser usados, por exemplo, para aumentar as campanhas de desinformação e interromper eleições democráticas, disse o estudioso David Evan Harris da Universidade da Califórnia, Berkeley.

O código aberto é realmente ótimo em tantas dimensões da tecnologia, mas a IA é diferente, disse Harris.

“Qualquer pessoa que tenha assistido ao filme ‘Oppenheimer’ sabe disso, que quando grandes descobertas científicas estão sendo feitas, existem muitos motivos para pensar duas vezes sobre como compartilhar amplamente os detalhes de todas aquelas informações de maneiras que possam cair em mãos erradas”, disse ele.

O Center for Humane Technology, um crítico de longa data das práticas de mídia social da Meta, está entre os grupos que chamam a atenção para os riscos dos modelos de IA de código aberto ou vazados.

“Enquanto não houver proteções em vigor agora, é totalmente irresponsável implantar esses modelos para o público”, disse Camille Carlton do grupo.

É alarmismo?

Um debate cada vez mais público tem surgido sobre os benefícios ou perigos da adoção de uma abordagem de código aberto para o desenvolvimento da IA.

O principal cientista de IA da Meta, Yann LeCun, criticou nas redes sociais a OpenAI, o Google e a startup Anthropic por aquilo que ele descreveu como “lobby corporativo massivo” para escrever as regras de uma maneira que beneficie seus modelos de IA de alto desempenho e possa concentrar seu poder sobre o desenvolvimento da tecnologia. As três empresas, juntamente com o parceiro-chave da OpenAI, a Microsoft, formaram seu próprio grupo setorial chamado Frontier Model Forum.

LeCun disse no X, antigo Twitter, que estava preocupado que o alarmismo de outros cientistas sobre “cenários apocalípticos” da IA estivesse fornecendo munição para aqueles que querem proibir a pesquisa e o desenvolvimento de código aberto.

“Em um futuro onde os sistemas de IA estão preparados para constituir o repositório de todo o conhecimento e cultura humana, precisamos que as plataformas sejam de código aberto e estejam livremente disponíveis para que todos possam contribuir com elas”, escreveu LeCun. “A abertura é a única forma de fazer com que as plataformas de IA reflitam a totalidade do conhecimento e da cultura humana.”

Para a IBM, um dos primeiros apoiadores do sistema operacional de código aberto Linux nos anos 90, a disputa alimenta uma competição muito mais longa que antecede o boom da IA.

“É uma espécie de abordagem clássica de captura regulatória, tentando levantar receios sobre a inovação de código aberto”, disse Chris Padilla, que lidera a equipe global de assuntos governamentais da IBM. “Quer dizer, esse tem sido o modelo da Microsoft por décadas, certo? Eles sempre se opuseram a programas de código aberto que poderiam competir com o Windows ou o Office. Eles estão adotando uma abordagem semelhante aqui.”

O que os governos estão fazendo?

Foi fácil passar despercebido o debate sobre “código aberto” nas discussões em torno da ordem executiva abrangente do presidente dos Estados Unidos, Joe Biden, sobre IA.

Isso porque a ordem de Biden descreveu modelos abertos com o nome altamente técnico de “modelos de fundação de uso duplo com pesos amplamente disponíveis” e disse que eles precisavam de mais estudos. Os pesos são parâmetros numéricos que influenciam o desempenho de um modelo de IA.

“Quando os pesos de um modelo de fundação de uso duplo estão amplamente disponíveis – como quando são publicados publicamente na Internet – pode haver benefícios substanciais para a inovação, mas também riscos de segurança substanciais, como a remoção de salvaguardas dentro do modelo”, disse a ordem de Biden. Ele deu à secretária de Comércio dos EUA, Gina Raimondo, até julho para conversar com especialistas e voltar com recomendações sobre como gerenciar os benefícios e riscos potenciais.

A União Europeia tem menos tempo para resolver essa questão. Nas negociações que chegam ao fim nesta quarta-feira, funcionários que trabalham para finalizar a aprovação da legislação sobre IA líder mundial ainda estão debatendo várias disposições, incluindo uma que poderia isentar certos “componentes de IA de código aberto e gratuitos” de regras que afetam modelos comerciais.