Por que a remoção – e reintegração – de Sam Altman como CEO da OpenAI realmente importa

Por que a remoção - e reintegração - de Sam Altman como CEO da OpenAI faz toda a diferença

Altman, que ajudou a fundar a OpenAI como um laboratório de pesquisa sem fins lucrativos em 2015, foi removido como CEO na sexta-feira de forma repentina e em grande parte inexplicada, deixando a indústria atônita. E embora seu cargo de CEO tenha sido rapidamente restabelecido alguns dias depois, muitas perguntas ainda estão em aberto.

Se você está se atualizando sobre a saga da OpenAI e o que está em jogo para o campo da inteligência artificial como um todo, veio ao lugar certo. Aqui está uma visão geral do que você precisa saber.

QUEM É SAM ALTMAN E COMO ELE SE TORNOU FAMOSO?

Altman é cofundador da OpenAI, empresa sediada em São Francisco responsável pelo ChatGPT (sim, o chatbot que está em todos os lugares hoje em dia, desde escolas até cuidados de saúde).

A explosão do ChatGPT desde sua chegada há um ano lançou Altman sob os holofotes da comercialização acelerada da IA generativa, que pode produzir imagens, trechos de texto e outros mídias inovadores. E à medida que ele se tornava a voz mais procurada do Vale do Silício sobre as promessas e perigos potenciais dessa tecnologia, Altman ajudou a transformar a OpenAI em uma startup mundialmente famosa.

Mas sua posição na OpenAI passou por algumas reviravoltas turbulentas nesta última semana. Altman foi demitido como CEO na sexta-feira e, dias depois, voltou ao cargo com um novo conselho de diretores.

Nesse meio tempo, a Microsoft, que investiu bilhões de dólares na OpenAI e possui direitos sobre sua tecnologia existente, ajudou a impulsionar o retorno de Altman, contratando-o rapidamente, bem como outro cofundador e ex-presidente da OpenAI, Greg Brockman, que renunciou em protesto após a demissão do CEO. Enquanto isso, centenas de funcionários da OpenAI ameaçaram renunciar.

Tanto Altman quanto Brockman celebraram seu retorno à empresa em postagens no X, a plataforma anteriormente conhecida como Twitter, na quarta-feira de manhã.

POR QUE SUA REMOÇÃO – E REINSTITUIÇÃO – IMPORTA?

Há muito que se desconhece sobre a demissão inicial de Altman. O comunicado de sexta-feira afirmou que ele “não foi consistentemente franco em suas comunicações” com o então conselho de diretores, que se recusou a fornecer detalhes mais específicos.

Independentemente disso, a notícia causou um grande impacto no mundo da IA e, como a OpenAI e Altman são jogadores de destaque nesse campo, pode levantar preocupações de confiança em relação a uma tecnologia emergente sobre a qual muitas pessoas ainda possuem perguntas.

“O episódio da OpenAI mostra como o ecossistema da IA é frágil no momento, incluindo a abordagem dos riscos da IA”, afirmou Johann Laux, especialista do Instituto de Internet de Oxford focado na supervisão humana da inteligência artificial.

A turbulência também acentuou as diferenças entre Altman e os membros do conselho anterior da empresa, que expressaram diferentes pontos de vista sobre os riscos de segurança representados pela IA à medida que a tecnologia avança.

Múltiplos especialistas acrescentam que este drama destaca como devem ser os governos – e não as grandes empresas de tecnologia – que devem tomar as decisões sobre a regulação da inteligência artificial, especialmente para tecnologias de rápida evolução, como a IA generativa.

“Os eventos dos últimos dias não apenas colocaram em risco a tentativa da OpenAI de introduzir uma governança corporativa mais ética na gestão de sua empresa, mas também mostram que a governança corporativa sozinha, mesmo quando bem intencionada, pode facilmente ser devorada pela dinâmica e interesses de outras empresas”, disse Enza Iannopollo, analista principal da Forrester.

A lição, segundo Iannopollo, é que as empresas sozinhas não podem fornecer o nível de segurança e confiança em IA que a sociedade precisa. “Regras e guardrails, projetados por empresas e aplicados por reguladores com rigor, são cruciais se quisermos nos beneficiar da IA”, acrescentou.

O QUE É IA GENERATIVA? COMO ELA ESTÁ SENDO REGULAMENTADA?

Diferente da IA tradicional, que processa dados e completa tarefas usando regras predeterminadas, a IA generativa (incluindo chatbots como o ChatGPT) pode criar algo novo.

As empresas de tecnologia ainda estão liderando o show quando se trata de governar a IA e seus riscos, enquanto os governos ao redor do mundo trabalham para acompanhar.

Na União Europeia, os negociadores estão finalizando o que se espera ser as primeiras regulamentações abrangentes de IA do mundo. Mas eles têm enfrentado um impasse sobre se e como incluir os produtos de IA mais controvertidos e revolucionários, os modelos de linguagem comercializados que sustentam os sistemas de IA generativa, incluindo o ChatGPT.

Os chatbots mal foram mencionados quando Bruxelas apresentou seu rascunho inicial da legislação em 2021, que se concentrava em IA com usos específicos. Mas os funcionários têm se apressado para descobrir como incorporar esses sistemas, também conhecidos como modelos de base, na versão final.

Enquanto isso, nos Estados Unidos, o presidente Joe Biden assinou no mês passado uma ordem executiva ambiciosa, buscando equilibrar as necessidades das empresas de tecnologia de ponta com a segurança nacional e os direitos dos consumidores.

A ordem – que provavelmente precisará ser complementada por ação no Congresso – é um primeiro passo que visa garantir que a IA seja confiável e útil, em vez de enganosa e destrutiva. Ela busca direcionar o desenvolvimento da IA para que as empresas possam lucrar sem colocar a segurança pública em perigo.