Embora o conselho da OpenAI possa ter sido disfuncional, eles fizeram a escolha certa. Sua derrota mostra que, na batalha entre lucros da IA e ética, não há contestação.

Apesar do conselho da OpenAI ter dado umas escorregadas, eles mandaram bem na escolha. A derrota deles só prova que, quando se trata da luta entre lucros da IA e ética, não tem nem o que discutir.

Vamos começar com o conselho. Ainda não sabemos de que forma Altman não foi sincero com seu conselho. Sabemos que os conselhos sem fins lucrativos – e a OpenAI é, por design, regulada por um conselho sem fins lucrativos – têm o dever especial de garantir que a organização esteja cumprindo sua missão. Se eles sentirem que o CEO não está cumprindo essa missão, eles têm motivo para agir.

De acordo com o site da OpenAI, sua missão é “garantir que a inteligência artificial geral beneficie toda a humanidade.” Isso é um grande desafio – e as palavras são importantes. A distinção entre inteligência artificial geral e inteligência artificial pode fazer parte da história se a empresa estivesse perto de atingir sua própria definição de inteligência artificial geral e sentisse que estava prestes a fazer isso de uma maneira que não beneficiasse a humanidade. Em uma entrevista ao podcast Hard Fork dias antes de ser demitido, quando perguntado para definir inteligência artificial geral, Altman disse que é um “termo ridículo e sem sentido” e o redefiniu como “inteligência artificial realmente inteligente”. Talvez seu conselho tenha sentido que o termo e sua definição eram mais importantes.

Um problema pode ser que a declaração de missão da OpenAI soe mais como uma declaração de visão, que pode ser mais aspiracional e voltada para o futuro do que a declaração de missão de uma corporação, que normalmente captura o propósito da organização. A questão real aqui, no entanto, não é se é uma visão ou declaração de missão: a questão ética é que o conselho tem a obrigação de tomar medidas que garantam seu cumprimento. Caminhar lentamente e não acelerar o progresso da IA pode não ser um argumento convincente para investidores, mas talvez haja investidores que queiram investir exatamente nisso. Se uma abordagem cautelosa é o que a missão da OpenAI implica, então é um objetivo digno de ser perseguido, mesmo que vá contra a abordagem tradicional de uma startup mais tipicamente estruturada.

O conselho também tem o dever de participar ativamente da supervisão das atividades da organização e gerenciar seus ativos de forma prudente. Os conselhos sem fins lucrativos mantêm suas instituições em confiança para a comunidade que servem (neste caso, toda a humanidade). O site da OpenAI também declara que ela é uma empresa de pesquisa e implementação. Nada disso é possível se a maioria da equipe sair da organização ou se o financiamento da organização não for adequado.

Também sabemos mais agora sobre a disfunção do conselho, incluindo o fato de que a tensão existe há grande parte do ano passado e que uma discordância surgiu sobre um artigo escrito por um membro do conselho que parecia criticar a abordagem da empresa em relação à segurança da IA e elogiar um concorrente. Enquanto a membro do conselho defendeu seu artigo como um ato de liberdade acadêmica, escrever artigos sobre a empresa enquanto se está em seu conselho pode ser considerado um conflito de interesses, pois viola o dever de lealdade. Se ela se sentisse fortemente em escrever o artigo, aquele era o momento de renunciar ao conselho.

Como CEO da OpenAI, os interesses que Altman precisava manter em primeiro plano eram os da OpenAI. Com base no que foi relatado sobre os outros interesses empresariais adicionais que ele estava perseguindo ao iniciar outras duas empresas, há evidências de que ele não fez da OpenAI sua prioridade absoluta. Se isso está no cerne dos problemas de comunicação que ele teve com o conselho ainda está para ser visto, mas é o suficiente saber que ele estava na estrada trabalhando para começar essas organizações.

Inclusive segundo sua própria admissão, Altman não se manteve próximo o suficiente de seu próprio conselho para evitar o colapso organizacional que agora ocorreu sob sua supervisão. Isso é um resultado infeliz, talvez, das escolhas feitas por outros CEOs que Altman conhece e pode estar imitando. Elon Musk, um investidor inicial e membro do conselho da OpenAI, acredita que ele pode guiar os interesses da Tesla, SpaceX e sua rede Starlink, The Boring Company e X simultaneamente. No entanto, cada empresa merece o foco singular de um CEO que coloque claramente como prioridade os interesses dessa empresa em particular.

Ou talvez Altman, como muitos CEOs de startups extremamente bem-sucedidas, seja um cara de “começar-algo-novo” em vez de um executivo de “manter-depois-de-construído”. Talvez começar coisas novas seja o que ele faz de melhor. Há uma maneira de fazer isso sem os interesses conflitantes que surgem automaticamente quando se gerencia mais de uma empresa ao mesmo tempo ou se administra um negócio com fins lucrativos como parte de uma organização sem fins lucrativos. Isso também não seria a primeira vez que Altman deixou uma organização porque estava distraído por outras oportunidades. Ironicamente, ele foi solicitado a sair da Y Combinator alguns anos atrás porque estava ocupado com outros empreendimentos comerciais, incluindo a OpenAI.

Altman pareceu entender sua responsabilidade de administrar uma organização viável e duradoura e manter seus funcionários felizes. Ele estava a caminho de realizar uma oferta de compra – uma rodada secundária de investimento em IA que forneceria à empresa o tão necessário capital e ofereceria aos funcionários a oportunidade de vender suas ações. Ele também parecia muito confortável em lidar com questões de regulamentação e padrões em toda a indústria. Encontrar um equilíbrio entre essas atividades faz parte do trabalho dos líderes corporativos e talvez o conselho tenha sentido que Altman falhou em encontrar tal equilíbrio nos meses que antecederam sua demissão.

A Microsoft parece ser a mais consciente dos interesses que ela deve proteger: os da própria Microsoft! Ao contratar Sam Altman e Greg Brockman (co-fundador e presidente da OpenAI que renunciou à OpenAI em solidariedade a Altman), oferecer a contratação de mais funcionários da OpenAI e ainda planejar colaborar com a OpenAI, Satya Nadella protegeu suas apostas. Parece que ele entende que, ao aproveitar tanto a promessa tecnológica da IA, conforme articulada pela OpenAI, quanto o talento para cumprir essa promessa, ele está protegendo os interesses da Microsoft, uma perspectiva reforçada pela resposta positiva dos mercados financeiros à sua decisão de oferecer um emprego a Altman e ainda reforçada por sua própria disposição em apoiar o retorno de Altman à OpenAI. Nadella agiu com os interesses de sua empresa e de seu futuro como prioridade em suas tomadas de decisão e parece ter coberto todas as bases em meio a um conjunto de circunstâncias que se desdobra rapidamente.

Os funcionários da OpenAI podem não concordar com a resposta dramática do conselho de permitir que a empresa seja destruída em consonância com a missão – mas os membros do conselho viram assim.

O conselho da OpenAI foi criado, por design, para remover os interesses de lucro dessa equação. No fim do dia, os funcionários da OpenAI podem ter uma orientação mais voltada para o lucro.

Ann Skeet é a diretora sênior de ética de liderança no Markkula Center for Applied Ethics, e co-autora do manual do Instituto de Ética, Tecnologia e Cultura (ITEC) do Centro, Ética na Era das Tecnologias Disruptivas: Um Roteiro Operacional.

Mais comentários indispensáveis publicados pela ANBLE:

As opiniões expressas nos textos de comentário da ANBLE.com são apenas as visões de seus autores e não refletem necessariamente as opiniões e crenças da ANBLE.