Funcionários da OpenAI relataram que alertaram a diretoria sobre uma descoberta de IA que poderia ameaçar a humanidade antes de Sam Altman ser expulso.

Colaboradores da OpenAI advertem sobre descoberta de IA capaz de ameaçar a humanidade antes da saída de Sam Altman.

De acordo com um relatório da ANBLE que cita duas fontes familiarizadas com o assunto, vários pesquisadores da equipe escreveram uma carta para o conselho da organização alertando sobre uma descoberta que poderia potencialmente ameaçar a raça humana.

As duas pessoas anônimas afirmam que esta carta, que informava os diretores de que um projeto secreto chamado Q* resultou na resolução de problemas de matemática do ensino fundamental por meio de inteligência artificial (IA), reacendeu as tensões sobre se Altman estava progredindo rápido demais na tentativa de comercializar a tecnologia.

Um dia antes de ser demitido, Altman pode ter se referido a Q* (pronunciado Q-estrela) em uma cúpula de líderes mundiais em São Francisco, quando falou sobre uma descoberta recente em que acreditava.

“Quatro vezes agora na história da OpenAI – a mais recente foi nas últimas semanas – eu tive a oportunidade de estar na sala quando empurramos o véu da ignorância para trás e a fronteira da descoberta para frente”, disse Altman durante uma discussão durante a Cooperação Econômica da Ásia-Pacífico.

Desde então, ele foi reinstalado como CEO em uma reversão espetacular dos eventos depois que a equipe ameaçou se rebelar contra o conselho.

De acordo com uma das fontes, depois de ser contatado pela ANBLE, a diretora de tecnologia da OpenAI, Mira Murati, reconheceu em um memorando interno aos funcionários a existência do projeto Q* e da carta enviada pelo conselho.

A ANBLE não conseguiu entrar em contato imediatamente com a OpenAI para obter um comentário, mas a empresa se recusou a fornecer um comentário à ANBLE.

Treinado para identificar padrões e inferir resultados

Então, por que tudo isso é especial, ou até mesmo alarmante?

Máquinas têm resolvido problemas matemáticos há décadas, desde a calculadora de bolso.

A diferença é que os dispositivos convencionais foram projetados para chegar a uma única resposta usando uma série de comandos determinísticos que todos os computadores pessoais empregam, onde os valores só podem ser verdadeiros ou falsos, 0 ou 1.

Neste sistema binário rígido, não há capacidade para divergir de sua programação a fim de pensar criativamente.

Em comparação, redes neurais não são codificadas para executar determinados comandos de uma maneira específica. Em vez disso, elas são treinadas da mesma forma que um cérebro humano, com conjuntos maciços de dados inter-relacionados, o que lhes dá a capacidade de identificar padrões e inferir resultados.

Pense na função de preenchimento automático do Google, que tem como objetivo prever o que um usuário da internet está procurando usando probabilidade estatística. Isso é uma forma rudimentar de IA generativa.

É por isso que Meredith Whittaker, uma especialista renomada no campo, descreve as redes neurais como “motores probabilísticos projetados para fornecer o que parece plausível”.

Se a IA generativa conseguir chegar à solução correta de problemas matemáticos por conta própria, isso sugere uma capacidade de raciocínio superior.

Isso pode ser potencialmente o primeiro passo em direção ao desenvolvimento da inteligência artificial geral, uma forma de IA que pode superar os seres humanos.

O medo é que uma IA geral precise de limites, pois um dia pode enxergar a humanidade como uma ameaça à sua existência.