Os ricos em inteligência artificial que tomam o poder para sempre são o verdadeiro cenário apocalíptico, adverte o padrinho da IA.

Os ricos em inteligência artificial que tomam o poder para sempre o verdadeiro cenário apocalíptico, segundo o padrinho da IA.

  • Um padrinho da IA está cansado dos pessimistas.
  • Yann LeCun, da Meta, acredita que os comentários sombrios dos chefes de tecnologia sobre os riscos da IA podem causar mais mal do que bem.
  • A negatividade na verdade tem a ver com manter o controle da IA nas mãos de poucos, ele disse.

O padrinho da IA, Yann LeCun, quer que a gente esqueça alguns dos cenários apocalípticos mais fantasiosos do fim do mundo.

Ele vê uma ameaça diferente, real, no horizonte: a ascensão de pessoas sedentas por poder que roubam de todos o potencial da IA.

No fim de semana, o principal cientista de IA da Meta acusou alguns dos fundadores mais proeminentes da IA de “alarmismo” e “lobby corporativo massivo” para servirem a seus próprios interesses.

Ele citou Sam Altman, da OpenAI, Demis Hassabis, do Google DeepMind, e Dario Amodei, da Anthropic, em um longo post no fim de semana em X.

“Altman, Hassabis e Amodei são aqueles que estão fazendo lobbying corporativo massivo no momento”, escreveu LeCun, referindo-se ao papel desses fundadores na moldagem das conversas regulatórias sobre a segurança da IA. “São eles que estão tentando capturar reguladores da indústria de IA.”

Ele acrescentou que, se esses esforços tiverem sucesso, o resultado seria uma “catástrofe” porque “um pequeno número de empresas controlará a IA.”

Isso é significante porque, como quase todos que importam na área de tecnologia concordam, a IA é o maior desenvolvimento em tecnologia desde o microchip ou a internet. Altman, Hassabis e Amodei não responderam imediatamente ao pedido do Insider para comentar.

Os comentários de LeCun surgiram em resposta a um post em X do físico Max Tegmark, que sugeriu que LeCun não estava levando a sério os argumentos apocalípticos sobre IA.

“Obrigado @RishiSunak & @vonderleyen por perceberem que os argumentos de risco da IA de Turing, Hinton, Bengio, Russell, Altman, Hassabis & Amodei não podem ser refutados apenas com sarcasmo e lobby corporativo”, escreveu Tegmark, referindo-se à próxima cúpula global de segurança da IA no Reino Unido.

LeCun diz que a preocupação dos fundadores é apenas lobby

Desde o lançamento do ChatGPT, os principais atores da IA se tornaram figuras públicas importantes.

No entanto, LeCun disse que fundadores como Altman e Hassabis têm gastado muito tempo criando medo em relação à própria tecnologia que vendem.

Em março, mais de 1.000 líderes da área de tecnologia, incluindo Elon Musk, Altman, Hassabis e Amodei, assinaram uma carta pedindo uma pausa mínima de seis meses no desenvolvimento de IA.

A carta citou “riscos profundos para a sociedade e a humanidade” causados por sistemas de IA hipotéticos. Tegmark, um dos signatários da carta, já descreveu o desenvolvimento da IA como “uma corrida suicida”.

LeCun e outros dizem que esse tipo de alerta que chama a atenção é apenas sobre garantir poder e ignorar os riscos reais e iminentes da IA.

Esses riscos incluem exploração dos trabalhadores e roubo de dados que geram lucro para “um punhado de entidades”, de acordo com o Distributed AI Research Institute (DAIR).

O foco nos perigos hipotéticos também desvia a atenção da pergunta chata, mas importante, sobre como o desenvolvimento da IA realmente ocorre.

LeCun descreveu como as pessoas estão “hiperventilando sobre o risco da IA” porque caíram no que ele descreve como o mito do “salto repentino”. Isso é a ideia de que “no momento em que você liga um sistema super inteligente, a humanidade está condenada.”

Mas a condenação iminente é improvável, argumenta ele, porque toda nova tecnologia passa por um processo de desenvolvimento muito ordenado antes de ser amplamente lançada.

Portanto, a área em que devemos nos concentrar é, na verdade, como a IA está sendo desenvolvida agora. E para LeCun, o perigo real é que o desenvolvimento da IA esteja nas mãos de entidades privadas com fins lucrativos que nunca divulgam suas descobertas, enquanto a comunidade de código aberto da IA é obliterada.

Sua preocupação subsequente é que os reguladores permitam isso acontecer porque estão distraídos com argumentos sobre robôs assassinos.

Líderes como LeCun têm defendido desenvolvedores de código aberto, pois seu trabalho em ferramentas que rivalizam, digamos, com o ChatpGPT da OpenAI, traz um novo nível de transparência para o desenvolvimento da IA.

O empregador de LeCun, Meta, criou seu próprio modelo de linguagem grande que compete com o GPT, LLaMa 2, (em parte) de código aberto. A ideia é que a comunidade de tecnologia em geral possa examinar detalhadamente o modelo. Nenhuma outra grande empresa de tecnologia fez um lançamento semelhante de código aberto, embora se diga que a OpenAI esteja pensando nisso.

Para LeCun, manter o desenvolvimento da IA fechado é uma razão real para alarme.

“A alternativa, que inevitavelmente acontecerá se a IA de código aberto for regulamentada até a extinção, é que um pequeno número de empresas da Costa Oeste dos EUA e da China controlarão a plataforma de IA e, consequentemente, controlarão a dieta digital completa das pessoas”, ele escreveu.

“O que isso significa para a democracia? O que isso significa para a diversidade cultural?”