Você está erroneamente condicionado pela ficção científica a acreditar que os robôs querem matar os humanos, diz o chefe de IA da Meta

O chefe de IA da Meta revela você está iludido pela ficção científica a pensar que os robôs têm sede de sangue humano!

  • O cientista-chefe de IA da Meta, Yann LeCun, afirmou que é improvável que a IA superinteligente extermine a humanidade.
  • Ele disse ao Financial Times que os modelos de IA atuais são menos inteligentes do que um gato.
  • Em maio, CEOs da IA assinaram uma carta de aviso de que a IA superinteligente poderia representar um “risco de extinção”.

O medo de que a IA possa exterminar a raça humana é “absurdo” e baseado mais em ficção científica do que na realidade, disse o cientista-chefe de IA da Meta.

Yann LeCun disse ao Financial Times que as pessoas foram condicionadas por filmes de ficção científica como “O Exterminador do Futuro” a pensar que a IA superinteligente representa uma ameaça à humanidade, quando na verdade não há motivo para que máquinas inteligentes tentem competir com os humanos.

“Inteligência não tem nada a ver com o desejo de dominar. Isso nem é verdade para humanos”, disse ele.

“Se fosse verdade que os humanos mais inteligentes desejam dominar os outros, então Albert Einstein e outros cientistas seriam ricos e poderosos, e eles não eram nem uma coisa nem outra”, acrescentou.

A explosão rápida das ferramentas de IA generativa, como o ChatGPT, ao longo do último ano, tem aumentado os temores sobre os potenciais riscos futuros da inteligência artificial superinteligente.

Em maio, o CEO da OpenAI, Sam Altman, o CEO da DeepMind, Demis Hassabis, e o CEO da Anthropic, Dario Amodei, assinaram uma declaração pública alertando que a IA poderia, no futuro, representar um risco de “extinção” comparável a uma guerra nuclear.

Existe um acalorado debate sobre o quão próximos os modelos atuais estão dessa “Inteligência Artificial Geral” (IAG) hipotetizada. Um estudo realizado pela Microsoft neste ano afirmou que o modelo GPT-4 da OpenAI mostrou “faíscas de IAG” na forma como abordava problemas de raciocínio de maneira semelhante aos seres humanos.

No entanto, LeCun disse ao Financial Times que muitas empresas de IA têm sido “consistentemente otimistas demais” em relação à proximidade dos modelos generativos atuais da IAG, e que os temores em relação à extinção da IA estão exagerados como resultado disso.

“Eles [os modelos] simplesmente não entendem como o mundo funciona. Eles não são capazes de planejar. Eles não são capazes de raciocinar de verdade”, disse ele.

“O debate sobre risco existencial é muito prematuro até termos um design de sistema que possa sequer competir com um gato em termos de capacidades de aprendizado, o que não temos no momento”, acrescentou.

LeCun afirmou que alcançar uma inteligência de nível humano requer “várias descobertas conceituais” – e sugeriu que sistemas de IA provavelmente não representariam ameaças, mesmo quando atingissem esse nível, pois poderiam ser codificados com um “caráter moral” que impediria que se tornassem rebeldes.

A Meta não respondeu imediatamente a um pedido de comentário do Insider, feito fora do horário normal de trabalho.