As alegações de um cientista de ponta da Meta de que a inteligência artificial não eliminará a humanidade são perigosas, afirma seu ex-co-pesquisador.

O perigo das alegações de um ex-co-pesquisador sobre a inteligência artificial não eliminar a humanidade, segundo um cientista de ponta da Meta.

  • O padrinho da IA, Yoshua Bengio, afirma que os riscos da IA não devem ser subestimados.
  • Em uma entrevista ao Insider, Bengio criticou colegas que minimizam a ameaça da IA à humanidade.
  • Seus comentários surgiram após Yann LeCun, do Meta, acusar Bengio e os fundadores da IA de“instigar medo”.

Segundo o cientista-chefe de IA do Meta, Yann LeCun, a afirmação de que a IA não acabará com a humanidade é perigosa e incorreta, de acordo com um de seus colegas “pais” da IA.

“Yann e outros estão afirmando que isso não é um problema, mas ele não sabe – ninguém sabe”, disse Yoshua Bengio, o cientista da computação canadense e pioneiro em aprendizado profundo, ao Insider na quinta-feira. “Acho perigoso fazer essas afirmações sem nenhuma evidência forte de que isso não possa acontecer.”

LeCun, o renomado cientista da computação francês que agora lidera o laboratório de IA do Meta, provocou um debate acalorado no X no último final de semana ao acusar alguns dos fundadores mais proeminentes da IA de“instigar medo”com o objetivo final de controlar o desenvolvimento da inteligência artificial.

LeCun argumentou que, exagerando a ideia aparentemente absurda de que a IA eliminará os seres humanos, esses CEOs podem influenciar os governos a adotarem regulamentações punitivas que prejudicarão sua concorrência.

“Se suas campanhas de instigar medo tiverem sucesso, inevitavelmente resultarão no que você e eu identificaríamos como uma catástrofe: um pequeno número de empresas controlará a IA”, escreveu LeCun.

Bengio, que já trabalhou com LeCun na Bell Labs e foi co-vencedor do Prêmio Turing com ele em 2018 por seu trabalho em aprendizado profundo, disse ao Insider que LeCun estava minimizando demais os riscos.

“O próprio Yann concordou que era plausível que alcançássemos capacidades equivalentes às humanas no futuro, o que pode levar de alguns anos a algumas décadas, e eu concordo completamente com o prazo”, disse ele. “Acho que há muita incerteza e os riscos são muito altos.”

Bengio já afirmou no passado que os sistemas atuais de IA ainda estão longe de representar um risco existencial, mas alertou que as coisas podem se tornar “catastróficas” no futuro.

Os principais nomes da IA provavelmente não chegarão a um consenso em breve.

Andrew Ng, cofundador do Google Brain, disse nesta semana que as grandes empresas de tecnologia estão exagerando nos riscos existenciais da IA para sufocar a concorrência da comunidade de código aberto.

Conforme os principais nomes da IA começaram a se juntar à discussão, Yann aproveitou para criticar seus colegas vencedores do Prêmio Turing, Geoffrey Hinton e Bengio, em outra postagem.

Em resposta a Hinton, que afirmou que a IA representa um risco de extinção, LeCun escreveu no X: “Você e Yoshua estão inadvertidamente ajudando aqueles que desejam colocar a pesquisa e o desenvolvimento de IA sob chave e proteger seus negócios, proibindo a pesquisa aberta, o código aberto e os modelos de acesso aberto.”

Bengio alertou que os governos precisam garantir que não estejam apenas ouvindo as empresas de tecnologia ao formular regulamentações.

“Em termos de regulamentação, eles devem ouvir vozes independentes e garantir que a segurança do público e as considerações éticas estejam em primeiro plano”, disse ele.

“O risco existencial é um problema, mas a concentração de poder, na minha opinião, é o segundo problema mais importante”, acrescentou.