Autor de ‘Sapiens’ diz que a IA é uma ameaça alienígena que poderia nos exterminar ‘Em vez de vir do espaço sideral, ela está vindo da Califórnia

Sapiens author says AI is an alien threat that could exterminate us 'Instead of coming from outer space, it is coming from California

“A inteligência artificial é fundamentalmente diferente de qualquer coisa que já vimos na história, de qualquer outra invenção, seja armas nucleares ou a imprensa”, disse Harari – o autor de best-sellers como Homo Deus e Sapiens: Uma Breve História da Humanidade – a uma plateia no Festival CogX em Londres na terça-feira.

“É a primeira ferramenta na história que pode tomar decisões por si só. As bombas atômicas não podem tomar decisões. A decisão de bombardear Hiroshima foi tomada por um ser humano.”

O risco dessa capacidade de pensar por si mesma, disse Harari, é que máquinas superinteligentes possam acabar usurpando a raça humana como a força dominante do mundo.

“Potencialmente estamos falando do fim da história humana, do fim do período dominado pelos seres humanos”, ele alertou. “É muito provável que nos próximos anos, ela consuma toda a cultura humana, [tudo o que conquistamos] desde a idade da pedra, e comece a produzir uma nova cultura vinda de uma inteligência alienígena.”

Isso traz questionamentos, de acordo com Harari, sobre o que a tecnologia fará não apenas para o mundo físico ao nosso redor, mas também para coisas como psicologia e religião.

“De certa forma, a inteligência artificial pode ser mais criativa [do que as pessoas]”, ele argumentou. “No final, nossa criatividade é limitada pela biologia orgânica. Esta é uma inteligência não orgânica. É realmente como uma inteligência alienígena.

“Se eu dissesse que uma espécie alienígena está chegando em cinco anos, talvez eles sejam legais, talvez eles curem o câncer, mas eles vão tirar de nós o poder de controlar o mundo, as pessoas ficariam aterrorizadas.

“Essa é a situação em que estamos, mas em vez de vir do espaço sideral, [a ameaça vem] da Califórnia.”

Evolução da inteligência artificial

A ascensão fenomenal do chatbot gerativo de A.I. do OpenAI, ChatGPT, no último ano tem sido um catalisador para grandes investimentos no setor, com as gigantes da tecnologia entrando em uma corrida para desenvolver os sistemas de inteligência artificial mais avançados do mundo.

Mas é o ritmo de desenvolvimento no espaço da A.I., segundo Harari – cujas obras escritas examinaram o passado e o futuro da humanidade – que “torna tudo tão assustador”.

“Se compararmos com a evolução orgânica, a A.I. agora é como uma ameba – na evolução orgânica, levou centenas de milhares de anos para se tornarem dinossauros”, ele disse à plateia do Festival CogX. “Com a A.I., a ameba pode se tornar um T-rex em 10 ou 20 anos. Parte do problema é que não temos tempo para nos adaptar. Os seres humanos são seres incrivelmente adaptáveis… mas leva tempo, e não temos esse tempo.”

O próximo ‘experimento enorme e terrível’ da humanidade?

Reconhecendo que inovações tecnológicas anteriores, como a máquina a vapor e os aviões, haviam provocado advertências semelhantes sobre a segurança humana e que “no final deu tudo certo”, Harari insistiu que, quando se trata de A.I., “no final não é bom o suficiente”.

“Não somos bons com novas tecnologias, tendemos a cometer grandes erros, experimentamos”, disse ele.

Durante a revolução industrial, por exemplo, a humanidade cometeu “alguns erros terríveis”, observou Harari, enquanto o imperialismo europeu, o comunismo do século XX e o nazismo também foram “experimentos enormes e terríveis que custaram a vida de bilhões de pessoas”.

“Levamos um século, um século e meio, com todos esses experimentos falhos para finalmente acertar de alguma forma”, ele argumentou. “Talvez não sobrevivamos desta vez. Mesmo se sobrevivermos, pense em quantas centenas de milhões de vidas serão destruídas no processo.”

Tecnologia divisiva

Conforme a A.I. se torna cada vez mais ubíqua, os especialistas estão divididos sobre se a tecnologia trará um renascimento ou um dia do juízo final.

No Yale CEO Summit deste verão, quase metade dos CEOs pesquisados no evento afirmaram acreditar que a A.I. tem o potencial de destruir a humanidade nos próximos cinco a dez anos.

Em março, 1.100 tecnólogos proeminentes e pesquisadores de A.I. – incluindo Musk e o co-fundador da Apple, Steve Wozniak – assinaram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de sistemas de A.I. poderosos. Eles apontaram para a possibilidade desses sistemas já estarem em um caminho para a superinteligência que poderia ameaçar a civilização humana.

O co-fundador da Tesla e SpaceX, Musk, disse separadamente que a tecnologia vai impactar as pessoas “como um asteróide” e alertou que há uma chance de que ela “se torne um Exterminador”. Desde então, ele lançou sua própria empresa de IA, xAI, em uma tentativa de “entender o universo” e evitar a extinção da humanidade.

No entanto, nem todos concordam com a visão de Musk de que máquinas superinteligentes poderiam eliminar a humanidade.

No mês passado, mais de 1.300 especialistas se reuniram para acalmar a ansiedade sobre a IA criando uma horda de “sobressalentes robôs malignos”, enquanto um dos três chamados “Padrinhos” da IA rotulou as preocupações sobre a tecnologia se tornar uma ameaça existencial como “ridiculamente preposterosas”.

O executivo-chefe da Meta, Nick Clegg, também tentou acalmar as preocupações sobre a tecnologia em uma entrevista recente, insistindo que os modelos de linguagem em sua forma atual são “bastante estúpidos” e certamente não são inteligentes o suficiente para salvar ou destruir a civilização.

“O tempo é essencial”

Apesar de seus próprios avisos terríveis sobre a IA, Harari disse que ainda há tempo para fazer algo para evitar que as piores previsões se tornem realidade.

“Temos alguns anos, não sei quantos – cinco, dez, trinta – em que ainda estamos no controle antes que a IA nos empurre para o banco de trás”, disse ele. “Devemos usar esses anos com muito cuidado”.

Ele sugeriu três medidas práticas que poderiam ser tomadas para mitigar os riscos em torno da IA: não dar liberdade de expressão aos bots, não permitir que a inteligência artificial se faça passar por humanos e taxar grandes investimentos em IA para financiar regulamentação e instituições que possam controlar a tecnologia.

“Há muitas pessoas tentando impulsionar essas e outras iniciativas”, disse ele. “Espero que as implementemos o mais rápido possível, porque o tempo é essencial”.

Ele também instou aqueles que trabalham no campo da IA a considerar se lançar suas inovações no mundo realmente está nos melhores interesses do planeta.

“Não podemos simplesmente interromper o desenvolvimento da tecnologia, mas precisamos fazer a distinção entre desenvolvimento e implantação”, disse ele. “Só porque você desenvolveu não significa que precisa implantar”.