Estes são os 3 maiores medos sobre a IA – e aqui está o quão preocupado você deve estar com eles

Os 3 maiores medos sobre a IA desmistificados - e o quanto você realmente deve se preocupar com eles

  • Alguns especialistas em IA dizem que estamos indo de cabeça para a destruição da humanidade.
  • Algumas dessas afirmações são vagas e os especialistas discordam sobre quais são exatamente os principais riscos.
  • Essas são algumas das ameaças potenciais da IA avançada e quão prováveis elas são.

Os pessimistas da IA acham que a tecnologia é tão perigosa quanto uma guerra nuclear e pandemias globais.

Alguns dos primeiros criadores da tecnologia disseram que estamos indo de cabeça para a destruição da humanidade, enquanto outros afirmam que regulação é desesperadamente necessária.

No entanto, à medida que os legisladores se aproximam de regular a tecnologia, alguns desses avisos sobre os riscos existenciais da IA estão sendo ignorados por vozes proeminentes da indústria como distrações e mentiras.

Algumas dessas afirmações são especialmente vagas e deixaram as pessoas lutando para entender as reivindicações cada vez mais hiperbólicas.

David Krueger, especialista em IA e professor assistente da Universidade de Cambridge, disse à Insider que embora as pessoas possam querer cenários concretos quando se trata do risco existencial da IA, ainda é difícil apontá-los com qualquer grau de certeza.

“Não estou preocupado porque existe uma ameaça iminente no sentido de que posso ver exatamente qual é a ameaça. Mas acho que não temos muito tempo para nos preparar para as ameaças em potencial”, ele disse.

Tendo isso em mente, aqui estão algumas das questões potenciais que os especialistas estão preocupados.

1. Domínio da IA

Um dos riscos mais citados é que a IA sairá do controle de seus criadores.

Inteligência artificial geral (IAG) refere-se à IA que é tão inteligente ou mais inteligente que os humanos em uma ampla gama de tarefas. Os sistemas de IA atuais não são conscientes, mas são criados para serem semelhantes aos humanos. O ChatGPT, por exemplo, é projetado para fazer com que os usuários sintam que estão conversando com outra pessoa, disse Janis Wong, do Instituto Alan Turing.

Os especialistas têm opiniões divergentes sobre como definir exatamente a IAG, mas geralmente concordam que a tecnologia potencial apresenta perigos para a humanidade que precisam ser pesquisados e regulamentados, informou Aaron Mok, da Insider.

Krueger disse que o exemplo mais óbvio desses perigos é a competição militar entre nações. “A competição militar com armas autônomas – sistemas que, por design, têm a capacidade de afetar o mundo físico e causar danos – parece mais claro como tais sistemas podem acabar matando muitas pessoas”, ele disse.

“Um cenário de guerra total alimentado por IA em um futuro em que temos sistemas avançados que são mais inteligentes que as pessoas, acho muito provável que os sistemas sairiam de controle e poderiam acabar matando todos como resultado”, acrescentou.

2. IA causando desemprego em massa

Há um consenso crescente de que a IA é uma ameaça para alguns empregos.

Abhishek Gupta, fundador do Instituto de Ética da IA de Montreal, disse que a perspectiva de perda de empregos causada pela IA era a ameaça existencial mais “realista, imediata e talvez urgente”.

“Precisamos considerar a falta de propósito que as pessoas sentiriam com a perda de empregos em massa”, disse ele ao Insider. “A parte existencial disso é o que as pessoas vão fazer e de onde elas vão tirar seu propósito?”

“Isso não quer dizer que o trabalho seja tudo, mas é uma parte significativa de nossas vidas”, acrescentou.

Os CEOs estão começando a ser sinceros sobre seus planos de aproveitar a IA. O CEO da IBM, Arvind Krishna, por exemplo, recentemente anunciou que a empresa reduziria a contratação de funções que poderiam ser substituídas por IA.

“Há quatro ou cinco anos, ninguém teria dito algo assim e ter sido levado a sério”, disse Gupta sobre a IBM.

3. Viés da IA

Se os sistemas de IA forem usados para auxiliar na tomada de decisões sociais mais amplas, um viés sistemático pode se tornar um risco sério, segundo especialistas entrevistados pelo Insider.

Já houve diversos exemplos de viés em sistemas de IA gerativa, incluindo versões iniciais do ChatGPT. Você pode ler algumas das respostas chocantes do chatbot aqui. A OpenAI adicionou mais salvaguardas para ajudar o ChatGPT a evitar respostas problemáticas de usuários que pedem ao sistema conteúdo ofensivo.

Modelos de imagens geradas por IA podem produzir estereótipos prejudiciais, de acordo com testes realizados pelo Insider no início deste ano.

Se houver casos de viés não detectados em sistemas de IA usados para tomar decisões do mundo real, como a aprovação de benefícios assistenciais, isso pode ter consequências graves, disse Gupta.

Os dados de treinamento frequentemente são baseados predominantemente em dados de língua inglesa e o financiamento para treinar outros modelos de IA com diferentes idiomas é limitado, de acordo com Wong.

“Então, há muitas pessoas que são excluídas ou certos idiomas serão treinados com menos qualidade do que outros idiomas”, disse ela.