Uma corrida armamentista de IA pode criar um mundo onde todos permanecem dentro de casa com medo de serem ‘perseguidos por enxames de robôs assassinos’, adverte o engenheiro fundador do Skype.

A race for AI weapons could create a world where everyone stays indoors, fearing being 'hunted by swarms of killer robots,' warns the engineer who founded Skype.

  • Jaan Tallinn ajudou a construir o Skype e é o fundador do Future of Life Institute.
  • Recentemente, ele alertou sobre os riscos de uma corrida armamentista de IA, descrevendo teoricamente “slaughterbots” anônimos.
  • Este ano, centenas de pessoas no espaço de IA assinaram uma carta aberta pedindo uma pausa no desenvolvimento de IA.

“Podemos estar criando um mundo onde não é mais seguro estar do lado de fora, porque você pode ser perseguido por enxames de slaughterbots.”

Essas palavras de advertência foram ditas por Jaan Tallinn, engenheiro fundador do Skype, em uma entrevista em vídeo recente com a Al Jazeera.

O programador de computador estoniano é fundador do Cambridge Centre for the Study of Existential Risk e do Future of Life Institute, duas organizações dedicadas ao estudo e mitigação de riscos existenciais, especialmente os riscos decorrentes do desenvolvimento de tecnologias avançadas de IA.

A referência de Tallinn a robôs assassinos é baseada no curta-metragem de 2017, “Slaughterbots”, lançado pelo Future of Life Institute como parte de uma campanha de alerta sobre os perigos da inteligência artificial armada. O filme retrata um futuro distópico no qual o mundo foi dominado por drones assassinos militarizados alimentados por IA.

À medida que a tecnologia de IA se desenvolve, Tallinn teme especialmente as implicações que o uso militar pode ter para o futuro da IA.

“Colocar a IA no exército torna muito difícil para a humanidade controlar a trajetória da IA, porque neste ponto você está em uma verdadeira corrida armamentista”, disse Tallinn na entrevista. “Quando você está em uma corrida armamentista, você não tem muito espaço para manobrar quando se trata de pensar em como abordar essa nova tecnologia. Você só precisa ir onde estão as capacidades e onde está a vantagem estratégica.”

Além disso, a guerra de IA poderia tornar os ataques muito difíceis de serem atribuídos, segundo ele.

“A evolução natural para a guerra totalmente automatizada”, continuou Tallinn, “são enxames de drones miniaturizados que qualquer pessoa com dinheiro pode produzir e lançar sem atribuição.”

Quando contatado pelo Insider, o Future of Life Institute concordou com os comentários de Tallinn sobre seus temores em relação à IA armada.

Esses temores existem há anos – o Future for Life Institute foi fundado quase uma década atrás, em 2014, rapidamente chamando a atenção de figuras como Elon Musk, que doou US$ 10 milhões para o instituto em 2015. Mas a questão tem sido muito mais urgente recentemente, com o lançamento do ChatGPT e outros modelos de IA disponíveis para o público, e os temores atuais sobre a IA assumindo os empregos das pessoas. Agora, pesquisadores de IA, magnatas da tecnologia, celebridades e pessoas comuns estão preocupados.

Até o diretor Christopher Nolan está alertando que a IA pode estar alcançando seu “momento Oppenheimer”, o Insider relatou anteriormente – em outras palavras, os pesquisadores estão questionando sua responsabilidade no desenvolvimento de tecnologia que pode ter consequências não intencionais.

No início deste ano, centenas de pessoas, incluindo Elon Musk, co-fundador da Apple Steve Wozniak, CEO da Stability AI Emad Mostaque, pesquisadores do laboratório de IA DeepMind da Alphabet e professores notáveis de IA, assinaram uma carta aberta emitida pelo Future of Life Institute pedindo uma pausa de seis meses no desenvolvimento avançado de IA. (Enquanto isso, Musk estava silenciosamente correndo para contratar e lançar sua própria iniciativa de IA generativa para competir com a OpenAI, Insider’s Kali Hays relatou primeiro, o que ele anunciou recentemente como xAI.)

“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos adequados”, diz a carta. “Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, mesmo que os últimos meses tenham visto laboratórios de IA envolvidos em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.