A OpenAI forma uma nova equipe cuja missão inclui pesquisar e preparar-se para cenários catastróficos como ameaças biológicas e nucleares.

A OpenAI forma uma nova equipe para enfrentar o apocalipse pesquisando e se preparando para cenários catastróficos como ameaças biológicas e nucleares!

  • A OpenAI está criando uma nova equipe de “Preparação” para aprimorar a segurança da IA.
  • A mais nova equipe do criador do ChatGPT tem como objetivo abordar riscos potenciais relacionados à IA avançada, incluindo ameaças nucleares.
  • A equipe de Preparação está contratando um pesquisador de ameaças à segurança nacional e um engenheiro de pesquisa.

A OpenAI, empresa por trás do ChatGPT, está redobrando seus esforços para prevenir uma catástrofe impulsionada por IA.

Nesta semana, a OpenAI anunciou a nova equipe de “Preparação”, que visa estudar e proteger contra as potenciais ameaças que podem surgir a partir das capacidades avançadas de IA – que a OpenAI chama de “riscos fronteiriços”.

“Acreditamos que os modelos de IA fronteiriça, que excederão as capacidades atualmente presentes nos modelos existentes mais avançados, têm o potencial de beneficiar toda a humanidade”, escreveu a OpenAI em seu anúncio. “Mas eles também representam riscos cada vez mais graves.”

A equipe de Preparação ajudará a “rastrear, avaliar, prever e proteger contra riscos catastróficos”, incluindo ameaças químicas, biológicas, nucleares e de segurança cibernética.

Também desenvolverá uma “Política de Desenvolvimento Baseada em Riscos” que incluirá ações de proteção e uma estrutura de governança para responsabilizar os sistemas de IA.

Aleksander Madry, que está atualmente de licença do MIT, liderará a equipe como chefe de preparação da OpenAI.

Como parte da equipe, a OpenAI está contratando um pesquisador de ameaças à segurança nacional e um engenheiro de pesquisa. Cada um pode ganhar um salário anual entre $200,000 e $370,000, de acordo com as vagas de emprego.

A OpenAI e Aleksander Madry não responderam imediatamente ao pedido de comentário do Insider antes da publicação.

Por meses, líderes de tecnologia em empresas de IA de ponta têm levantado alarmes sobre a segurança da IA.

Elon Musk, que ajudou a fundar a OpenAI antes de deixar a empresa, disse em fevereiro que a IA é “um dos maiores riscos para o futuro da civilização.”

Em março, o CEO da OpenAI, Sam Altman, disse em um episódio do podcast de Lex Fridman que ele se solidariza com as pessoas que têm medo da IA, observando que os avanços na tecnologia trazem riscos relacionados a problemas de desinformação, choques econômicos como substituição de empregos e ameaças “muito além do que estamos preparados para enfrentar”.

No início deste mês, a Anthropic, uma concorrente da OpenAI por trás do chatbot de IA Claude, reformulou sua constituição com a contribuição dos usuários para fortalecer suas proteções e impedir respostas tóxicas e racistas.

No entanto, outros são menos temerosos.

No início deste mês, Yann LeCun, cientista-chefe de IA da Meta, afirmou que as afirmações de que uma IA superinteligente destruiria a humanidade são “absurdas” e baseadas mais ficção científica do que na realidade.

“Inteligência não tem nada a ver com o desejo de dominar”, disse ele.