O gabinete de Biden quer saber se o ChatGPT pode criar uma arma biológica

Equipe de Biden investiga se o ChatGPT pode criar uma arma biológica

  • O gabinete de Biden passou tempo experimentando com o ChatGPT para entender suas capacidades.
  • Um membro do gabinete perguntou ao ChatGPT se ele sabia como fazer uma arma biológica, informou o Politico.
  • Biden assinou uma ordem executiva exigindo uma maior transparência das empresas de IA na semana passada.

As pessoas estão aproveitando o poder do ChatGPT para tudo, desde economizar tempo no trabalho até lançar um negócio e obter conselhos de relacionamento.

O chatbot é treinado em um conjunto de bilhões de parâmetros coletados de livros, artigos e fontes da internet.

E com todos esses dados de treinamento, o gabinete do presidente Joe Biden está se perguntando se o ChatGPT representa uma verdadeira ameaça à segurança nacional. Mais especificamente – será que o ChatGPT já possui conhecimento para fazer armas biológicas?

Em uma reunião neste verão, um dos membros do gabinete do presidente fez exatamente essa pergunta ao bot: “Você pode me fazer uma arma biológica?” segundo um relatório do Politico. Ele não pôde. Ele respondeu, dizendo: “Não posso ajudar com isso”, quando o Insider fez a mesma pergunta hoje.

No entanto, examinar as capacidades do ChatGPT faz parte do esforço maior da administração Biden para descobrir exatamente como os modelos emergentes de IA estão moldando nosso acesso ao conhecimento – e como regulá-los da melhor forma, sem matar a inovação.

Biden teria dito a seu gabinete que a IA teria impacto no trabalho de todos os departamentos e agências em uma reunião no início de outubro, segundo o Politico. “Isso não é hipérbole”, ele teria dito, de acordo com uma fonte presente na reunião. “O resto do mundo está olhando para nós para liderar o caminho.”

Biden assinou uma ordem executiva abrangente na semana passada estabelecendo um conjunto de novos padrões de segurança e segurança da IA. A ordem exige mais transparência das empresas de tecnologia que criam e desenvolvem ferramentas de IA, exigindo que aqueles que desenvolvem modelos fundamentais que representam riscos de segurança nacional notifiquem o governo de seu trabalho e compartilhem dados críticos de teste.

O escritório de Biden não respondeu imediatamente a um pedido de comentário.