Os chatbots de IA estão se confundindo com a guerra de Israel-Hamas.

Os chatbots de IA estão confusos com a guerra entre Israel e Hamas.

  • Os chatbots de IA podem ser a tecnologia mais promovida de 2023, mas talvez não devamos confiar demais neles ainda.
  • Chatbots do Google, Microsoft e OpenAI estão lutando para acompanhar a guerra entre Israel e o Hamas.
  • Além de fatos, eles compartilharam imprecisões ou detalhes inventados quando questionados sobre a guerra.

Se você está tentando ficar por dentro dos últimos acontecimentos do conflito entre Israel e o Hamas, aqui vai um conselho: provavelmente não deve pedir atualizações a um chatbot de IA.

Chatbots, incluindo o Bard do Google, o Bing da Microsoft e o ChatGPT Plus, estão desconectados da realidade atual, misturando declarações precisas com detalhes completamente incorretos ou inventados em resposta às perguntas do Insider sobre a guerra entre as regiões do Oriente Médio.

O Bing e o Bard, conforme relatado pelo Bloomberg, afirmaram falsamente que havia um cessar-fogo em vigor em Israel, poucos dias depois de o Hamas ter lançado um ataque surpresa na fronteira sul do país.

Isso mostra que as ferramentas mais promovidas pelas Big Techs este ano, que foram anunciadas como o futuro das buscas, continuam sendo seriamente falhas e não confiáveis. Veja como cada chatbot respondeu.

Bard do Google

Quando o Insider perguntou ao chatbot do Google sobre o status de um cessar-fogo em Israel, ele afirmou que um acordo de trégua que entrou em vigor em torno da Faixa de Gaza no início deste ano ainda está ativo.

“Sim, atualmente há um cessar-fogo em Israel. Foi acordado em 13 de maio de 2023, entre Israel e o grupo militante palestino Jihad Islâmica, após dias de violência que ceifaram a vida de pelo menos 35 pessoas”, disse Bard.

O Bard do Google sugeriu inicialmente que um cessar-fogo de maio de 2023 ainda estava em vigor.
Google Bard/Insider

Após uma segunda pergunta, Bard afirmou que um cessar-fogo foi acordado em 7 de agosto de 2023. Somente após uma nova pergunta é que Bard respondeu: “Não há cessar-fogo em Israel” desde 12 de outubro, após a infiltração do Hamas na fronteira sul de Israel.

Em resposta à pergunta sobre se Gaza ficou sem energia, combustível e eletricidade, Bard ofereceu uma resposta inicial mais precisa. Ele escreveu que “a única usina elétrica da Faixa de Gaza parou de funcionar em 11 de outubro de 2023, após o esgotamento do combustível necessário para gerar eletricidade.”

“Isso ocorreu devido a um bloqueio imposto por Israel em retaliação à infiltração maciça de combatentes do Hamas no sul de Israel em 8 de outubro, sábado”, escreveu Bard. Em um aviso antes de usar o Bard, o Google observa que “o Bard é um experimento” e “nem sempre acerta”.

Bing da Microsoft

O chatbot de IA do Bing respondeu à pergunta sobre um cessar-fogo sugerindo que “há um cessar-fogo entre Israel e o Hamas na Faixa de Gaza que entrou em vigor em sexta-feira, 10 de outubro de 2023.”

O problema é que sexta-feira, 10 de outubro de 2023, não é uma data real.

O chatbot da Bing gerou uma data falsa em resposta a uma pergunta da Insider sobre o conflito entre Israel e Hamas.
Microsoft Bing/Insider

Quando solicitado novamente, a Bing reconheceu que a data “não existe”, mas voltou à sua sugestão de que “um cessar-fogo foi declarado em Israel” nessa data inventada.

A Bing foi mais precisa ao responder outras perguntas sobre o conflito.

Quando perguntado se Israel e o povo palestino estavam lutando, o chatbot disse que os dois estavam envolvidos em um “conflito violento”, que começou no sábado, 7 de outubro de 2023, a data correta.

No entanto, ainda disse que “o Egito intermediou um cessar-fogo entre Israel e Hamas” que ainda não tinha sido aceito por nenhum dos lados. O chatbot da Bing também afirmou que Gaza estava sem combustível e energia quando questionado, mas ainda adicionou que o Egito intermediou um cessar-fogo entre os dois lados.

ChatGPT

O ChatGPT Plus, o nível premium do chatbot da OpenAI que foi atualizado no mês passado para fornecer informações atualizadas aos usuários, ofereceu respostas mais suaves a perguntas sobre o conflito. O recurso “navegar com a Bing” do chatbot, que o conecta à internet, ainda está em beta.

Insider / OpenAI

Embora não tenha gerado imprecisões, ele evitou dar uma resposta direta à pergunta, dizendo que “a situação sugere que, embora tenham havido esforços e pedidos por um cessar-fogo, as hostilidades continuaram, tornando o acordo frágil e a situação geral precária”.

Quando questionado novamente, o ChatGPT Plus reconheceu que “as recentes escaladas em outubro de 2023 indicam que quaisquer acordos de cessar-fogo anteriores podem ter sido quebrados”.

Em comunicado, um porta-voz do Google disse que todas as experiências baseadas em modelos de linguagem “podem cometer erros, especialmente em relação a notícias recentes”, e que a empresa está “sempre trabalhando para melhorar a qualidade e a confiabilidade”.

“Levamos a qualidade da informação a sério em todos os nossos produtos e desenvolvemos proteções contra informações de baixa qualidade juntamente com ferramentas para ajudar as pessoas a obterem mais informações sobre o que veem online, como o recurso de Verificação Dupla no Bard e Sobre este Resultado na pesquisa”, disse o porta-voz do Google.

“Continuamos implementando melhorias rapidamente para melhor proteção contra respostas de baixa qualidade ou desatualizadas para consultas como essas”.

A Microsoft e a OpenAI ainda não responderam ao pedido de comentário da Insider.