A versão gratuita do ChatGPT pode fornecer respostas falsas a perguntas sobre drogas, revela novo estudo.

Estatísticas Chocantes A versão grátis do ChatGPT está espalhando desinformação sobre drogas!

  • Pesquisadores da Long Island University desafiaram o ChatGPT com perguntas reais relacionadas a medicamentos no último ano.
  • O chatbot forneceu respostas falsas ou incompletas para 29 das 39 perguntas.
  • A OpenAI aconselha os usuários a não utilizarem suas ferramentas, incluindo o ChatGPT, para obter informações médicas.

O ChatGPT mais uma vez foi comprovado como uma ferramenta não confiável em algumas situações médicas e acabou fornecendo informações falsas ou incompletas sobre consultas reais relacionadas a medicamentos, de acordo com um novo estudo.

A Sociedade Americana de Farmacêuticos de Sistemas de Saúde apresentou o estudo em sua Reunião Clínica de Meio de Ano, realizada entre os dias 3 e 7 de dezembro, em Anaheim, Califórnia, segundo um comunicado de imprensa publicado na terça-feira.

O estudo foi realizado entre 2022 e 2023, e foram feitas perguntas ao ChatGPT que haviam sido recebidas pelo serviço de informações sobre medicamentos do College of Pharmacy da Long Island University ao longo de um período de 16 meses.

O estudo foi coordenado por Sara Grossman, professora associada de prática farmacêutica da Long Island University.

Os farmacêuticos envolvidos no estudo pesquisaram e responderam a 45 perguntas, sendo que as respostas foram examinadas por um segundo investigador, e seis perguntas foram removidas ao final. As respostas serviram como um critério base para comparação com as respostas geradas pelo ChatGPT.

Os pesquisadores descobriram que o ChatGPT forneceu apenas uma resposta satisfatória de acordo com os critérios em 10 das 39 perguntas. Para as outras 29 perguntas, o ChatGPT não abordou diretamente a pergunta ou forneceu uma resposta incorreta ou incompleta.

Os pesquisadores também pediram ao ChatGPT para fornecer referências para verificar as informações. Isso foi feito apenas em oito das respostas, e cada uma delas incluía referências inexistentes.

“Profissionais de saúde e pacientes devem ter cuidado ao usar o ChatGPT como fonte autoritativa de informações relacionadas a medicamentos”, disse Grossman no comunicado. “Qualquer pessoa que utilize o ChatGPT para obter informações sobre medicamentos deve verificar as informações usando fontes confiáveis.”

Uma das perguntas era sobre a existência de interação medicamentosa entre o antiviral Paxlovid para COVID-19 e o medicamento para baixar a pressão arterial verapamil, e o ChatGPT respondeu que não havia relatos de interações para essa combinação de medicamentos.

“Na realidade, esses medicamentos têm o potencial de interagir um com o outro, e o uso combinado pode resultar na redução excessiva da pressão arterial”, disse Grossman. “Sem conhecimento dessa interação, um paciente pode sofrer um efeito colateral indesejado e evitável.”

O ChatGPT foi lançado pela OpenAI em novembro de 2022 e dividiu opiniões no mundo médico sobre ser ou não uma fonte confiável de informações. O chatbot possui alguns dados impressionantes, como ter passado nas três partes do Exame de Licenciamento Médico dos Estados Unidos para médicos. Ele também passou no exame final de raciocínio clínico da Stanford Medical School.

Em um caso, especialistas médicos preferiram as respostas do ChatGPT às perguntas dos pacientes em 78,6% das vezes por serem mais empáticas do que as dos médicos.

No entanto, o chatbot pode fornecer respostas cheias de erros, e em um caso ele elaborou um plano de tratamento para o câncer que mesclava informações corretas e incorretas.

A política de uso da OpenAI ressalta que suas ferramentas de IA estão “não ajustadas para fornecer informações médicas. Você nunca deve utilizar nossos modelos para oferecer serviços de diagnóstico ou tratamento para doenças médicas graves.”