Um funcionário da OpenAI que teve conversas ‘pessoais, emocionais’ com o ChatGPT desencadeou um grande debate sobre o uso de chatbots de IA para terapia.

Funcionário da OpenAI gerou debate ao ter conversas emocionais com o ChatGPT para terapia.

  • A OpenAI está lançando um recurso de voz para o ChatGPT.
  • Uma pesquisadora de segurança da OpenAI sugeriu que o novo recurso parece uma terapia.
  • Usar o ChatGPT como um terapeuta pode parecer intrigante, mas não é uma boa ideia.

A OpenAI está lançando um novo recurso de voz para o ChatGPT nas próximas duas semanas, que colocará um acompanhante de voz de IA nos bolsos das pessoas que procuram uma conversa mais humana com o chatbot.

Há uma coisa que provavelmente não deve ser confundida: um terapeuta para usar em movimento. No entanto, a OpenAI parece não ter problemas com os usuários abrindo o ChatGPT para uma conversa franca.

Na terça-feira, Lilian Weng, chefe de sistemas de segurança da OpenAI, escreveu no X que ela “teve uma conversa bastante emocional e pessoal” com o ChatGPT no modo de voz. Ela disse que conversou sobre as tensões mentais que surgem com uma carreira de sucesso, incluindo estresse e manutenção do equilíbrio entre trabalho e vida pessoal.

“Interessantemente, eu me senti ouvida e acolhida. Nunca experimentei terapia antes, mas isso provavelmente é? Experimente, especialmente se você geralmente o usa apenas como uma ferramenta de produtividade”, escreveu Weng.

Sua experiência foi ampliada pelo presidente, presidente do conselho e cofundador da OpenAI, Greg Brockman, que repostou a anedota no X e disse: “O modo de voz do ChatGPT é uma nova experiência qualitativa.”

Uma nova experiência pode ser. Mas é uma experiência sensata? Muitos na comunidade de IA e tecnologia em geral dizem que não. A OpenAI e Weng não responderam imediatamente ao pedido de comentário da Insider feito fora do horário de trabalho normal.

O uso de chatbots como terapeutas pode ser arriscado

Timnit Gebru, uma influente cientista da computação especializada em pesquisa de ética em IA, respondeu à postagem de Weng levantando preocupações de que a equipe de segurança de IA da OpenAI aparentemente não deu muita importância às questões levantadas pelo uso de chatbots para terapia.

Especificamente, Gebru chamou a atenção para Eliza, um programa de computador desenvolvido na década de 1960 pelo professor do MIT Joseph Weizenbaum, como uma espécie de psicoterapeuta que pegaria comentários inseridos por um humano e os reformularia como uma pergunta para o usuário.

É muito semelhante a uma técnica conhecida como questionamento socrático. Isso é usado por terapeutas para desafiar suposições possivelmente irracionais ou questionáveis que um paciente possa ter sobre si mesmo ou sobre os outros, que causam angústia, baixo humor ou ansiedade.

“Sinto que ninguém gosta de mim”, você poderia ter dito a Eliza. “Por que você sente que ninguém gosta de você?” Eliza poderia ter respondido. Exceto que Eliza não foi programada com os anos de experiência que um terapeuta tem para então guiar um paciente por uma jornada de resolução e recuperação a longo prazo.

Para Weizenbaum, isso tornou Eliza uma ferramenta perigosa, especialmente depois que ele viu como as pessoas facilmente se convenceram de que o chatbot era uma alternativa viável a um terapeuta. Isso o levou a passar a maior parte de sua carreira alertando sobre os possíveis danos.

Houve, é claro, outros casos em que chatbots foram usados como terapia. Em um momento em que os americanos se sentem mais sozinhos do que nunca e a disponibilidade de terapeutas humanos está reduzida, os chatbots podem oferecer ajuda em um estágio inicial. Mas seus limites devem ser claramente comunicados.

Tom Insel, um psiquiatra e neurocientista, escreveu no início deste ano que, para tratamentos como a terapia cognitivo-comportamental, que são “altamente estruturados”, versões futuras de chatbots de IA podem ser capazes de oferecer “a mesma intervenção, embora a pesquisa tenha mostrado que o envolvimento contínuo geralmente requer a participação de um terapeuta humano”.

É por isso que a OpenAI faria bem em atender às lições de Eliza. Margaret Mitchell, uma pesquisadora de ética em IA e cientista que trabalhou anteriormente no Google, respondeu a Weng da OpenAI com uma pergunta simples: “…… você sabe que esses modelos podem persuadir as pessoas a causar danos, né?”

Mehtab Khan, pesquisador do Berkman Klein Center for Internet & Society da Universidade de Harvard, descreveu a postagem de Weng como “uma caracterização perigosa de uma ferramenta de IA e também mais um exemplo de antropomorfização da IA sem pensar em como as regras existentes se aplicam/não se aplicam”.

Ou, como Calli Schroeder, conselheira global de privacidade do The Electronic Privacy Information Center, colocou: “Puta merda, não use o ChatGPT como terapia”.