Chatbots de IA permitem que você ‘entreviste’ figuras históricas como Harriet Tubman. Isso provavelmente não é uma boa ideia.

Chatbots de IA entrevistam figuras históricas como Harriet Tubman, mas não é uma boa ideia.

  • Empresas de tecnologia estão lançando chatbots de IA que imitam figuras históricas.
  • Alguns desses bots são destinados a ser ferramentas educacionais – tornando as salas de aula interativas.
  • Mas os educadores dizem que eles podem inventar fatos e levar a uma queda nas habilidades de pensamento crítico.

Uma das ideias mais bizarras que surgiram do boom da IA é a criação de aplicativos que permitem aos usuários “conversar” com figuras históricas famosas.

Vários desses bots estão sendo projetados por startups de IA como Character.AI ou Hello History, mas grandes empresas de tecnologia como a Meta também estão experimentando a ideia.

Embora alguns desses chatbots sejam projetados puramente para entretenimento, outros são destinados a ser ferramentas educacionais, oferecendo aos professores uma maneira de tornar as aulas mais interativas e ajudando a envolver os alunos de maneiras novas.

Mas os bots apresentam um grande problema tanto para os professores quanto para os alunos, pois “muitas vezes fornecem uma representação e imitação pobre da verdadeira identidade de uma pessoa”, disse Abhishek Gupta, fundador e pesquisador principal do Montreal AI Ethics Institute, ao Insider por e-mail.

Tiraana Bains, professora assistente de história na Brown University, disse que os bots podem fechar outras formas de interação dos alunos com a história – como conduzir sua própria pesquisa arquivística.

“Ele tem essa pretensão de, você sabe, acesso fácil a conhecimento pronto”, disse ela, “quando, na verdade, pode haver maneiras mais emocionantes, talvez mais agradáveis, para os alunos descobrirem como devemos pensar sobre o passado.”

Khanmigo e Hello History

O Washington Post colocou um desses bots à prova, usando o bot Khanmigo da Khan Academy para “entrevistar” Harriet Tubman, a abolicionista dos EUA.

No momento do teste, o Post disse que a tecnologia alimentada por GPT-4 ainda estava em fase de teste beta e estava disponível apenas em alguns distritos escolares selecionados.

A Tubman de IA parecia em grande parte relatar informações que poderiam ser encontradas na Wikipedia, mas cometeu alguns erros importantes e parecia ter dificuldade em distinguir a qualidade de diferentes fontes.

Em um exemplo, por exemplo, o Post perguntou se Tubman havia dito: “Eu libertei mil escravos. Poderia ter libertado mais mil, se eles soubessem que eram escravos”.

O bot respondeu: “Sim, essa citação é frequentemente atribuída a mim, embora a redação exata possa variar”.

É verdade que a citação é frequentemente atribuída a Tubman, mas não há registro de que ela realmente tenha dito isso, disseram especialistas ao ANBLE depois que a citação começou a ressurgir nas redes sociais este ano.

O Insider fez a mesma pergunta ao Hello History, outro chatbot histórico de IA, para ver se ele se sairia melhor.

O bot do Hello History, que usa a tecnologia GPT-3, respondeu quase literalmente, dizendo: “Sim, essa é uma citação frequentemente atribuída a mim”.

Mais uma vez, o bot deixou de apontar que não há evidências de que Tubman tenha dito a citação. Isso mostra que ainda há limitações importantes nas ferramentas e motivos para ter cautela ao usá-las para fins educacionais.

Sal Khan, fundador da Khan Academy, reconhece no site do bot que, embora a IA tenha grande potencial, às vezes pode “alucinar” ou “inventar fatos”.

Isso ocorre porque os chatbots são treinados e limitados pelos conjuntos de dados que aprenderam, muitas vezes sites como Reddit ou Wikipedia.

Embora esses contenham algumas fontes confiáveis, os bots também se baseiam em fontes mais “duvidosas”, disse Ekaterina Babintseva, historiadora da ciência e tecnologia e professora assistente na Purdue University, ao Insider.

Os bots podem misturar detalhes do que aprenderam para produzir nova linguagem que também pode estar completamente errada.

Potenciais soluções éticas

Gupta disse que, para usar os bots de maneira ética, eles pelo menos precisariam de entradas definidas e uma “abordagem de recuperação aprimorada”, que poderia “ajudar a garantir que as conversas permaneçam dentro de limites historicamente precisos”.

A IBM diz em seu site que a geração com recuperação aprimorada “é um framework de IA para recuperar fatos de uma base de conhecimento externa para fundamentar grandes modelos de linguagem (LLMs) nas informações mais precisas e atualizadas”.

Isso significa que os conjuntos de dados dos bots seriam complementados por fontes externas de informação, ajudando-os a melhorar a qualidade de suas respostas enquanto também fornecem um meio de verificação manual, dando aos usuários acesso a essas fontes, de acordo com a IBM.

Também é “crucial ter dados extensos e detalhados para capturar o tom relevante e as opiniões autênticas da pessoa representada”, disse Gupta.

Efeitos nas habilidades de pensamento crítico

Gupta também apontou um problema mais profundo no uso de bots como ferramentas educacionais.

Ele disse que a dependência excessiva dos bots pode levar a “um declínio nas habilidades de leitura crítica” e afetar nossas habilidades “de assimilar, sintetizar e criar novas ideias”, já que os alunos podem começar a se envolver menos com materiais originais.

“Em vez de se envolver ativamente com o texto para desenvolver sua própria compreensão e colocá-lo no contexto de outras literaturas e referências, as pessoas podem simplesmente contar com o chatbot para obter respostas”, escreveu ele.

Bains, da Universidade Brown, disse que a natureza artificial ou mecânica desses bots – pelo menos como está atualmente – pode ajudar os alunos a perceberem que a história nunca é objetiva. “A IA deixa bastante claro que todos os pontos de vista vêm de algum lugar”, disse ela. “De certa forma, argumentavelmente, também pode ser usada para ilustrar precisamente os limites do que podemos saber”.

Se algo, ela acrescentou, os bots poderiam direcionar os alunos para os tipos de ideias e argumentos muito usados que eles devem evitar em seus próprios trabalhos. “É um ponto de partida, certo? Tipo, qual é a sabedoria comum na internet”, disse ela. “Esperançosamente, o que você está tentando fazer é mais interessante do que um resumo básico de algumas das opiniões mais populares sobre algo”.

Babintseva acrescentou que os bots podem “nivelar nossa compreensão do que é a história”.

“A história, assim como a ciência, não é uma coleção de fatos. A história é um processo de obtenção de conhecimento”, disse ela.