Algumas universidades estão abandonando o software de detecção de IA devido ao medo de que os estudantes possam ser falsamente acusados de trapaça ao usar o ChatGPT.

Universidades abandonam software de IA por medo de acusações falsas de trapaça com o ChatGPT.

  • Várias universidades de renome afirmam ter deixado de usar ferramentas de detecção de IA devido a preocupações com a precisão.
  • Eles afirmam que as ferramentas desenvolvidas para identificar redações escritas por IA podem levar a acusações falsas de trapaça contra os estudantes.
  • A OpenAI alertou que não há uma maneira confiável para os educadores descobrirem se os estudantes estão usando o ChatGPT.

As universidades estão voltando à estaca zero para descobrir como impedir que seus estudantes usem o ChatGPT para escrever redações, depois de desistirem das ferramentas de detecção de IA devido a preocupações com a precisão.

Várias universidades de renome deixaram de usar as ferramentas de detecção de IA fornecidas pela empresa anti-plágio Turnitin devido ao medo de que a tecnologia possa levar a acusações falsas de trapaça por parte dos estudantes, de acordo com um relatório da Bloomberg.

Essas decisões vêm apesar da crescente popularidade do ChatGPT entre os estudantes e das preocupações crescentes entre os educadores de que ele esteja alimentando uma epidemia de trapaça.

“Após vários meses de uso e teste dessa ferramenta, reuniões com a Turnitin e outros líderes em IA, e conversas com outras universidades que também têm acesso, a Vanderbilt decidiu desativar a ferramenta de detecção de IA da Turnitin por tempo indeterminado”, afirmou a Universidade Vanderbilt em um post de blog publicado em agosto.

A universidade afirmou que a ferramenta de detecção tinha uma taxa de 1% de falsos positivos no lançamento, o que, segundo suas estimativas, teria levado a cerca de 750 dos 75.000 trabalhos enviados para a Turnitin no ano passado a serem incorretamente identificados como escritos por IA.

A Universidade Northwestern também afirmou em um post em seu site que estava desativando o detector de IA da Turnitin após uma série de consultas, e que a universidade não recomendava o seu uso para verificar o trabalho dos estudantes.

Art Markman, vice-reitor de assuntos acadêmicos da Universidade do Texas, disse à Bloomberg que sua universidade havia deixado de usar a ferramenta devido a preocupações com a precisão.

“Se acreditássemos que elas eram precisas o suficiente, ter essas ferramentas seria ótimo”, disse ele. “Mas não queremos criar uma situação em que os estudantes sejam falsamente acusados.”

Os educadores têm experimentado maneiras de lidar com a popularidade de ferramentas de IA generativas, como o ChatGPT, entre os estudantes, com resultados mistos. Um professor do Texas foi criticado por reprovar metade de sua turma depois que o ChatGPT identificou incorretamente suas redações como sendo escritas por IA. Outros estudantes relataram serem falsamente acusados de usar IA por software anti-plágio.

Determinar quando um texto foi escrito por IA é notoriamente difícil. A própria OpenAI, criadora do ChatGPT, abandonou sua própria ferramenta de detecção de texto por IA devido a “baixas taxas de precisão” e alertou os educadores que os detectores de conteúdo de IA não são confiáveis em seu recente guia de volta às aulas.

A empresa confirmou que muitas ferramentas de detecção tinham uma tendência de identificar incorretamente trabalhos escritos por autores não ingleses como sendo gerados por IA, algo que a Vanderbilt identificou como uma preocupação.

A Turnitin afirmou em comunicado à Bloomberg que seu software de detecção de IA não foi projetado para punir os estudantes. “A tecnologia da Turnitin não pretende substituir o discernimento profissional dos educadores”, disse Annie Chechitelli, diretora de produtos da empresa, à Bloomberg.

A Turnitin não respondeu imediatamente a um pedido de comentário da Insider, feito fora do horário normal de trabalho nos EUA.