Como o ChatGPT decide o que dizer em seguida? Aqui está uma explicação rápida.

Como o ChatGPT decide a próxima resposta? Explicação breve.

  • Chatbots de IA como o ChatGPT são baseados em grandes modelos de linguagem que recebem uma tonelada de informações.
  • Também são treinados por humanos que ajudam o sistema a “aprender” qual é a resposta apropriada.
  • Aqui está como os especialistas em ciência da computação explicam como os bots sabem quais palavras dizer em seguida.

O ChatGPT e outros chatbots impulsionados por inteligência artificial podem falar fluentemente, com frases gramaticalmente corretas e até mesmo com um ritmo natural.

Mas não se deixe enganar, especialistas dizem que esse discurso bem executado não representa pensamento, emoção ou até mesmo intenção.

A forma como um chatbot funciona é mais parecida com uma máquina executando cálculos matemáticos e análises estatísticas para selecionar as palavras e frases corretas de acordo com o contexto, disseram os especialistas. Existe muito treinamento nos bastidores – incluindo feedback de anotadores humanos – que ajuda a simular conversas funcionais.

Bots como o ChatGPT também são treinados com grandes quantidades de conversas que ensinaram as máquinas a interagir com usuários humanos. A OpenAI, a empresa por trás do ChatGPT, afirma em seu site que seus modelos são instruídos com informações de diversas fontes, incluindo dos usuários e material licenciado.

Aqui está como esses chatbots funcionam:

Chatbots de IA como o ChatGPT da OpenAI são baseados em grandes modelos de linguagem, ou LLMs, que são programas treinados com volumes de texto obtidos de escritos e informações publicadas online – geralmente conteúdo produzido por humanos.

Os sistemas são treinados com sequências de palavras e aprendem a importância das palavras nessas sequências, disseram os especialistas. Portanto, todo esse conhecimento absorvido não apenas treina os grandes modelos de linguagem em informações factuais, mas também os ajuda a identificar padrões de fala e como as palavras são normalmente usadas e agrupadas.

Os chatbots também são treinados por humanos para fornecer respostas apropriadas e limitar mensagens prejudiciais.

“Você pode dizer: ‘Isso é tóxico, isso é muito político, isso é uma opinião’, e moldá-lo para não gerar essas coisas”, disse Kristian Hammond, professor de ciência da computação na Northwestern University. Hammond também é diretor do Center for Advancing Safety of Machine Intelligence da universidade.

Quando você pede a um chatbot para responder a uma pergunta factual simples, o processo de recuperação pode ser direto: ele usa um conjunto de algoritmos para escolher a frase mais provável para responder. E seleciona as melhores respostas em milissegundos e, dentre essas escolhas principais, apresenta uma aleatoriamente. (É por isso que fazer a mesma pergunta repetidamente pode gerar respostas ligeiramente diferentes).

Também pode dividir as perguntas em várias partes, respondendo cada parte em sequência e usando suas respostas para ajudar a terminar de responder.

Por exemplo, se você pedir ao bot para nomear um presidente dos EUA que compartilha o primeiro nome do protagonista masculino do filme “Camelot”, o bot poderia responder primeiro que o ator em questão é Richard Harris e, em seguida, usar essa resposta para lhe dar Richard Nixon como resposta à sua pergunta original, disse Hammond.

“Suas próprias respostas anteriores se tornam parte do prompt”, disse Hammond.

Mas cuidado com o que os chatbots não sabem

O que acontece quando você faz uma pergunta para a qual ele não sabe a resposta? Aí é onde os chatbots criam mais problemas por causa de uma característica inerente – eles não sabem o que não sabem. Então, eles extrapolam com base no que eles sabem – ou seja, eles dão um palpite.

Mas eles não dizem que estão adivinhando – eles podem simplesmente apresentar informações como fatos. Quando um chatbot inventa informações que apresenta para um usuário como fatuais, isso é chamado de “alucinação”.

“Isso é o que chamamos de conhecimento do conhecimento ou metacognição”, disse William Wang, professor associado de ciência da computação na University of California, Santa Barbara. Ele também é co-diretor do grupo de processamento de linguagem natural da universidade.

“O modelo não entende muito bem os desconhecidos conhecidos”, disse ele.