O mais inteligente otimista de IA da América

Otimista de IA mais inteligente da América Um guia divertido para entender a inteligência artificial

Aqui está o HTML traduzido para o Português:

Uma única página de ficção pode abranger 1.000 anos de tempo na história; 1.000 páginas de história podem acontecer em um instante. Isso é um truque mágico interessante e que incomoda profundamente as pessoas que estudam literatura. Especialistas passaram anos – décadas, até – tentando medir a velocidade em que a maioria dos relógios na história fictícia funciona. Eles contaram tediosamente as palavras de milhares de livros; eles codificaram manualmente programas de computador para medir a passagem do tempo fictício. No entanto, mesmo com todos os seus esforços brutos, eles não conseguiram concordar em algo tão simples quanto quanto tempo uma página média de ficção abrange.

Então, foi legal quando, no ano passado, ChatGPT fez isso.

Dado um prompt bem projetado e um trecho de ficção, o ChatGPT foi capaz de ingerir o texto e fornecer uma estimativa rápida e precisa de quanto tempo decorreu no trecho. Um trecho de “Jane Eyre”? Cerca de uma semana. Um trecho com o mesmo comprimento de “The Big Sleep”? Setenta e cinco minutos. Nos últimos cem anos, o robô calculou, o tempo literário está diminuindo. A página média da literatura costumava abranger um dia inteiro de tempo; agora mal chega a uma hora.

O prompt bem projetado veio de Ted Underwood, professor de inglês da Universidade de Illinois. Em um mundo cheio de céticos de IA e alarmistas de chatbot, Underwood está fazendo um dos argumentos mais fortes e convincentes para o valor da inteligência artificial. Enquanto alguns (eu incluso) se preocupam que a IA seja um motor de falsificação, plágio e propagação de preconceitos que ameaça acabar com a civilização como a conhecemos, Underwood tem certeza de que a inteligência artificial nos ajudará a pensar mais profundamente e ajudará os estudiosos a descobrir novas verdades emocionantes sobre a grandiosidade da cultura humana. Trabalhar com grandes modelos de linguagem – o software por trás de um chatbot – o tornou uma das raridades nas humanidades: um otimista de IA.

Para deixar claro, os chatbots não leem, e Underwood sabe disso. Eles não têm opiniões sobre quão bom é o detetive Philip Marlowe. Mas um robô pode realizar todo tipo de tarefas interpretativas que costumavam ser tópicos de tese para estudantes de literatura sobrecarregados de trabalho. E a partir desses dados, Underwood acredita que finalmente seremos capazes de ver o quadro geral – algo que só pode ser compreendido por meio da pesquisa e análise de séculos de literatura, em centenas de idiomas.

“As coisas que realmente não sabíamos, mas eram importantes, muitas vezes estavam nessa escala maior”, diz Underwood. “Não podíamos ver porque era como a curva do horizonte. Você precisa obter alguma distância para ver.” E a melhor maneira de obter essa distância, Underwood acredita, é treinar um modelo digital de linguagem com terabytes de escritos humanos.

Em outras palavras, usar IA.


O pai de Underwood era cientista da computação e, quando criança, Underwood aprendeu a programar. (Naquela época, era chamado de “programação”.) Mas nos anos 1990, assim que os computadores pessoais começaram a transformar o mundo, Underwood decidiu – com “tempo impecável”, como ele diz – entrar na pós-graduação em inglês.

Como estudante, Underwood tentou usar ferramentas digitais para analisar literatura. Mas naquela época, não havia bancos de dados com textos suficientes para tornar isso prático. Os primeiros computadores, essencialmente, não eram tão bem informados quanto o estudante médio de pós-graduação em literatura.

Então veio o Google Books. O esforço do Google para engolir todo o material publicado do mundo em sua insaciável boca informativa pode não ter sido um grande avanço para bibliotecas ou escritores, mas foi super legal para cientistas de dados – e para analistas literários focados em dados como Underwood.

Antes do Google, a análise literária digital era muito parecida com a analógica: ler, reagir, talvez contar as ocorrências de algo que estávamos estudando (lugares, pronomes, dinheiro, etc.). Mas agora, com o Google Books, Underwood poderia criar modelos estatísticos não de trechos ou livros, mas de gêneros inteiros. Ficção científica, mistério, romance — o que, em termos concretos, os tornava diferentes uns dos outros? Seu livro “Horizontes Distantes” procurou responder a essa pergunta. Livros como “Frankenstein” e “A Guerra dos Mundos” são ficção científica, mesmo que tenham sido escritos antes do editor Hugo Gernsback criar o termo? Descobriu-se que sim. Ao medir as ocorrências de coisas sublimes em larga escala, como vastidão e infinito — bem como coisas mundanas como pronomes humanos e números grandes — Underwood foi capaz de dizer qual ‘fi’ é a mais ‘sci’.

Pouco depois do lançamento de “Horizontes Distantes” em 2019, surgiram grandes modelos de linguagem como o ChatGPT. Isso mudou ainda mais o jogo da análise literária do que o Google Books. Os MLLs, em seu nível mais básico, operam descobrindo as probabilidades estatísticas de quais palavras são mais prováveis de vir depois de quais palavras. Eles não “entendem” nem “sabem” nada. Eles apenas convertem palavras em números e resolvem equações. Mas no curso de seus cálculos massivos e sem mente, eles também calculam o quão intimamente as palavras estão relacionadas umas com as outras, com base em seu contexto.

Underwood espera que a IA, com seus modelos sofisticados de linguagem, possa nos ajudar a descobrir novas perspectivas sobre nossas próprias mentes.

Em linguística, a ideia de que palavras adquirem significado a partir do contexto é chamada de semântica distribucional. Esse conceito pode explicar por que os MLLs demonstraram algumas habilidades aparentemente surpreendentes, como ser capaz de dizer onde e quando ocorreram eventos famosos em grande número, ou inferir os relacionamentos entre cores (laranja é mais parecido com vermelho do que com azul, por exemplo). A linguagem codifica todo tipo de conhecimento e sabedoria cultural — e os MLLs codificam a linguagem.

Isso é um pouco de filosofia pesada. A linguagem não é apenas comunicação; é um substrato para o pensamento e uma onda portadora para a cultura. E Underwood acredita que os MLLs estão sintonizados nessa onda. Para os estudiosos, o objetivo da leitura, da escrita, do estudo da linguagem não é apenas gerar um ensaio ou criticar um poema, mas descobrir o que pensamos e como expressá-lo da melhor maneira possível. Underwood espera que os MLLs, com seus sofisticados modelos estatísticos de linguagem, possam nos ajudar a descobrir novas perspectivas sobre nossas próprias mentes. Em sua visão, eles fazem mais do que simplesmente imitar fontes estocásticas, não porque eles estão “pensando”, mas porque estamos lá para ouvi-los.

“Eu não sou uma daquelas pessoas que pensa que esses modelos podem estar levemente conscientes”, diz Underwood. “Mas eu acredito que suas afirmações têm significado. Eu não quero dizer que há uma mente consciente na máquina. Quero dizer que estou descrevendo a interação entre mim e o computador.”

Underwood está visivelmente animado com o tipo de insights que essa parceria entre IA e humanos pode oferecer à literatura. “Vamos conseguir falar sobre coisas como enredo e motivação dos personagens”, ele diz. “Não apenas ‘contar as instâncias em que o dinheiro aparece em um texto’, mas perguntar o que o dinheiro está fazendo no enredo.” A IA pode até ser capaz de modelar algo tão inefável quanto o que mantém as pessoas virando as páginas — o que torna um romance de Stephen King irresistível. Ela pode desvendar as estruturas que melhor geram…

suspense! A IA treinada em grandes modelos de linguagem será capaz de obter novas percepções sobre as partes mais divertidas das histórias que adoramos ler e contar. Talvez isso soe como algo que apenas o morador de uma torre de marfim poderia amar. Quem se importa em quantificar o suspense ou medir a passagem do tempo literário? Mas o ponto de Underwood é que a IA pode ajudar a trazer o mundo excessivamente refinado da crítica literária de volta à realidade. “Nós nos importamos com essas coisas porque as pessoas apreciam histórias”, ele diz. “E devemos manter isso no centro do que estamos fazendo.”


Ainda assim, mesmo uma aliança bem-intencionada com nossos senhores robôs é controversa. A semântica distribucional não é a única maneira de pensar sobre a linguagem e o significado. Há também uma abordagem “denotacional”, que basicamente afirma que as palavras significam o que estão falando — a coisa real. E se isso for verdade, bem, os MLLs são tão estúpidos que mal conseguem sobreviver.

Vivi em Tóquio durante um semestre na faculdade e passei uma semana com uma família local. Um dia, enquanto estávamos dirigindo, o filho e a filha me ofereceram um pedaço de doce. Mas cuidado, eles me alertaram, porque o doce era muito [uma palavra que eu não conhecia]. Pedi a eles para repetirem e explicarem o significado, mas meu japonês não era bom o suficiente para eu entender.

No final, acabei comendo o doce, que era um sabor de “limão-tira-o-acabamento-de-um-armário-ácido-tóxico”. Foi assim que aprendi, de forma inesquecível, que “suppai” significa “azedo”.

Hoje, quase 35 anos depois, “suppai” não é apenas “azedo” para mim. É “aquele doce ultralimão que comi no banco de trás de um carro nos subúrbios de Tóquio”. Isso é mais marcante do que qualquer coisa que eu possa procurar em um dicionário.

Nenhum IA pode aprender assim. É por isso que é difícil confiar neles. Os humanos trazem mais para a linguagem do que apenas vocabulário. “Se tudo o que você tem é a distribuição de palavras, é muito simplista”, diz Emily M. Bender, uma linguista computacional da Universidade de Washington, que é uma voz de cautela sobre os perigos dos LLMs. “Ninguém nega que a semântica distribucional seja uma coisa, que palavras com significados semelhantes apareçam em contextos semelhantes. É o próximo passo – para ‘portanto, essa coisa tem um modelo do mundo’ – que se torna problemático.”

A chave está nos dados de treinamento – o “grande” no modelo de linguagem. Se os pesquisadores estão apenas usando um robô como ChatGPT para tirar conclusões sobre “Anna Karenina” ou “As Coisas Desmoronam”, isso é um grande problema. Porque as empresas por trás desses robôs mantêm seus dados em sua maioria em segredo, o que torna qualquer pesquisa baseada neles suspeita. Que texto os robôs aprenderam? Quais são os pressupostos culturais que alimentam suas análises? Quais são seus pontos cegos? Os pesquisadores não têm como saber.

Mas se os pesquisadores treinarem um chatbot com os textos específicos que os interessam – se eles selecionarem a dieta do robô – bem, então eles podem ter uma ferramenta acadêmica poderosa. Underwood diz que as universidades e os estudiosos devem reunir recursos para criar seus próprios modelos de linguagem grandes, construídos a partir de materiais específicos para suas necessidades de pesquisa. Um novo LLM, o MonadGPT, foi treinado em 11.000 textos do século XVII ou anterior. Teoricamente, ele pode representar uma mentalidade do século XVII de uma maneira que nenhum ser humano vivo poderia.

“Acho que é muito importante treinarmos modelos de linguagem capazes de modelar múltiplas perspectivas”, diz Underwood. “Se eles forem usados na educação, absolutamente não queremos que os alunos saiam com a visão de que há um conhecimento aceito sobre o mundo.”

Há muitas maneiras como a abordagem de Underwood pode dar terrivelmente errado. Se um LLM pode ser treinado com textos do século XVII, ele também pode ser facilmente treinado com fóruns do QAnon ou um conjunto de dados que pressupõe a superioridade de uma religião ou sistema político. Usar uma máquina de bolhas profundamente distorcida assim para tentar entender um livro, um filme ou os registros médicos de alguém resultará em resultados inherentemente tendenciosos contra o que quer que tenha sido deixado de fora dos materiais de treinamento.

Mas é exatamente esse perigo que leva Underwood a acreditar que precisamos aprender a usar a IA para explorar questões mais profundas de cultura e conhecimento. Deixados aos cuidados do Vale do Silício e das empresas americanas, os LLMs tenderão inevitavelmente ao segredo comercial. Mas nas humanidades, seus vieses serão visíveis e talvez até úteis.

“A próxima etapa para avançar com essas coisas envolverá escolhas que pensamos pertencer às humanidades”, diz Underwood. “Se as humanidades não quiserem ficar para trás, devemos estar sentados àquela mesa, discutindo formas alternativas para essa tecnologia. Nada contra o Google e a Microsoft, mas eles não devem determinar completamente como pensamos e escrevemos”. Para um otimista da IA como Underwood, não é a IA que precisamos desconfiar.


Adam Rogers é um correspondente sênior na Insider.