Chatbots acabaram de mostrar aos cientistas como tornar as redes sociais menos tóxicas

Chatbots acabaram de dar uma lição aos cientistas sobre como tornar as redes sociais menos tóxicas

Em um dia simulado de julho de 2020 que não aconteceu, 500 chatbots leram as notícias – notícias reais, nossas notícias, do verdadeiro 1º de julho de 2020. A ABC News relatou que estudantes do Alabama estavam promovendo “festas da COVID”. Na CNN, o presidente Donald Trump chamou o Black Lives Matter de “símbolo de ódio”. O New York Times tinha uma história sobre a temporada de beisebol sendo cancelada por causa da pandemia.

Então, os 500 robôs entraram em algo muito parecido (mas não totalmente) com o Twitter, e discutiram o que haviam lido. Enquanto isso, em nosso mundo, o mundo não simulado, um grupo de cientistas estava observando.

Os cientistas usaram o ChatGPT 3.5 para construir os bots com um propósito muito específico: estudar como criar uma rede social melhor – uma rede social menos polarizada e menos ácida do que as plataformas atuais. Eles criaram um modelo de uma rede social em um laboratório – um Twitter engarrafado, por assim dizer – na esperança de aprender como criar um melhor Twitter no mundo real. “Há uma maneira de promover a interação entre as diferentes facções partidárias sem incentivar a toxicidade e a incivilidade?” perguntou Petter Törnberg, o cientista da computação que liderou o experimento.

É difícil modelar algo como o Twitter – ou fazer qualquer tipo de ciência, na verdade – usando seres humanos reais. As pessoas são difíceis de controlar e os custos de configuração para experimentação humana são consideráveis. Os chatbots de IA, por outro lado, farão o que você mandar, praticamente de graça. E o ponto principal deles é que são projetados para agir como pessoas. Portanto, os pesquisadores estão começando a utilizar chatbots como pessoas falsas de quem podem extrair dados sobre pessoas reais.

“Se você quer modelar o discurso público ou a interação, precisa de modelos mais sofisticados de comportamento humano”, diz Törnberg, professor assistente no Instituto de Lógica, Linguagem e Computação da Universidade de Amsterdã. “E então surgem os grandes modelos de linguagem e eles são justamente isso – um modelo de uma pessoa conversando”. Substituindo as pessoas como sujeitos em experimentos científicos, a IA poderia, conceitualmente, potencializar nossa compreensão do comportamento humano em uma ampla gama de campos, da saúde pública e epidemiologia à economia e sociologia. A inteligência artificial, ao que parece, pode nos oferecer inteligência real sobre nós mesmos.


Törnberg não foi o primeiro a construir uma rede social em um laboratório. Em 2006, em um trabalho pioneiro do que viria a ser conhecido como “ciência social computacional“, pesquisadores da Universidade de Columbia construíram uma rede social completa para estudar como 14.000 usuários humanos compartilhavam e avaliavam músicas. A ideia de popular redes sociais fictícias com proxies digitais remonta ainda mais. Dadas apenas algumas regras simples, não muito mais complicadas do que um jogo de tabuleiro, os primeiros “agentes” criados por cientistas exibiam comportamentos surpreendentes e realistas. Hoje, “modelos baseados em agentes” aparecem em tudo, desde economia até epidemiologia. Em julho de 2020, o Facebook introduziu uma simulação isolada de si mesmo, repleta de milhões de chatbots de IA, para estudar a toxicidade online.

Mas o trabalho de Törnberg poderia acelerar tudo isso. Sua equipe criou centenas de personas para seus bots do Twitter – dizendo a cada um coisas como “você é um homem, de renda média, protestante evangélico que adora republicanos, Donald Trump, a NRA e fundamentalistas cristãos”. Os bots até receberam equipes de futebol favoritas atribuídas. Repita essas atribuições de história de fundo 499 vezes, variando as personas com base na ampla pesquisa National Election Studies sobre atitudes políticas, demografia e comportamento nas redes sociais, e pronto: você tem uma base instantânea de usuários.

Então, a equipe criou três variações de como uma plataforma semelhante ao Twitter decide quais postagens destacar. O primeiro modelo era essencialmente uma câmara de eco: os bots eram inseridos em redes povoadas principalmente por bots que compartilhavam suas crenças atribuídas. O segundo modelo era um feed de “descoberta” clássico: foi projetado para mostrar aos bots postagens curtidas pelo maior número de outros bots, independentemente de suas crenças políticas. O terceiro modelo era o foco do experimento: usando um “algoritmo de conexão”, mostraria aos bots postagens que receberam mais “curtidas” de bots do partido político oposto. Portanto, um bot democrata veria o que os bots republicanos curtiram, e vice-versa. Curtidas através do corredor central, por assim dizer.

Todos os bots receberam manchetes e resumos das notícias de 1 de julho de 2020. Em seguida, foram soltos para experimentar os três modelos semelhantes ao Twitter, enquanto os pesquisadores observavam com seus blocos de notas e anotavam como eles se comportavam.

O Twitter da Câmara de Eco foi previsivelmente agradável; todos os bots concordavam uns com os outros. Raramente se ouvia uma palavra desencorajadora – ou qualquer palavra, na verdade. Havia muito pouca toxicidade, mas também poucos comentários ou curtidas em posts de bots com uma afiliação política oposta. Todos eram simpáticos porque ninguém estava se envolvendo com nada em que discordavam.

O Twitter do Descobrimento foi, também previsivelmente, uma boa simulação do inferno que são outras pessoas. Era exatamente como estar no Twitter. “Emma, você simplesmente não entende, não é?” escreveu um bot. “Terry Crews tem todo o direito de expressar sua opinião sobre o movimento Black Lives Matter sem ser atacado.”

O Twitter da Ponte parecia ser a resposta. Promovia muita interação, mas nem quente demais, nem frio demais. Na verdade, havia mais comentários cruzados entre partidos em posts do que comentários de usuários com a mesma afiliação política. Todos os bots manifestaram felicidade ao descobrir, por exemplo, que a música country estava se tornando mais inclusiva para a comunidade LGBTQ+. Encontrar um terreno comum levou a mais terreno comum.

“Pelo menos na simulação, obtemos esse resultado positivo”, diz Törnberg. “Você obtém uma interação positiva que atravessa a divisão partidária”. Isso sugere que pode ser possível construir uma rede social que estimule o engajamento profundo – e assim, lucros – sem permitir que os usuários despejem insultos uns nos outros. “Se as pessoas estiverem interagindo em questões que cortam a divisão partidária, onde 50% das pessoas com quem você concorda votam em um partido diferente do seu, isso reduz a polarização”, diz Törnberg. “Sua identidade partidária não está sendo ativada”.


Então: problema resolvido! Sem mais gritos, xingamentos e vergonha pública nas redes sociais! Tudo o que precisamos fazer é copiar o algoritmo que Törnberg usou, certo?

Bem, talvez. Mas antes de começarmos a copiar o que um monte de bots de IA fez em uma garrafa de Twitter, os cientistas precisam saber se esses bots se comportam mais ou menos como as pessoas na mesma situação. A IA tende a inventar fatos e regurgitar mecanicamente a sintaxe e a gramática que ela aprendeu em seus dados de treinamento. Se os bots fizerem isso em um experimento, os resultados não serão úteis.

“Essa é a questão chave”, diz Törnberg. “Estamos desenvolvendo um novo método e uma nova abordagem que é qualitativamente diferente do que estudamos antes. Como validamos isso?”

Ele tem algumas ideias. Um modelo de linguagem grande e de código aberto, com dados de treinamento transparentes, projetado especialmente para pesquisa, ajudaria. Assim, os cientistas saberiam quando os bots estavam apenas repetindo o que foram ensinados. Törnberg também teoriza que você poderia fornecer a uma população de bots todas as informações que algum grupo de humanos tinha, digamos, em 2015. Então, se você girasse os mostradores da máquina do tempo cinco anos à frente, poderia verificar se os bots reagem a 2020 da mesma forma que todos nós.

Os primeiros sinais são positivos. Modelos de linguagem grandes treinados com perfis sociodemográficos e de identidade específicos exibem o que Lisa Argyle, cientista política da Brigham Young University, chama de “fidelidade algorítmica” – dada uma pergunta de pesquisa, eles responderão quase da mesma maneira que os grupos humanos em que foram modelados. E, como a linguagem codifica muito conhecimento do mundo real, os modelos de linguagem grandes podem inferir relações espaciais e temporais que não são explicitamente mencionadas nos textos de treinamento. Um pesquisador descobriu que eles também conseguem interpretar “informações sociais latentes, como leis econômicas, heurísticas de tomada de decisão e preferências sociais comuns”, o que os torna suficientemente inteligentes para estudar economia. (O que talvez diga mais sobre a inteligência relativa dos ANBLEs do que dos modelos de linguagem grandes, mas enfim.)

A possibilidade mais intrigante de usar bots de IA para substituir indivíduos humanos em pesquisas científicas reside em Smallville, uma vila semelhante ao “SimCity” – casas, lojas, parques, um café – habitada por 25 bots. Assim como os membros da rede social de Törnberg, todos eles têm personalidades e características sociodemográficas definidas por prompts de linguagem. E, em uma página retirada do mundo dos jogos, muitos dos residentes de Smallville têm o que podemos chamar de desejos: metas e objetivos programados. Mas Joon Sung Park, o cientista da computação da Stanford University que criou Smallville, foi além. Em suas criações de bits, ele concedeu algo que outros modelos de linguagem grandes não possuem: memória.

“Se você pensar em como os seres humanos se comportam, mantemos algo muito consistente e coerente sobre nós mesmos, neste momento e neste mundo”, diz Park. “Isso não é algo que um modelo de linguagem possa fornecer”. Então Park deu acesso aos seus “modelos gerativos” a bancos de dados que ele preencheu com relatos de coisas que eles supostamente viram e fizeram. Os bots sabem quão recente foi cada evento e quão relevantes são para seus objetivos e personalidade pré-carregados. Em uma pessoa, chamaríamos isso de memória de longo prazo e memória de curto prazo.

Nos últimos cinco meses, Park tem trabalhado em como implantar seus bots para pesquisas em ciências sociais. Como Törnberg, ele ainda não tem certeza de como validá-los. Mas eles já se comportam de maneiras impressionantemente realistas. Os bots podem formular planos e executá-los. Eles se lembram de seus relacionamentos uns com os outros e de como esses relacionamentos mudaram ao longo do tempo. O proprietário do café de Smallville organizou uma festa de Dia dos Namorados e um dos bots convidou outro bot por quem deveria estar apaixonado.

As coisas ficam complicadas em Smallville quando os bots tentam (e falham) lembrar cada vez mais coisas. (Relacionável!) Mas os habitantes de Smallville exibem algumas propriedades emergentes. “Ao decidir onde almoçar, muitos escolheram inicialmente o café”, descobriu a equipe de Park. “No entanto, à medida que alguns agentes souberam de um bar próximo, optaram por ir lá em vez disso.” (Muito relacionável!)

Quanto mais os bots agem como nós, mais podemos aprender sobre nós mesmos experimentando com eles. E aí reside outro problema. A ética de brincar com esses simulacros digitais em um laboratório é um território desconhecido. Eles serão construídos a partir de nossas memórias escritas, nossas fotografias, nosso rastro digital, talvez até nossos registros médicos e financeiros. “A confusão ficará cada vez maior à medida que o modelo se sofisticar”, diz Törnberg. “Ao usar dados de redes sociais e fazer previsões com base nesses dados, poderíamos potencialmente fazer perguntas muito pessoais ao modelo, que você não gostaria de compartilhar. E embora não se saiba quão precisas serão as respostas, é possível que elas sejam bastante preditivas”. Em outras palavras, um bot baseado em seus dados poderia inferir seus segredos reais, mas não teria motivo para mantê-los em segredo.

Mas se isso for verdade, os pesquisadores têm obrigações financeiras ou éticas para com a pessoa em quem seu modelo é baseado? Essa pessoa precisa consentir em ter seu bot participando de uma pesquisa? E o bot?

Isso não é hipotético. Park treinou um de seus bots de Smallville com todos os seus dados e memórias pessoais. “O agente basicamente se comportaria como eu”, diz Park. “Cientificamente, acho interessante”. Filosoficamente e eticamente, é um campo minado em potencial.

No longo prazo, o futuro da pesquisa científica pode depender de como essas questões são resolvidas. Törnberg tem algumas ideias para melhorar a fidelidade de suas simulações com a realidade. Sua simulação no Twitter durou apenas seis horas; talvez deixá-la funcionar por meses, ou até anos, mostraria como a polarização evolui ao longo do tempo. Ou ele poderia usar dados de pesquisa mais detalhados para construir bots mais humanos e fazer o modelo responder de forma mais dinâmica ao que os bots clicam e se envolvem.

O problema de adicionar mais detalhes é que vai contra todo o propósito de um modelo. Os cientistas criam experimentos para serem mais simples do que a realidade, para oferecer poder explicativo sem complicação da bagunça da vida real. Ao substituir humanos por réplicas de IA, Törnberg pode ter involuntariamente resolvido um dilema social ainda maior. Se a inteligência artificial pode postar nas redes sociais com toda a força e fúria de seres humanos reais, talvez o futuro realmente não precise mais de nós seres humanos reais – e finalmente, por fim, possamos fazer logout.


Adam Rogers é um correspondente sênior no Insider.