A Microsoft removeu uma série de artigos de viagem embaraçosos criados com ‘técnicas algorítmicas’. Mas afirma que a IA não é o problema.

Microsoft removed embarrassing travel articles created using 'algorithmic techniques', but claims that AI is not the problem.

  • A Microsoft removeu uma série de artigos de viagem embaraçosos e ofensivos na semana passada.
  • A empresa afirmou que os artigos não foram publicados por “IA não supervisionada” e atribuiu o erro a “erro humano”.
  • Mas a extensão dos erros deve preocupar qualquer pessoa preocupada com o impacto da IA nas notícias.

Na semana passada, a Microsoft removeu uma série de artigos publicados pelo “Microsoft Travel” que incluíam uma recomendação bizarra para os visitantes de Ottawa visitarem o Ottawa Food Bank e “considerarem ir com o estômago vazio”.

O artigo agora excluído que continha essa recomendação – “Indo para Ottawa? Aqui está o que você não deve perder!” – viralizou depois que o escritor Paris Marx o compartilhou como exemplo de um fracasso da IA. A discussão online sobre o artigo e a natureza claramente ofensiva da recomendação do banco de alimentos levaram a Microsoft a emitir uma declaração. A declaração culpava um ser humano.

“Este artigo foi removido e identificamos que o problema foi devido a um erro humano”, disse um porta-voz da Microsoft. “O artigo não foi publicado por uma IA não supervisionada. Combinamos o poder da tecnologia com a experiência dos editores de conteúdo para apresentar histórias. Neste caso, o conteúdo foi gerado por meio de uma combinação de técnicas algorítmicas com revisão humana, não por um grande modelo de linguagem ou sistema de IA. Estamos trabalhando para garantir que esse tipo de conteúdo não seja publicado no futuro”.

O problema não foi a IA, foi o ser humano. Havia um “editor de conteúdo” e ele cometeu um erro. Todos nós cometemos erros, certo?

Eu poderia ser mais persuadido por essa posição se aquele artigo, por mais grave que fosse, fosse o único. Na verdade, não era. Houve pelo menos alguns artigos que fizeram recomendações de viagem igualmente absurdas, se menos ofensivas.

Havia o artigo, “Experimente esses pratos de dar água na boca em sua viagem a Montreal”, que sugeriu um “hambúrguer” com a entrada semelhante à da Wikipedia observando que, embora o termo “burger” possa ser aplicado a qualquer tipo de carne moída, um “hambúrguer” em particular se refere a um “sanduíche composto por um hambúrguer de carne moída, um pão fatiado de algum tipo e coberturas como alface, tomate, queijo, etc.” Ele listou o McDonald’s Canada como um lugar popular para experimentar. Esse artigo também foi removido.

Microsoft Start

Então havia, “Indo para Anchorage? Seduza o seu paladar com essas 6 iguarias locais”, que incluía “frutos do mar” e destacava que eles são “basicamente qualquer forma de vida marinha considerada alimento pelos seres humanos, incluindo principalmente peixes e frutos do mar.” Continuou dizendo que “os frutos do mar são um ingrediente versátil, então faz sentido que os comamos em todo o mundo.” Esse artigo também foi removido.

Microsoft Start

Outro, “16 lugares mais fotogênicos em Tóquio!”, parecia estar indo bem ao listar locais proeminentes até que inexplicavelmente incluiu um slide intitulado “Coma carne Wagyu”. Talvez devesse estar em um dos artigos sobre comida? Esse artigo também foi removido.

Microsoft Start

Esses foram apenas alguns exemplos que eu encontrei antes que os artigos aparentemente fossem removidos. Entrei em contato com a Microsoft para entender o que estava acontecendo. Se, como a empresa disse, eles não estavam sendo publicados por “IA não supervisionada”, como isso poderia acontecer?

A Microsoft não é estranha ao negócio de notícias. Ela opera um agregador de notícias (agora Microsoft Start, anteriormente Microsoft News e MSN News) desde 1995 que licencia histórias de publicações, incluindo Insider. Mas em 2020, minha colega Lucia Moses divulgou a notícia de que ela estava reduzindo dezenas de contratados e se afastando da curadoria humana em direção a um sistema impulsionado por IA.

Claramente, a Microsoft apostou que a IA é o futuro da agregação de notícias. Agora, parece que a Microsoft se tornou talvez um pouco confiante demais de que a IA pode fazer o trabalho de escrever o conteúdo. Com base nos exemplos que encontrei, quaisquer controles humanos que a Microsoft tenha implementado eram tão mínimos que eram funcionalmente inúteis.

Tudo isso me deixa desconfortável por algumas razões. Primeiro, sugere que, apesar de ter um relacionamento de longa data com o negócio de notícias, a Microsoft acredita que os seres humanos podem ser facilmente deixados de lado no processo, a ponto de causar um backlash público para fazer a empresa olhar mais de perto. Segundo, a Microsoft não está comentando sobre a maioria dos artigos.

Quando entrei em contato, o porta-voz da Microsoft disse que a empresa só comentaria sobre o artigo do Ottawa Food Bank, e não sobre os outros que foram removidos ou qual foi o processo de revisão para eles que falhou.

Como meu colega Kai Xiang Teo escreveu ao abordar pela primeira vez o artigo do Ottawa Food Bank, o erro da Microsoft se encaixa em um padrão de empresas, desde a CNET até a Gizmodo, publicando artigos assistidos por IA com erros gritantes. Mas e quanto aos artigos que não contêm “erros” reais, por assim dizer? E quanto ao artigo sobre hambúrgueres, ou o sobre frutos do mar? Eles continuarão publicando esse tipo de história quando o calor diminuir?

Espero que isso tenha sido apenas um erro estúpido. Espero que a Microsoft – e as outras gigantes de tecnologia, para ser honesto – não acreditem que o trabalho daqueles de nós no ramo das notícias possa ser substituído por artigos remisturados no estilo da Wikipedia, costurados em um todo mal coerente. Sinceramente, espero que não.