Microsoft em apuros por enquete gerada por AI sobre a morte de uma mulher de 21 anos em sua plataforma de notícias

Microsoft enfrenta problemas após enquete gerada por IA sobre a morte trágica de uma mulher de 21 anos em sua plataforma de notícias

  • O The Guardian acusou a Microsoft de causar “danos significativos à reputação” com uma enquete gerada por IA.
  • Uma enquete especulando como uma mulher morreu apareceu ao lado de uma matéria do The Guardian no Microsoft Start.
  • A enquete na plataforma de agregação destaca o risco de confiar em processos automatizados.

Um jornal acusou a Microsoft de prejudicar sua reputação após uma enquete gerada por IA aparecer ao lado de um de seus artigos em uma plataforma de agregação.

O The Guardian reportou Lilie James, uma treinadora de polo aquático de 21 anos que foi encontrada morta com ferimentos graves na cabeça em uma escola secundária em Sydney, Austrália.

Uma enquete gerada por IA que pedia aos leitores que votassem se achavam que a mulher tinha morrido por assassinato, suicídio ou acidente apareceu ao lado do artigo no Microsoft Start.

Alguns leitores que viram a enquete junto com a matéria do The Guardian acreditavam que ela foi criada pelo jornal, e um comentou que o escritor do artigo deveria ser demitido, informou o The Guardian.

Anna Bateson, CEO do Guardian Media Group, acusou a Microsoft de causar “danos significativos à reputação” ao jornal e aos jornalistas que escreveram a história.

“Isso claramente é um uso inadequado do genAI pela Microsoft em uma história de interesse público potencialmente angustiante, originalmente escrita e publicada por jornalistas do The Guardian”, escreveu Bateson em uma carta ao presidente da Microsoft, Brad Smith.

Ela também pediu à empresa de software que parasse de usar IA experimental ao lado de matérias do The Guardian. A Microsoft possui uma licença para publicar conteúdo do jornal em suas plataformas.

A enquete foi removida, mas Bateson pediu a Smith que deixasse claro que a Microsoft era “totalmente responsável” por ela.

A Microsoft respondeu em comunicado ao The Guardian que está investigando as circunstâncias e desativou enquetes geradas automaticamente para todas as matérias.

“Uma enquete não deveria ter aparecido ao lado de um artigo desse tipo, e estamos tomando medidas para ajudar a evitar que esse tipo de erro ocorra novamente no futuro”, disse um representante da Microsoft.

A fabricante do Windows já demitou sua equipe editorial em favor de um sistema de agregação de notícias conduzido por IA. Em agosto, a Microsoft teve que remover uma série de matérias ofensivas e estranhas publicadas pelo “Microsoft Travel” e negou que a IA fosse responsável.

À medida que especialistas se dirigem ao Reino Unido para uma cúpula sobre segurança da IA na quinta-feira, a enquete é mais um exemplo dos riscos de confiar na automação, especialmente em contextos sensíveis.

A Microsoft não respondeu imediatamente a um pedido de comentário da Insider, feito fora do horário normal de trabalho.