A Meta ‘enganou’ o público por meio de uma campanha que minimizou a quantidade de conteúdo prejudicial no Instagram e no Facebook, conforme mostram documentos judiciais.

A Meta 'enganou' o público com uma campanha que 'deu um jeitinho' de esconder o conteúdo prejudicial no Instagram e no Facebook, de acordo com documentos judiciais.

  • Uma queixa recentemente revelada acusa a Meta de enganar o público sobre o conteúdo prejudicial em suas plataformas.
  • Alega-se que a Meta divulgou publicamente baixas taxas de conteúdo prejudicial, enquanto dados internos revelaram taxas mais altas.
  • A queixa afirma que a Meta usou esses relatórios para convencer o público de que suas plataformas eram mais seguras do que realmente eram.

De acordo com uma queixa recentemente revelada apresentada em nome de 33 estados, a Meta pode ter minimizado significativamente as taxas de desinformação, discurso de ódio, discriminação e outro conteúdo prejudicial em suas plataformas. A queixa acusa a Meta de elaborar relatórios trimestrais conhecidos como Relatório de Execução das Normas Comunitárias (CSER) que promovem baixas taxas de violações das normas comunitárias em suas plataformas, mas excluem dados importantes de pesquisas internas sobre a experiência do usuário, que evidenciam taxas muito mais altas de encontros dos usuários com conteúdo prejudicial. 

Por exemplo, a Meta afirmou que, a cada 10.000 visualizações de conteúdo em suas plataformas, apenas 10 ou 11 conteriam discurso de ódio, o que equivale a cerca de 0,10% a 0,11%, conforme dados coletados de julho a setembro de 2020 em seu relatório CSER . A Meta define discurso de ódio conforme o CSER como “discurso violento ou desumanizante, declarações de inferioridade, pedidos de exclusão ou segregação com base em características protegidas ou insultos.”

No entanto, a queixa afirma que um relatório interno de pesquisa com usuários da Meta conhecido como Pesquisa de Alcance de Problemas de Integridade (TRIPS), que um memorando interno do Instagram chamou de “nosso objetivo principal, medida absoluta”, relatou níveis significativamente mais altos de discurso de ódio apenas alguns meses antes. Uma média de 19,3% dos usuários do Instagram e 17,6% dos usuários do Facebook relataram ter testemunhado discurso de ódio ou discriminação nas plataformas, de acordo com um relatório TRIPS de maio de 2020 citado pela queixa.

Da mesma forma, uma média de 12,2% dos usuários do Instagram e 16,6% dos usuários do Facebook relataram ter visto violência gráfica nessas plataformas, e mais de 20% dos usuários testemunharam bullying e assédio, de acordo com o resumo da queixa sobre o relatório TRIPS.

No entanto, a empresa define violência gráfica como conteúdo que “glorifica a violência ou celebra o sofrimento ou a humilhação de outras pessoas no Facebook e Instagram” e também observa que bullying e assédio são “altamente pessoais por natureza”, então “usar tecnologia para detectar esses comportamentos de forma proativa pode ser mais desafiador do que outros tipos de violações”, de acordo com o CSER.

A queixa – que citou várias outras estatísticas sobre conteúdo prejudicial que foram reunidas em diversos relatórios internos – argumentou que a Meta ocultou esses números e usou relatórios como o CSER para “criar a impressão de que o conteúdo prejudicial não é prevalente” em suas plataformas.

De acordo com o New York Times, a queixa, que foi elaborada usando “trechos de e-mails internos, bate-papos entre funcionários e apresentações da empresa” segundo o jornal, não entrou em muitos detalhes sobre a metodologia de suas pesquisas internas com os usuários, como TRIPS, ou outra chamada Estrutura de Experiências e Encontros Negativos (BEEF). A queixa apenas observou que ambas são pesquisas “rigorosas” usadas para questionar os usuários sobre suas interações com conteúdo prejudicial, como suicídio e automutilação, comparação negativa, desinformação, bullying, avanços sexuais indesejados, discurso de ódio ou discriminação. Portanto, não está claro em que medida a discrepância entre as cifras desses relatórios internos e aquelas no CSER poderia ser explicada pela área cinzenta entre a definição de violações de conteúdo da Meta e as definições dos usuários.

A Meta não respondeu ao pedido de comentário do Business Insider, mas afirmou em comunicado ao The New York Times no sábado que a reclamação dos estados “deturpa nosso trabalho ao usar citações seletivas e documentos escolhidos a dedo.