A nova maneira que o Meta encontrou para lidar com anúncios políticos gerados por IA basicamente confia no sistema de honra. O que definitivamente vai funcionar.

A incrível abordagem do Meta para lidar com anúncios políticos gerados por IA que basicamente aposta no sistema de honra. E isso certamente vai dar certo.

  • Meta está solicitando aos anunciantes políticos que “se autodeclarem” quando desejam veicular anúncios criados digitalmente.
  • Isso permite que o Meta rotule ou retire tais anúncios, incluindo “deep fakes”, sem incentivo para divulgação.
  • Os deep fakes têm a intenção de enganar. Admitir que é falso vai contra o objetivo do conteúdo.

Meta lançou uma nova forma de evitar anúncios políticos que são criados ou manipulados por IA generativa AI durante o ciclo eleitoral de 2024. O problema é que cabe aos anunciantes admitir como seus anúncios são feitos.

A partir de janeiro, qualquer anunciante deve “se autodeclarar” quando os anúncios políticos ou de questões sociais veiculados em uma plataforma Meta foram feitos ou alterados significativamente por uma ferramenta digital como IA generativa. A política será implementada globalmente, afirmou a empresa em uma postagem no blog de quarta-feira, e será aplicada a “imagens ou vídeos fotorrealistas, ou áudio de som realista”.

O objetivo é que os anunciantes revelem voluntariamente quando um anúncio criado por IA generativa ou ferramenta similar faz o seguinte:

Se um anunciante fizer tal divulgação, o Meta irá marcar o anúncio de alguma forma para informar às pessoas que ele foi “criado ou alterado digitalmente”.

O Meta também acabou de proibir anunciantes políticos de usar suas próprias ferramentas de IA generativa para anúncios.

A nova política é semelhante ao que o Google e o YouTube anunciaram em setembro. 2024 é um ano eleitoral nos EUA, juntamente com outros 39 países, e a IA generativa se tornou extremamente popular e poderosa ao longo do último ano. Existe uma preocupação crescente de que a mídia sintética seja um grande problema para o público e o processo de votação.

Essas fotos e vídeos alterados são frequentemente conhecidos como “deep fakes“, um tipo de mídia destinada a enganar, às vezes para comédia ou uma estratégia de marketing viral, e às vezes por vingança pública ou motivos políticos obscuros.

A criação de um deep fake geralmente é intencional. Portanto, divulgar voluntariamente a uma plataforma como o Meta que você criou um deep fake de, digamos, um ator político, parece ir contra o objetivo do conteúdo.

Nick Clegg, presidente de assuntos globais do Meta, acrescentou em uma postagem no Threads que essa nova política de solicitar aos anunciantes políticos que divulguem quando fizeram um deep fake “se baseia nas medidas de transparência líderes do setor do Meta para anúncios políticos”.

“Esses anunciantes devem passar por um processo de autorização e incluir um aviso de ‘Pago por’ em seus anúncios”, disse Clegg.

Caso um anunciante consiga contornar essa nova regra de autodivulgação, o Meta tem um plano: se o conteúdo começar a se tornar viral, ele vai dar uma olhada.

“Nossos parceiros independentes de verificação de fatos revisam e classificam desinformações virais e não permitimos que um anúncio seja veiculado se for classificado como Falso, Alterado, Parcialmente Falso ou Sem Contexto,” disse o Meta no post do blog. “Por exemplo, os parceiros de verificação de fatos podem classificar o conteúdo como ‘Alterado’ se determinarem que ele foi criado ou editado de maneiras que possam enganar as pessoas, inclusive por meio do uso de IA ou outras ferramentas digitais.”

Depois disso, o Meta pode decidir remover um anúncio enganoso, afirmou a empresa. Se acontecer de pegar um anunciante tentando publicar um anúncio alterado indevidamente sem divulgação, também poderá rejeitar o anúncio. E “a falta repetida de divulgação pode resultar em penalidades contra o anunciante”, afirmou a empresa.

Você é um funcionário do Meta ou alguém com uma dica ou informação para compartilhar? Entre em contato com Kali Hays em [email protected], no aplicativo de mensagens seguro Signal no 949-280-0267 ou pelo Twitter DM em @hayskali. Entre em contato usando um dispositivo não relacionado ao trabalho.