Rev junta-se a uma longa lista de empresas de tecnologia, desde Instacart até Microsoft, que estão correndo para atualizar os termos para usar os dados das pessoas para treinar a IA

Rev se une a outras empresas de tecnologia, como Instacart e Microsoft, que estão atualizando os termos para usar os dados das pessoas no treinamento da IA.

  • Mais empresas estão silenciosamente atualizando suas políticas de privacidade para usar os dados coletados dos usuários no treinamento de modelos de IA.
  • A ferramenta de transcrição Rev é uma das últimas empresas a alterar seus termos de uso para uso em IA.
  • Outros também estão fazendo o mesmo, incluindo as empresas de tecnologia mais notáveis que estão se apressando para participar da febre da IA.

Os dias de qualquer atividade que requer conexão com a Internet não beneficiar a IA estão chegando ao fim.

Nos últimos meses, empresas como Twitter, X, Microsoft, Instacart, Meta e Zoom se apressaram para atualizar seus termos de serviço e/ou políticas de privacidade para permitir a coleta de informações e conteúdo das pessoas e clientes como dados para treinar modelos de inteligência artificial gerativos.

Tweets, pesquisas na web e até mesmo compras de supermercado agora são uma oportunidade para as empresas construírem ferramentas mais preditivas, como Bard e ChatGPT, que são de propriedade da OpenAI e recebem apoio considerável da Microsoft. O Zoom, depois de uma revolta pública com a ideia de chamadas de vídeo sendo alimentadas em um grande modelo de linguagem usado para treinar IA, é a única empresa que posteriormente alterou sua política de uso atualizada para dizer explicitamente que os vídeos do usuário não seriam usados dessa maneira.

Essa reação negativa não impediu que mais empresas decidissem que suas plataformas devem ser campos de treinamento para a IA. Uma das últimas a alterar seus termos de serviço é a Rev, um serviço popular de transcrição de conversas e chamadas telefônicas gravadas que também faz legendas para vídeos. Na versão mais recente dos Termos de Serviço da Rev, a empresa adicionou uma seção chamada “Seu conteúdo, incluindo a saída dos serviços”. Essa seção agora afirma que ela não apenas possui uma licença ampla para usar todo o conteúdo carregado em sua plataforma “seja público ou privado”, mas também pode usar as informações “para melhorar os serviços, por exemplo, para treinar e manter o modelo ASR de fala para texto da Rev, e outros modelos de inteligência artificial da Rev”.

Os Termos da Rev parecem ter sido atualizados em algum momento de junho para incluir essa linguagem, de acordo com uma cópia encontrada pelo Internet Archive. Os usuários só foram solicitados a revisar os Termos atualizados em setembro, em um e-mail da empresa anunciando sua parceria com a OpenAI como “um novo sub-processador terceirizado”. A OpenAI está processando dados da Rev para “um novo recurso em breve”. A Rev não divulgou exatamente o que mudou em seus termos. Um porta-voz da Rev disse que os termos foram atualizados neste mês e que seu modelo é “informado por uma coleção diversificada de dados de voz”.

“A Rev agora usa dados de forma contínua, não apenas enquanto é um cliente ativo, e eles são usados anonimamente para treinar a IA proprietária da Rev”, disse o porta-voz. O porta-voz também afirmou que um cliente da Rev pode “optar por não compartilhar seus dados para fins de treinamento”, enviando um e-mail para [email protected]. Não há um formulário dedicado para essa solicitação e não há garantia de que ela será atendida.

No update de agosto de seus termos e condições, o Instacart adicionou uma linguagem que proíbe qualquer pessoa de usar seu conteúdo ou dados para “criar, treinar, testar ou melhorar” quaisquer ferramentas de IA, ou os grandes modelos de aprendizado de máquina e linguagem que os sustentam.

Mais empresas têm tentado fazer o que podem para impedir que seus dados sejam coletados e armazenados para expandir conjuntos de dados necessários para treinar modelos de IA. No entanto, o Instacart também adicionou uma linguagem que deixa uma brecha para fazer exatamente isso com os dados de seus próprios clientes, dizendo que sua licença agora permite “…melhorar nossos algoritmos de aprendizado de máquina, para fins de operação, fornecimento e melhoria dos serviços”. Essa linguagem não estava em seus termos anteriores, de acordo com uma versão vista pelo Internet Archive. O Instacart também não especificou essas mudanças em sua atualização.

Um porta-voz do Instacart disse que a empresa está se preparando para implantar alguma ferramenta de IA em sua plataforma.

“Estamos incorporando experiências de IA gerativas em nossos produtos para ajudar com as perguntas de compras de supermercado dos clientes e ajudá-los a tomar decisões relacionadas à comida”, disse o porta-voz. “Nossos termos atualizados deixam claro que a IA gerativa agora faz parte da oferta do Instacart, sujeita a restrições de uso indevido e outras disposições gerais de nossos termos, e os padrões para esses recursos permanecem os mesmos de nosso produto como um todo.”

Mesmo quando as empresas divulgam o que mudaram em uma atualização de um acordo de Termos ou Política de Privacidade que abrange o uso de dados para IA, muitas vezes elas são vagas. Os Termos atualizados da Microsoft, para os quais destacou mudanças entrando em vigor em 30 de setembro, adicionaram uma nova seção de cinco pontos sobre Serviços de IA. A única relacionada aos dados do usuário diz: “Como parte da prestação dos serviços de IA, a Microsoft processará e armazenará suas entradas no serviço, bem como a saída do serviço, com o objetivo de monitorar e evitar usos ou saídas abusivas ou prejudiciais do serviço”. Os outros quatro pontos cobrem a Microsoft proibindo qualquer uso de seus serviços de IA para outras ferramentas de IA.

O Google também oferece acesso a uma versão arquivada de seus termos, atualizada em julho. No entanto, a empresa é igualmente vaga sobre o que faz com os dados do usuário quando se trata de IA. Ela pode usar os dados conforme sua licença permite para “operar e melhorar os serviços”, incluindo a criação de “novos recursos e funcionalidades”. Em sua política de privacidade, também atualizada em julho, o Google menciona sua ferramenta de IA generativa Bard uma vez, dizendo que a empresa “usará informações publicamente disponíveis para ajudar a treinar os modelos de IA do Google e desenvolver produtos e recursos como o Google Translate, Bard e recursos de IA em nuvem”.

O Twitter, agora X sob a propriedade de Elon Musk, é uma das plataformas mais diretas ao dizer como usa os dados do usuário que coleta para a IA, pois Musk tem trabalhado em um novo projeto de IA há meses. “Podemos usar as informações que coletamos e as informações publicamente disponíveis para ajudar a treinar nossos modelos de aprendizado de máquina ou inteligência artificial para os fins descritos nesta política”, diz a empresa em sua política de privacidade atualizada este mês.

O Meta, anteriormente conhecido como Facebook, atualizou sua política de privacidade em junho. A política agora informa aos usuários que “sua atividade e as informações que você fornece em nossos produtos e serviços” são usadas para treinar seus modelos de IA generativa, assim como qualquer coisa escrita ou dita ao usar uma ferramenta de IA como Llama 2 ou CM3leon. Portanto, desde atualizações de status até fotos do Instagram e prompts podem fazer parte dos conjuntos de dados de treinamento de IA do Meta. A empresa coloca a responsabilidade sobre o usuário para evitar que seus dados de treinamento absorvam informações pessoais que uma pessoa possa não querer que sejam usadas para ensinar uma ferramenta de IA a responder melhor aos prompts, dizendo que as pessoas devem “ter cuidado com” o que dizem nos prompts.

“Como prática recomendada, não inclua nenhuma informação pessoal, como seu endereço residencial ou número de telefone”, aconselha o Meta. No final de agosto, ele criou um formulário simples onde os usuários poderiam “solicitar” para optar por não usar seus dados para treinar modelos de IA. A empresa não diz se irá atender a tal solicitação.

Você é um funcionário de tecnologia ou alguém com conhecimento para compartilhar? Entre em contato com Kali Hays em [email protected], no aplicativo de mensagens seguras Signal no 949-280-0267 ou por DM no Twitter em @hayskali. Entre em contato usando um dispositivo não relacionado ao trabalho.