Febre do ChatGPT se espalha para o ambiente de trabalho nos EUA, causando alarme para alguns

Febre do ChatGPT no ambiente de trabalho nos EUA causa alarme

LONDRES/WASHINGTON, 11 de agosto (ANBLE) – Muitos trabalhadores nos Estados Unidos estão recorrendo ao ChatGPT para ajudar com tarefas básicas, descobriu uma pesquisa da ANBLE/Ipsos, apesar dos receios que levaram empresas como a Microsoft e o Google a limitar o seu uso.

Empresas em todo o mundo estão considerando a melhor forma de aproveitar o ChatGPT, um programa de chatbot que utiliza IA generativa para manter conversas com os usuários e responder a várias solicitações. No entanto, empresas de segurança e empresas têm levantado preocupações de que isso possa resultar em vazamentos de propriedade intelectual e estratégia.

Exemplos anedóticos de pessoas usando o ChatGPT para ajudar em seu trabalho diário incluem redigir e-mails, resumir documentos e fazer pesquisas preliminares.

28% dos entrevistados na pesquisa online sobre inteligência artificial (IA) entre 11 e 17 de julho disseram que usam regularmente o ChatGPT no trabalho, enquanto apenas 22% disseram que seus empregadores permitem explicitamente o uso de ferramentas externas.

A pesquisa ANBLE/Ipsos com 2.625 adultos nos Estados Unidos teve um intervalo de credibilidade, uma medida de precisão, de cerca de 2 pontos percentuais.

10% dos entrevistados disseram que seus chefes proibiram explicitamente o uso de ferramentas de IA externas, enquanto cerca de 25% não sabiam se sua empresa permitia o uso da tecnologia.

O ChatGPT se tornou o aplicativo de crescimento mais rápido da história após o seu lançamento em novembro. Ele criou tanto entusiasmo quanto alarme, levando sua desenvolvedora OpenAI a entrar em conflito com reguladores, especialmente na Europa, onde a coleta massiva de dados pela empresa tem recebido críticas de órgãos de proteção de privacidade.

Revisores humanos de outras empresas podem ler qualquer uma das conversas geradas, e pesquisadores descobriram que uma IA semelhante poderia reproduzir dados absorvidos durante o treinamento, criando um risco potencial para informações proprietárias.

“As pessoas não entendem como os dados são usados quando utilizam serviços de IA generativa”, disse Ben King, vice-presidente de confiança do cliente na empresa de segurança corporativa Okta (OKTA.O).

“Para as empresas, isso é crítico, porque os usuários não têm um contrato com muitas IA – porque são serviços gratuitos – então as corporações não terão corrido o risco por meio de seus processos de avaliação usuais”, disse King.

A OpenAI se recusou a comentar quando questionada sobre as implicações do uso individual do ChatGPT por funcionários, mas destacou uma postagem recente no blog da empresa assegurando aos parceiros corporativos que seus dados não seriam utilizados para treinar ainda mais o chatbot, a menos que dessem permissão explícita.

Quando as pessoas usam o Bard do Google, ele coleta dados como texto, localização e outras informações de uso. A empresa permite que os usuários excluam atividades anteriores de suas contas e solicitem a remoção de conteúdo alimentado na IA. A Google, pertencente à Alphabet (GOOGL.O), se recusou a comentar quando solicitada a fornecer mais detalhes.

A Microsoft (MSFT.O) não respondeu imediatamente a um pedido de comentário.

‘TAREFAS INOFENSIVAS’

Um funcionário da Tinder baseado nos Estados Unidos disse que os trabalhadores do aplicativo de namoro usam o ChatGPT para “tarefas inofensivas”, como escrever e-mails, mesmo que a empresa não permita oficialmente.

“São e-mails normais. Muito inofensivos, como fazer convites engraçados no calendário para eventos da equipe, e-mails de despedida quando alguém está saindo… Também usamos para pesquisas gerais”, disse o funcionário, que preferiu não se identificar porque não tinha autorização para falar com os repórteres.

O funcionário disse que a Tinder tem uma “regra de não utilizar o ChatGPT”, mas os funcionários ainda o usam de forma “genérica, sem revelar nada sobre estarmos na Tinder”.

A ANBLE não conseguiu confirmar independentemente como os funcionários da Tinder estavam usando o ChatGPT. A Tinder disse que oferece “orientações regulares aos funcionários sobre as melhores práticas de segurança e dados”.

Em maio, a Samsung Electronics proibiu seus funcionários globalmente de usar o ChatGPT e ferramentas de IA similares depois de descobrir que um funcionário havia enviado código sensível para a plataforma.

“Estamos revisando medidas para criar um ambiente seguro para o uso de IA generativa que melhore a produtividade e eficiência dos funcionários”, afirmou a Samsung em comunicado em 3 de agosto.

“No entanto, até que essas medidas estejam prontas, estamos restringindo temporariamente o uso de IA generativa em dispositivos da empresa.”

A ANBLE informou em junho que a Alphabet havia advertido os funcionários sobre como usar chatbots, incluindo o Bard do Google, ao mesmo tempo em que comercializa o programa globalmente.

O Google afirmou que, embora o Bard possa fazer sugestões de código indesejadas, ele ajuda os programadores. Também afirmou que tem como objetivo ser transparente sobre as limitações de sua tecnologia.

PROIBIÇÕES GERAIS

Algumas empresas disseram à ANBLE que estão adotando o ChatGPT e plataformas similares, mas com segurança em mente.

“Começamos a testar e aprender como a IA pode aprimorar a efetividade operacional”, disse um porta-voz da Coca-Cola em Atlanta, Geórgia, acrescentando que os dados permanecem dentro do seu firewall.

“Internamente, lançamos recentemente nossa versão empresarial do Coca-Cola ChatGPT para produtividade”, disse o porta-voz, acrescentando que a Coca-Cola planeja usar a IA para melhorar a efetividade e a produtividade de suas equipes.

Dawn Allen, diretora financeira da Tate & Lyle (TATE.L), disse à ANBLE que a fabricante global de ingredientes está testando o ChatGPT, tendo “encontrado uma maneira de usá-lo com segurança”.

“Temos equipes diferentes decidindo como desejam usá-lo por meio de uma série de experimentos. Devemos usá-lo nas relações com investidores? Devemos usá-lo na gestão do conhecimento? Como podemos usá-lo para realizar tarefas com mais eficiência?”

Alguns funcionários dizem que não conseguem acessar a plataforma em seus computadores corporativos.

“Está completamente banido na rede do escritório, simplesmente não funciona”, disse um funcionário da Procter & Gamble (PG.N), que preferiu permanecer anônimo porque não estava autorizado a falar com a imprensa.

A P&G se recusou a comentar. A ANBLE não conseguiu confirmar de forma independente se os funcionários da P&G não conseguem usar o ChatGPT.

Paul Lewis, diretor de segurança da informação da empresa de cibersegurança Nominet, disse que as empresas estão certas em ser cautelosas.

“Todos se beneficiam dessa capacidade aumentada, mas as informações não são completamente seguras e podem ser exploradas”, disse ele, citando “sugestões maliciosas” que podem ser usadas para fazer com que os chatbots de IA divulguem informações.

“Uma proibição geral ainda não é justificada, mas precisamos agir com cautela”, disse Lewis.