A tentativa do ChatGPT de atrair empresas para as águas da inteligência artificial recebe reações mistas

ChatGPT's attempt to attract companies to the waters of artificial intelligence receives mixed reactions.

“Abra a mente para a IA ou fique para trás” é a mensagem estampada em todos os lugares desde que o ChatGPT abriu as comportas da IA gerativa. Agora que a OpenAI lançou sua versão empresarial para a ferramenta, a oportunidade – e a decisão – de embarcar no trem se tornaram muito reais para as empresas. Como descobriu o Eye on A.I. em conversas com várias empresas, a versão Enterprise ofereceu a tranquilidade necessária para algumas integrarem o ChatGPT em seus negócios, mas há questões pendentes de privacidade e segurança suficientes para fazer com que muitas empresas resistam.

Funcionários da plataforma de design Canva têm encontrado sucesso ao usar o ChatGPT Enterprise para aprender novas áreas do código-base, solucionar problemas, escrever e corrigir fórmulas complexas de planilhas, categorizar e analisar dados em formato livre e extrair temas de transcrições e entrevistas de usuários, de acordo com Danny Wu, chefe de produtos de A.I. do Canva.

O Canva, que já havia integrado a tecnologia da OpenAI em recursos como Magic Write, estava entre um grupo seleto de empresas convidadas para testar o ChatGPT Enterprise semanas antes de seu lançamento público. “Estamos definitivamente impressionados com a qualidade das respostas fornecidas, com membros da equipe relatando que é uma economia de tempo e fornece conselhos práticos em quase todos os usos”, disse Wu.

Hi Marley, uma empresa de seguros em nuvem sediada em Boston que estava ansiosa para usar o ChatGPT, finalmente teve a chance de usar a tecnologia graças aos recursos de segurança aprimorados da versão empresarial, segundo Jonathan Tushman, diretor de produtos da empresa.

Ele citou a capacidade de isolar os dados e o fato de o ajuste fino dos modelos ser privado para seu sistema, o que será “um grande avanço para nossa base de clientes e para nós”.

“Atualmente, com o ChatGPT, não podemos enviar dados sensíveis por meio de seus canais. Mas, com o ChatGPT Enterprise, eles não estão usando dados de prompts do cliente para treinar modelos de IA abertos”, disse ele. “Isso é o grande avanço e o que estávamos esperando.”

Isso provavelmente é exatamente o que a OpenAI espera com a versão empresarial (além de uma forma de começar a gerar receita significativa com o ChatGPT). Mas uma análise mais detalhada mostra que as duas versões podem não ser tão diferentes quanto parecem em termos de segurança, segundo o The Register. Por exemplo, enquanto a OpenAI enfatizou em seu anúncio da versão empresarial que a empresa não treinará seu modelo com dados do cliente, a OpenAI na verdade diz que não usa os dados enviados por meio da API em nenhuma de suas versões para treinar ou melhorar o ChatGPT. Mesmo os usuários não-API que brincam com o ChatGPT podem optar por não ter suas interações usadas para treinamento. Além disso, a OpenAI diz que alguns de seus funcionários podem acessar conversas criptografadas que ocorrem na versão empresarial.

Em todas as conversas sobre o ChatGPT e sua nova oferta empresarial, a segurança e a governança de dados parecem ser as principais preocupações. E, para alguns, o estado atual da segurança e gestão de dados do ChatGPT Enterprise ainda não é suficiente.

Executivos da plataforma de aprimoramento de habilidades Degreed, por exemplo, disseram que não pretendem usar o ChatGPT Enterprise em breve, em parte devido a preocupações com segurança e conformidade.

“Dada a regulamentação atual de IA e a investigação regulatória da OpenAI, nossos clientes têm preocupações em licenciar a OpenAI como fornecedor usando suas saídas diretamente na plataforma”, disse Fei Sha, VP de ciência e engenharia de dados da Degreed.

Isso é particularmente preocupante para os clientes da empresa sediados na União Europeia, pois os sistemas de IA usados na educação são categorizados como “de alto risco” no recente Ato de IA da UE, o que tornaria a Degreed sujeita a níveis mais altos de regulamentação em relação à transparência, governança de dados e outras salvaguardas.

Além disso, o ChatGPT Enterprise não passou pela análise de custo-benefício da empresa. Licenciar qualquer novo fornecedor desencadearia um processo de seleção intensivo em recursos no qual todos os clientes da empresa teriam que dar permissão e assinar novos acordos. E embora a Degreed reconheça os benefícios potenciais que os modelos de linguagem de última geração (LLMs) podem oferecer a seus clientes, Fei disse que a empresa está “mantendo suas opções em aberto” para outros LLMs emergentes e que “as tecnologias de IA não devem ser implementadas por si só”.

Para a empresa considerar o ChatGPT Enterprise, Janice Burns, diretora de transformação da Degreed, disse que eles precisariam ver práticas transparentes e mensuráveis de privacidade e segurança, insights acionáveis para combater desinformação e que os vieses incorporados no LLM fossem abordados, além de recomendações de qualidade.

“A empolgação com a inovação é inegável”, disse ela. “Mas ferramentas como o ChatGPT Enterprise também exigem salvaguardas e transparência em relação à privacidade e aos dados do usuário para tornar a tecnologia adequada para adoção empresarial.”

O varejista de joias online Angara é outra empresa que, embora esteja animada com as possibilidades das ferramentas de IA, não utilizará o ChatGPT Enterprise.

O cofundador e CEO Ankur Daga disse que a Angara vem utilizando ferramentas de IA há mais de um ano para ajudar os clientes a encontrar o produto certo mais rapidamente e viu sua taxa de conversão no site aumentar 20% como resultado. A empresa também tem muito mais em seu roteiro de produtos de IA, como recursos futuros que fornecerão recomendações aos clientes com base em descrições de texto ou imagens enviadas.

No entanto, quando a empresa realizou testes com o ChatGPT, eles não ficaram satisfeitos com os resultados. Embora o ChatGPT acertasse 80% das vezes, os outros 20% “podem fazer com que percamos a confiança de nossos clientes, o que é catastrófico no negócio de joias”, disse Daga.

E com isso, aqui está o resto das notícias de IA desta semana.

Sage Lazzaro[email protected]

IA NAS NOTÍCIAS

O Escritório de Direitos Autorais dos EUA solicita a opinião pública sobre questões de IA e direitos autorais. A agência abriu um período de comentários públicos e publicou um aviso descrevendo os desafios atuais com a IA e quatro questões principais que está explorando, incluindo o uso de obras protegidas por direitos autorais para treinar modelos e a possibilidade de proteção por direitos autorais de materiais gerados por sistemas de IA. O período de comentários públicos será até 18 de outubro e faz parte de um esforço maior da agência para abordar questões relacionadas à propriedade, violação e uso justo em um mundo rapidamente transformado pela IA.

O Zoom lança um assistente digital de IA generativa. Assim como as ferramentas de reunião de IA anunciadas pelo Google na semana passada, o Zoom diz que seu AI Companion pode criar resumos de reuniões, destaques em vídeo e até mesmo conversar com os usuários durante a reunião para mantê-los atualizados sobre o que perderam, entre outras tarefas. O Zoom também anunciou uma série de recursos relacionados que serão lançados na próxima primavera, incluindo um recurso de preparação para reuniões, no qual o AI Companion pode fornecer contexto sobre o que será discutido em uma reunião futura, trazendo conhecimento de reuniões, chats, documentos, etc. A empresa disse que usou seus próprios LLMs, além de outros da Meta, OpenAI e Anthropic para o AI Companion.

O X atualiza sua política de privacidade para permitir que a empresa treine modelos de IA com dados do usuário. Segundo o StackDiary. O proprietário do X, Elon Musk, já criticou outras empresas por usar dados do Twitter para treinamento de IA, enquanto prepara o terreno para fazer o mesmo, especialmente enquanto busca entrar no mercado de IA com outra empresa que ele chama de xAI. Ele comentou sobre as mudanças na política em uma postagem, escrevendo “apenas dados públicos, nada de mensagens diretas ou qualquer coisa privada”. Outras mudanças importantes afirmam que a empresa agora coletará dados biométricos, bem como informações sobre emprego e educação dos usuários.

A Amazon está cheia de livros sobre forrageamento de cogumelos gerados por IA que especialistas alertam poderiam matar alguém. A 404media descobriu um tesouro de livros provavelmente gerados pelo ChatGPT sobre forrageamento de cogumelos na Amazon, principalmente direcionados a iniciantes. As listagens não indicam que os livros foram escritos por IA e até mesmo têm o que parecem ser autores humanos falsos. É desnecessário dizer que uma tecnologia que frequentemente mistura as coisas provavelmente não é adequada para escrever guias que explicam quais cogumelos você pode desfrutar em massas versus aqueles que podem matá-lo.

FOCO NA PESQUISA DE IA

Um teste de Turing cheiroso. Para audição e visão, há muito tempo temos mapas que relacionam as propriedades físicas desses sentidos (como frequência e comprimento de onda, respectivamente) a propriedades que realmente podemos perceber, como altura e cor. Mas e quanto ao nosso sentido do olfato?

Um novo artigo publicado na Science detalha como pesquisadores usaram aprendizado de máquina para decifrar o código do cheiro. Usando uma rede neural de grafos, os pesquisadores construíram uma ferramenta para prever o perfil de odor de uma molécula com base exclusivamente em sua estrutura. A ferramenta superou a média dos painelistas humanos em 53% das moléculas testadas, inclusive em situações complicadas, como distinguir entre moléculas que parecem incrivelmente semelhantes, mas têm odores muito diferentes.

Embora pesquisadores de várias universidades tenham participado do artigo, ele foi conduzido em grande parte pela Osmo, uma empresa que trabalha para levar a tecnologia a um ponto em que “computadores gerarão odores como geramos imagens e sons hoje”. A equipe da Osmo começou originalmente esse trabalho na pesquisa do Google antes de se tornar uma startup separada em 2022, com a Google Ventures como investidora líder.

Alex Witschko, que foi pioneiro no grupo de olfação digital da Google Brain antes de fundar a Osmo, vê os resultados como validação dessa linha de pesquisa que ele diz estar “obcecado” há grande parte de sua vida e estudando profissionalmente desde 2008.

“Um problema central que nos impede de digitalizar o cheiro é algo que os outros sentidos já possuem – um mapa”, escreveu em um post de blog sobre o estudo.

“Em resumo, o artigo valida a ideia de que agora é possível aplicar a aprendizagem de máquina para quantificar, digitalizar e engenhar o cheiro”, disse ele.

ANBLE SOBRE A.I.

Os Estados Unidos devem usar os poderosos chips da Nvidia como um “ponto de estrangulamento” para forçar a adoção de regras de A.I., diz Mustafa Suleyman, cofundador do DeepMind – Nicholas Gordon

O CEO da Indeed quer criar recrutadores “ciborgues” que aproveitem as forças de humanos e A.I. – Orianna Rosa Royle

Criador do ChatGPT, a OpenAI está supostamente ganhando $80 milhões por mês – e suas vendas podem estar chegando a um nível suficientemente alto para cobrir sua perda de $540 milhões do ano passado – Chloe Taylor

Problema de desaprendizagem da A.I.: Pesquisadores dizem que é praticamente impossível fazer com que um modelo de A.I. “esqueça” as coisas que aprende a partir de dados privados de usuários – Stephen Pastis

A.I. e grandes mudanças no mercado estão tornando os PCs interessantes novamente – David Meyer

BRAINFOOD

Em Meta nós confiamos? Continuando com sua onda de “código aberto”, a Meta revelou na semana passada o FACET, um novo benchmark de A.I. para avaliar a imparcialidade em modelos. Composto por 32.000 imagens contendo 50.000 pessoas rotuladas por anotadores humanos, ele é posicionado como uma maneira de avaliar viés em modelos em classificação, detecção, segmentação de instância e tarefas de ancoragem visual envolvendo pessoas.

Modelos de A.I. devem ser examinados amplamente, regularmente e com um microscópio (após serem projetados com a máxima responsabilidade desde o início). O problema é que a manchete “Meta lança conjunto de dados para investigar modelos de visão computacional quanto a preconceitos” é o tipo de manchete que certamente inspira revirar de olhos.

Meta, para dizer gentilmente, não tem o melhor histórico quando se trata de confiança ou transparência. A empresa tem enfrentado nos últimos anos uma série de questões relacionadas à confiança e segurança em suas plataformas sociais, e seu histórico com A.I. não está muito melhor.

“No final do ano passado, a Meta foi obrigada a retirar uma demonstração de A.I. depois de escrever literatura científica racista e imprecisa. Relatórios têm caracterizado a equipe de ética em A.I. da empresa como praticamente ineficaz e as ferramentas contra viés em A.I. que ela lançou como ‘completamente insuficientes.’ Enquanto isso, acadêmicos têm acusado a Meta de agravar desigualdades socioeconômicas em seus algoritmos de publicidade e de mostrar viés contra usuários negros em seus sistemas de moderação automatizados,” resume o TechCrunch, que também descobriu “origens potencialmente problemáticas” e questões de dados com o FACET.

A Meta claramente tem a tecnologia para ser líder em A.I. – o PyTorch foi realmente disruptivo no que diz respeito a frameworks de aprendizado de máquina, e o LLama 2 rapidamente se tornou um modelo referência para a indústria. Mas, como nossa matéria principal em Eye on A.I. desta semana mostrou, A.I. é tanto sobre confiança quanto sobre A.I.