Pesquisadores de IA da Microsoft vazam acidentalmente 38TB de dados da empresa

Pesquisadores de IA vazam acidentalmente 38TB de dados da Microsoft

A equipe de IA, que estava enviando dados de treinamento para permitir que outros pesquisadores treinassem modelos de IA para reconhecimento de imagem, expôs acidentalmente os dados, que incluíam “segredos, chaves privadas, senhas e mais de 30.000 mensagens internas do Microsoft Teams”, de acordo com a plataforma de segurança em nuvem Wiz, que primeiro notou a exposição dos dados.

A Microsoft, em um relatório próprio sobre o vazamento, observou que “nenhum dado do cliente foi exposto e nenhum outro serviço interno foi colocado em risco por causa desse problema” e não foi necessário nenhuma ação por parte desses clientes.

O link para os dados que incluía os arquivos foi criado usando um recurso no Azure chamado “tokens SAS”, que permite que os usuários criem links compartilháveis. A Wiz descobriu o acesso aos dados em 22 de junho e alertou a Microsoft. O token foi revogado no dia seguinte e a Microsoft afirma ter corrigido o problema e ajustado os tokens SAS que são mais permissivos do que o pretendido.

“As informações que foram expostas consistiam em informações exclusivas de dois ex-funcionários da Microsoft e os dispositivos de trabalho desses ex-funcionários”, disse a empresa. “Nenhum dado do cliente foi exposto e nenhum outro serviço da Microsoft foi colocado em risco por causa desse problema. Os clientes não precisam tomar nenhuma ação adicional para se manterem seguros. Como qualquer segredo, os tokens SAS precisam ser criados e manipulados adequadamente. Como sempre, incentivamos fortemente os clientes a seguir nossas melhores práticas ao usar tokens SAS para minimizar o risco de acesso ou abuso não intencional.”

A Wiz alertou que esse tipo de erro pode se tornar mais comum à medida que a IA for treinada e usada com mais frequência.

“Este caso é um exemplo dos novos riscos que as organizações enfrentam ao começar a aproveitar o poder da IA de forma mais ampla, à medida que mais de seus engenheiros agora trabalham com grandes quantidades de dados de treinamento”, escreveu o grupo. “À medida que cientistas de dados e engenheiros correm para trazer novas soluções de IA para produção, as enormes quantidades de dados que eles manipulam exigem verificações de segurança adicionais e salvaguardas.”