IA está acendendo o debate sobre privacidade de dados, como deixou claro a nova ordem do Presidente Biden.

A IA está acendendo o debate sobre privacidade de dados, como ficou evidente na nova ordem do Presidente Biden.

Os Estados Unidos carecem de uma abrangente lei federal de privacidade, com regras existentes que se aplicam de forma estreita a crianças (COPPA) ou informações de saúde (HIPAA). Biden claramente não gosta disso – em seu Discurso do Estado da União no início deste ano, ele identificou a privacidade de dados como uma rara oportunidade para legislação bipartidária, com foco principalmente na proteção de menores de 18 anos, mas também com “limites mais rigorosos nos dados pessoais que as empresas coletam de todos nós”.

Agora, o presidente está usando os riscos relacionados à IA para fortalecer seu argumento e avançar lentamente para a ação. De declaração recente da Casa Branca: “A IA não apenas facilita a extração, identificação e exploração de dados pessoais, mas também aumenta os incentivos para fazê-lo, pois as empresas usam dados para treinar sistemas de IA”.

“Para proteger melhor a privacidade dos americanos, incluindo os riscos colocados pela IA, o presidente pede ao Congresso que aprove uma legislação bipartidária de privacidade de dados para proteger todos os americanos, especialmente crianças”, continua a declaração.

Um apelo a um Congresso deficiente é uma coisa, mas Biden também direcionou uma série de ações em relação às tecnologias e técnicas “preservadoras da privacidade”. Agora haverá mais apoio federal para o desenvolvimento dessas tecnologias, e as agências federais serão encorajadas a usá-las, com diretrizes sendo estabelecidas para avaliar sua eficácia. Também haverá uma avaliação de como as agências governamentais adquirem dados pessoalmente identificáveis de fontes comerciais, como corretores de dados, e novas orientações sobre como evitar “riscos relacionados à IA” ao usá-los.

A Casa Branca de Biden já expressou preocupações anteriores sobre IA e privacidade de dados – uma seção completa do Blueprint para uma Carta de Direitos da IA de novembro passado é dedicada a isso – mas agora está realmente começando a fazer algo sobre o problema. O bar pode estar baixo, mas nunca vi um governo dos EUA ser tão proativo em relação à privacidade, e estou curioso para ver se esse ímpeto pode ser mantido ou até aumentado.

A ordem de IA de Biden também é pró-ativa em outros aspectos, de maneiras que devem ajudar a lidar com riscos tanto de longo prazo quanto imediatos. Entre outras coisas, as agências federais terão que: desenvolver padrões de segurança e segurança para a IA e avaliar riscos para a infraestrutura crítica; começar a descobrir como apoiar melhor os trabalhadores que perdem seus empregos; criar recursos para escolas que desejam usar a IA para coisas como tutoria personalizada; e coordenar melhor a identificação e o fim das violações dos direitos civis alimentadas pela IA.

Aqui há algumas responsabilidades para o Big AI – as empresas terão que compartilhar “resultados de testes de segurança e outras informações críticas” com o governo e informá-lo quando estiverem treinando novos modelos arriscados – mas, até agora, a indústria está principalmente deixada para resolver por si mesma. Biden já conseguiu que os grandes jogadores façam compromissos voluntários em relação à segurança da IA, e o G7 hoje também divulgou um código de conduta que também é voluntário.

O Reino Unido também está sediando sua Cúpula Global sobre a Segurança da IA nesta semana, então vamos ver o que surge disso. A propósito, uma coalizão de ativistas dos direitos digitais e sindicalistas emitiu uma repreensão ao primeiro-ministro Rishi Sunak hoje, reclamando que seu evento os exclui apesar de Sunak ter reconhecido que a tecnologia “alterará fundamentalmente a maneira como vivemos, trabalhamos e nos relacionamos uns com os outros”.

Mais notícias abaixo.

David Meyer

Gostaria de enviar pensamentos ou sugestões para Data Sheet? Envie uma mensagem aqui.

EM DESTAQUE

NO NOSSO FEED

$2 bilhões

—O limite superior de um novo investimento do Google na Anthropic, conforme relatado pelo Wall Street Journal. O Google já havia investido $550 milhões na queridinha da IA anteriormente neste ano, antes de a Amazon entrar com um investimento de até $4 bilhões.

SE VOCÊ PERDEU ISSO

Wall Street está obcecada com IA. Desde a ‘nova eletricidade’ até a próxima corrida do ouro, aqui está como os principais analistas veem a revolução tecnológica se desenrolando, por Will Daniel

Cofundador da Airbnb, Joe Gebbia, arrecada US$ 41 milhões para sua startup de construção de casas pequenas pré-fabricadas que surgiram da Airbnb em 2022, por Alexei Oreskovic

OpenAI fecha acordo para espaço de escritório em San Francisco depois que o CEO Sam Altman chama o trabalho remoto de ‘experimento’ um dos piores erros da indústria de tecnologia, por Steve Mollman

Fundador da Infosys, Narayana Murthy, quer que os jovens trabalhem 70 horas por semana e acredita que isso deveria ser motivo de orgulho nacional, por Lionel Lim

A perda de US$ 46,5 bilhões de Mark Zuckerberg no metaverso é tão grande que seria o valor de uma empresa ANBLE 100 – mas sua fortuna líquida é ainda maior que isso, por Paolo Confino

Restaurante de Manhattan chamado ‘Comida Tailandesa Perto de Mim’ ficou viral uma semana antes de abrir: ‘É exatamente o que eu procuro no Google, por Irina Ivanova

ANTES DE PARTIR

Habilidades papais em Python. Quando se pensa em programação, naturalmente se pensa no Papa Francisco, por isso é natural ver uma nova iniciativa global chamada “Code with Pope”, projetada pelo empreendedor polonês Miron Mironiuk como uma maneira de incentivar as crianças a programarem em Python.

O Papa Francisco endossou o esquema, e Mironiuk acredita que seu envolvimento convencerá jovens de 11 a 15 anos na Europa, África e América Latina a “dedicar algum tempo e aproveitar essa oportunidade para aprender programação gratuitamente”, informa a BBC. Detalhes aqui.