A ‘Copa do Mundo’ da política de IA começa

A competição da Copa do Mundo da política de IA está prestes a começar!

“`html

O Center for AI and Digital Policy disse isso da melhor maneira quando escreveu no LinkedIn no fim de semana: “Esta semana é verdadeiramente a Copa do Mundo da política de IA.”

Primeiro, a administração Biden ontem anunciou sua tão esperada ordem executiva sobre IA, a primeira ação oficial do governo dos EUA voltada para a tecnologia. A ordem exigirá que algumas empresas de IA compartilhem os resultados dos testes de segurança com o governo federal antes de lançarem seus modelos e também pede ao Congresso que aprove legislação bipartidária sobre privacidade de dados. Ela também instrui várias agências federais a criar um amplo conjunto de padrões de segurança e orientações sobre privacidade do consumidor, autenticação de conteúdo oficial, uso de IA pelo governo, prevenção de práticas potencialmente prejudiciais de IA em áreas como saúde e combate à discriminação no sistema de justiça criminal, habitação e outras áreas. Além disso, ela solicita um relatório sobre as possíveis implicações no mercado de trabalho da IA e facilitará a entrada de trabalhadores de tecnologia altamente qualificados nos Estados Unidos.

No mesmo dia, o G7 — composto por Canadá, França, Alemanha, Itália, Japão, Reino Unido, Estados Unidos e União Europeia — também concordou com um código de conduta voluntário para empresas que desenvolvem sistemas avançados de IA. O código de 11 pontos insta as empresas a identificarem, avaliarem e mitigarem riscos em sistemas de IA e também a lidarem com o uso indevido descoberto em produtos de IA que já foram disponibilizados no mercado público. O código também enfatiza que as empresas devem investir em controles de segurança robustos e compartilhar relatórios públicos que detalhem as capacidades, limitações, usos e abusos de seus sistemas.

Na quarta e quinta-feira, o Reino Unido sediará o AI Safety Summit, reunindo governos internacionais, especialistas em pesquisa, grupos da sociedade civil e principais empresas de IA para discutir os riscos da IA e como eles podem ser mitigados por meio de ação internacional coordenada. Embora ainda falte um dia, já houve bastante movimentação que revela a forma como o Reino Unido está pensando sobre tudo isso. OpenAI, Google DeepMind, Meta, Anthropic, Microsoft e Amazon publicaram suas respostas ao pedido de autoridades do Reino Unido para delinear suas políticas em nove áreas de preocupação (desde controles de segurança até avaliações de modelo e testes de adversários) antes da cúpula, e o Reino Unido seguiu com um documento que está sendo apresentado como um “menu potencial” de políticas de segurança de IA que essas organizações de IA “fronteiriças” devem considerar.

“O pedido para as empresas publicarem suas políticas de segurança de IA e a publicação deste documento de apoio demonstram essa abordagem flexível, concentrando-se em organizações de IA fronteiriças com os maiores riscos, reconhecendo que, com a tecnologia avançando muito rapidamente, os processos e práticas ainda estão evoluindo”, diz o documento.

Não é exatamente o mundo inteiro colocando um foco na segurança da IA esta semana – e é importante ressaltar a já aparente “divisão da IA”, em que o Norte Global domina as discussões e está posicionado para colher os benefícios econômicos da IA, enquanto trabalhadores em grande parte do Sul Global realizam o trabalho mal remunerado que torna tudo isso possível. Mas parece uma corrida internacional para acompanhar os avanços rápidos e indiscutíveis da IA.

“`

Ao analisar os produtos da OpenAI, há um amplo consenso de que as melhorias do GPT-3.5 para o GPT-4 são realmente significativas. O modelo mais recente também superou seu antecessor em uma série de exames simulados, incluindo Bar, LSAT, SATs e vários testes AP, de acordo com a OpenAI. E a história se repete para seus geradores de imagens.

“Você pode ver o progresso que fizemos nos últimos 18 meses, e é extraordinário”, disse o jornalista de tecnologia Casey Newton ao descrever o salto entre o DALL-E 2 e o DALL-E 3 no episódio mais recente do Hard Fork.

E não há sinais de desaceleração à medida que as empresas de IA conseguem capital de risco, correm para o mercado e superam barreiras técnicas com velocidade impressionante.

Apenas na semana passada, um artigo publicado na Nature descreveu uma “quebra de paradigma em IA”, onde um sistema de IA superou o ChatGPT e teve desempenho comparável ao dos humanos ao incorporar novas palavras em seu vocabulário e usá-las em contextos diferentes. O sistema baseado em redes neurais utilizou uma abordagem de meta-aprendizagem para composicionalidade (MLC) para o treinamento, o que essencialmente envolve o modelo aprendendo com seus erros ao longo do tempo.

“O MLC mostra uma sistematicidade muito mais forte do que redes neurais treinadas de maneiras convencionais e apresenta comportamento mais coerente do que modelos simbólicos puros”, escreveram os autores do artigo.

Embora seja um experimento restrito, o autor do artigo, Brenden Lake, afirmou que “ajuda a esclarecer exatamente o que é necessário para alcançar generalização sistemática”.

“Com LLMs, a esperança é que a generalização sistemática surja naturalmente, mas ainda existem limitações nos LLMs atuais”, disse ele. “Neste artigo, mostramos como o MLC desbloqueia os poderes da generalização sistemática por meio da prática”.

Especialmente diante desse progresso rápido, como esses esforços internacionais se desenvolvem pode ser crucial. Somente o tempo dirá se as empresas de IA cumprirão qualquer um desses compromissos voluntários ou adotarão as sugestões de segurança sugeridas pelo Reino Unido, mas não há dúvida de que o mundo inteiro está observando.


Observação de programação: Obtenha informações vitais sobre como a tecnologia mais poderosa e abrangente de nosso tempo está mudando os negócios, transformando a sociedade e impactando nosso futuro. Junte-se a nós em São Francisco, de 11 a 12 de dezembro, para a terceira conferência anual Brainstorm A.I. da ANBLE. Entre os palestrantes confirmados estão luminárias como o GM do Google Assistant e Google Bard, Sissie Hsiao, a Chief Privacy and Trust Officer da IBM, Christina Montgomery, o SVP e CTO Internacional da Walmart, Sravana Karnati, a Chief Digital and Technology Officer da Pfizer, Lidia Fonseca, e muitos outros. Inscreva-se para participar hoje mesmo!

E com isso, aqui está o resto das notícias de IA desta semana.

Sage Lazzaro [email protected] sagelazzaro.com

IA NAS NOTÍCIAS

A OpenAI anuncia uma nova equipe para estudar os riscos ‘catastróficos’ da IA. A equipe, chamada Preparedness, “ajudará a rastrear, avaliar, prever e proteger contra riscos catastróficos em várias categorias”, incluindo segurança cibernética, persuasão individualizada, ameaças CBRN (químicas, biológicas, radiológicas e nucleares) e ARA (replicação e adaptação autônoma). Também será responsável por formular uma “política de desenvolvimento baseada em riscos” para a empresa, de acordo com uma postagem no blog.

O Google expande seu programa de recompensas por bugs para incluir ameaças específicas de IA generativa. Reconhecendo que a IA generativa levanta preocupações novas e diferentes em relação à segurança digital tradicional, o Google, em um post de blog, anunciou que está expandindo seu Programa de Recompensas por Vulnerabilidade para incluir ameaças específicas de IA generativa e compartilhou diretrizes sobre o que está dentro do escopo para coleta de recompensas. Descobrir extração de dados de treinamento que vaza informações privadas e sensíveis está dentro do escopo do programa de recompensas, por exemplo, enquanto usar um produto de IA para fazer algo potencialmente prejudicial que já é possível com outras ferramentas não está.

Pesquisadores do MIT e de uma dúzia de outras instituições lançam plataforma para lidar com a transparência de dados na IA. É o que afirma VentureBeat. Os pesquisadores auditaram cerca de 2.000 dos conjuntos de dados de ajuste fino mais amplamente utilizados, resultando no que os autores dizem ser “a maior auditoria já feita até hoje de conjuntos de dados de IA”. Eles criaram o Data Provenance Explorer como uma plataforma interativa para tornar os resultados acessíveis, permitindo que desenvolvedores, pesquisadores e jornalistas filtrem os conjuntos de dados para considerações legais e éticas.

A nova função de IA generativa do Grammarly aprende sua voz e estilo pessoais. Uma nova função no Grammarly, chamada “detecção e aplicação de voz personalizada”, pode detectar automaticamente o estilo de escrita único de uma pessoa, criar um “perfil de voz” e depois reescrever qualquer texto no estilo da pessoa, de acordo com o TechCrunch. Espera-se que seja lançada até o final do ano para assinantes do nível empresarial, e levanta muitas questões sobre os danos potenciais e questões trabalhistas de poder replicar a voz escrita de alguém.

Imagens de abuso sexual infantil criadas por IA “ameaçam sobrecarregar a internet”. É o que afirma o Guardian, que divulgou as descobertas da Internet Watch Foundation de quase 3.000 imagens de abuso feitas por IA que violam a lei do Reino Unido. A organização disse que imagens existentes de vítimas de abuso reais estão sendo incorporadas a modelos de IA, especificamente propagação estável (Stable Diffusion), para produzir novas representações geradas por IA. Eles também encontraram casos de IA sendo usada para “despir” crianças vestidas encontradas online e “rejuvenescer” celebridades e representá-las em cenários de abuso.

FOCO EM PESQUISA DE IA

Avaliando governança de IA. Falando sobre governança de IA e compromissos voluntários, um artigo que será publicado nesta quarta-feira e examina a governança de IA das empresas descobriu um “baixo volume de implementação de ética em IA, bem como a falta de melhorias significativas em 2022”, de acordo com uma prévia compartilhada pela autora do artigo, Ravit Dotan, no LinkedIn.

“Uma das principais conclusões do artigo é que não encontramos evidências de que esses compromissos impactem a implementação de práticas de gerenciamento de risco pelas empresas”, ela escreveu em sua postagem.

O estudo também descobriu que essa discrepância entre os sinais do governo e a implementação pode contribuir para a “lavagem ética” e insta que seja “crucial incentivar, idealmente exigir” que as empresas forneçam publicamente evidências de seus esforços de mitigação de risco para revisão externa. Você pode conferir o LinkedIn de Dotan para acessar o artigo completo.

DESTAQUE EM IA

A Microsoft ganha $70 bilhões e a Alphabet perde mais do que o dobro quando Satya Nadella rouba o destaque de Sundar Pichai na IA — Paolo Confino

O que os ganhos da Microsoft nos dizem sobre as tendências de IA e nuvem — Sheryl Estrada

A grande aposta da Amazon em Bedrock — Rachyl Jones

Wall Street está exigindo resultados financeiros que respaldem toda a agitação em torno da IA. Os últimos ganhos da Microsoft finalmente entregaram — Rachyl Jones

Reuniões no Zoom te deixam ansioso? Essa empresa está usando IA para te fazer sentir mais confiante em sua próxima chamada de vídeo —Megan Arnold e Rachyl Jones

CEO’s classificam o departamento de RH como a menor prioridade de investimento em IA —Paige Mcglauflin e Joseph Abrams

COMIDA PARA O CÉREBRO

Revolta contra a IA. Aqui está a história mais punk rock da IA da semana. Uma equipe de pesquisa da Universidade de Chicago criou uma ferramenta para permitir que artistas “envenenem” modelos de IA que são treinados com base em seu trabalho sem permissão. Chamada de Nightshade, a ferramenta permite que os artistas adicionem mudanças invisíveis aos pixels de sua arte antes de enviá-la online. Se a arte for adicionada a um conjunto de treinamento para geradores de imagens como DALL-E, Stable Diffusion ou Midjourney, pode quebrar o modelo resultante de maneiras imprevisíveis, como fazer com que os cachorros se tornem gatos nos dados, de acordo com o MIT Technology Review, que teve uma prévia da pesquisa.

“Os pesquisadores testaram o ataque nos modelos mais recentes do Stable Diffusion e em um modelo de IA que eles mesmos treinaram do zero. Quando eles alimentaram o Stable Diffusion com apenas 50 imagens envenenadas de cachorros e depois pediram para que ele criasse imagens de cachorros, o resultado começou a parecer estranho — criaturas com muitos membros e faces caricatas. Com 300 amostras envenenadas, um atacante pode manipular o Stable Diffusion para gerar imagens de cachorros que se parecem com gatos”, diz o artigo. (Já sabemos sobre alucinações da IA; isso é talvez semelhante a drogar intencionalmente uma IA com um alucinógeno.)

Entre as ações judiciais e agora os contra-ataques técnicos, está claro que artistas vão esgotar todos os recursos possíveis para impedir a exploração de seu trabalho e esforço pela IA. E você pode culpá-los? Até seus esforços para optar por não participar têm se mostrado inúteis, com mais de uma dúzia alegando em um artigo da Wired na semana passada que o processo de exclusão de dados da IA da Meta é apenas uma “farsa de relações públicas” e que na verdade é impossível optar por não ter seu trabalho usado nos dados de treinamento da empresa.

Quando a Wired perguntou à Meta sobre a crescente frustração com esse processo, a empresa respondeu que o formulário de solicitação de exclusão de dados não é uma ferramenta para optar por não participar e ressaltou que não tem nenhuma intenção de excluir as informações que estão em suas próprias plataformas.

“Acho que há alguma confusão sobre o que esse formulário é e os controles que oferecemos”, disse o porta-voz.