A busca da Europa para liderar a regulamentação em IA está seriamente em dúvida

A busca da Europa para ser a líder na regulamentação em IA está em séria dúvida

Os líderes da União Europeia esperavam que o projeto de lei pudesse ser finalizado na próxima semana em uma sessão “trílogo” a portas fechadas envolvendo negociadores das principais instituições do bloco. No entanto, as três maiores economias da UE – Alemanha, França e Itália – bagunçaram todo o processo na semana passada ao rejeitar inesperadamente o esforço (por parte do Parlamento Europeu e de outros países da UE) para que o AI Act regulamentasse os modelos de base. Em vez disso, o trio afirmou que desejava que os provedores de modelos de base, como a OpenAI, se auto-regulassem, com regras mais rigorosas aplicadas àqueles que fornecessem aplicações “de alto risco” que utilizam essa tecnologia subjacente (por exemplo, o aplicativo popular ChatGPT da OpenAI seria abrangido, mas o GPT-4, o modelo de base que alimenta o ChatGPT, não seria).

No caso de você estar admirado com o espetáculo de Alemanha e França sendo amigáveis ​​com as empresas de tecnologia dos EUA pela primeira vez, suas motivações provavelmente estão muito mais próximas de casa.

O governo da Alemanha é um entusiasta defensor da empresa local de IA, Aleph Alpha, que recebeu financiamento de titãs nacionais como SAP e Bosch. Também não pode prejudicar a sensação francesa de IA, o Mistral, que seus esforços de lobby estão sendo liderados pelo cofundador Cédric O, um aliado próximo de Emmanuel Macron que, até o ano passado, era seu ministro da economia digital. “Acredito firmemente que ex-detentores de cargos não devem se envolver em atividades políticas relacionadas à sua antiga pasta”, resmungou Max Tegmark, o presidente sueco-americano do Instituto Futuro da Vida a favor da segurança da IA, em uma discussão com O ontem.

A indústria europeia também fez lobby contra a regulamentação dos modelos de base, enquanto seu setor criativo adotou uma posição oposta, principalmente porque deseja que os provedores de modelos de base sejam transparentes sobre a procedência de seus dados de treinamento.

Independentemente das razões por trás da mudança de posição da Alemanha, França e Itália, o Parlamento Europeu não está impressionado. “Não podemos aceitar a proposta deles sobre modelos de base”, disse Axel Voss, um importante membro alemão do Parlamento, em um post na semana passada. “Além disso, até os padrões mínimos de autorregulação precisariam abranger transparência, cibersegurança e obrigações de informação, exatamente o que pedimos no AI Act. Não podemos fechar os olhos para os riscos.”

Novamente, essa lei deveria ser concluída em uma sessão final de trílogo em 6 de dezembro. A Comissão Europeia, que fez a proposta inicial para o AI Act, agora chegou a um texto de compromisso que evita mencionar “modelos de base”, mas obriga os fabricantes de “modelos de IA de propósito geral” especialmente poderosos (ou seja, modelos de base) a pelo menos documentá-los e submetê-los a monitoramento oficial. Isso é fraco em comparação com o que o Parlamento deseja, então as chances de isso ser aprovado para o próximo ano são bastante altas.

O problema é que 2024 será um momento ruim para uma legislação bem pensada, pois haverá eleições para o Parlamento Europeu em junho, após as quais haverá um novo Parlamento e uma nova Comissão. Portanto, realmente não há muito tempo para encontrar um compromisso.

“O fracasso do projeto ‘AI Act’ provavelmente seria um golpe amargo para todos os envolvidos, pois a UE sempre se viu como pioneira global em seus planos de regulamentar a inteligência artificial”, escreveu Benedikt Kohn, do escritório de advocacia Taylor Wessing, em um post de blog hoje que observa como os EUA recentemente deram passos significativos em relação à regulamentação da IA.

Mais notícias abaixo – embora, se você quiser ler mais sobre as regras em constante evolução da inteligência artificial, um grupo de países, incluindo os Estados Unidos, Reino Unido e Alemanha, acabou de lançar um conjunto de diretrizes de cibersegurança para empresas que estão desenvolvendo aplicações de IA.

David Meyer

Quer enviar pensamentos ou sugestões para a Data Sheet? Envie-nos uma mensagem aqui.

DESTAQUES

NO NOSSO FEED

“Os requisitos legais para a extradição do acusado KDH foram cumpridos, a pedido da Coreia do Sul e dos Estados Unidos da América.”

—Um tribunal de Montenegro determina que Kwon Do-hyung, mais conhecido como o fugitivo fundador da Terraform Labs, Do Kwon, será extraditado para enfrentar julgamento sobre o colapso criptográfico TerraUSD/Luna. Ainda não está claro se a Coreia do Sul ou os Estados Unidos o terão.

CASO VOCÊ TENHA PERDIDO

Funcionários do OpenAI teriam alertado o conselho sobre uma descoberta revolucionária em IA que pode ameaçar a humanidade antes de Sam Altman ser afastado, por Christiaan Hetzner

Novo CEO da Binance, Richard Teng, diz que a empresa tem um “cronograma robusto” para o conselho e divulgações financeiras, por Jeff John Roberts

Elon Musk menosprezou veículos híbridos como uma “fase”, enquanto a Toyota apostou neles. Agora, são um mercado “em alta” enquanto a demanda por veículos elétricos desacelera, por Steve Mollman

Elon Musk classifica os sindicatos da Suécia como “insanos” depois que greves paralisam as operações da Tesla – mas ceder a quaisquer demandas pode abrir precedente nos EUA e na Alemanha, por Christiaan Hetzner

Nvidia é processada após um funcionário sênior mostrar acidentalmente arquivos confidenciais de um empregador anterior durante uma reunião por vídeo, por Chloe Taylor

O conselho da OpenAI pode ter sido disfuncional, mas fez a escolha certa. Sua derrota mostra que na batalha entre lucros da IA e ética, não há dúvida, por Ann Skeet (Comentário)

Cuidado com os golpistas de criptografia que querem arruinar a festa da IA, por Kathleen Breitman (Comentário)

ANTES DE PARTIR

IA versus autenticidade. Após o Dicionário Collins adotar “IA” como a palavra do ano, a Merriam-Webster decidiu seguir na direção oposta com “autêntico(a)”.

Como o editor-chefe, Peter Sokolowski, explicou, as pessoas têm procurado muito essa palavra este ano: “Observamos em 2023 uma espécie de crise de autenticidade. O que percebemos é que, quando questionamos a autenticidade, valorizamos ainda mais.”