As primeiras regras reais de IA do mundo estão chegando em breve. Veja como elas vão ser.

As primeiras regras reais de IA do mundo estão a caminho! Descubra como elas vão revolucionar tudo!

  • Governos ao redor do mundo estão em diferentes estágios de criação e implementação de regulamentações de IA.
  • A União Europeia pode ser a primeira a implementar regulamentação de IA generativa. A China adota uma postura mais restritiva.
  • Os Estados Unidos têm contado com especialistas do setor, enquanto a União Europeia e o Brasil visam estabelecer um sistema categórico.

A IA generativa explodiu na consciência pública no final de 2022. Daqui a um ano, essa tecnologia poderá ser uma das mais regulamentadas do setor.

Em todo o mundo, desde os Estados Unidos até a União Europeia e o Brasil, os legisladores estão urgentemente considerando, e no caso da China, implementando regras para gerenciar a IA e conter alguns dos casos de uso mais alarmantes.

A União Europeia provavelmente será a primeira região a implementar algum tipo de supervisão ou regulamentação em relação à IA generativa. A Comissão Europeia, que inclui duas dezenas de países, está em negociações avançadas sobre o AI Act, que foi denominado “as primeiras regras do mundo sobre IA”. A expectativa é de que uma versão final do AI Act seja acordada este ano, o que significa que entraria em vigor no final de 2025.

Algumas ferramentas de IA podem ser proibidas na Europa

A Lei foi proposta pela primeira vez em 2021, antes de a OpenAI lançar suas ferramentas de IA generativa ChatGPT e DALL-E, levando empresas como Meta, Google e Microsoft a se tornarem jogadores públicos e importantes defensores da IA generativa.

O projeto de regulamentação da União Europeia foi atualizado este ano. Atualmente, o maior esforço do AI Act é categorizar modelos e ferramentas de IA que representam risco “alto” ou são simplesmente “inaceitáveis”. A IA que se enquadra na categoria de alto risco inclui coisas como identificação biométrica, educação, gerenciamento de trabalhadores, sistema jurídico e aplicação da lei, juntamente com qualquer ferramenta que precise ser “avaliada” e aprovada antes do lançamento.

Ferramentas e usos de IA considerados “inaceitáveis” serão proibidos na União Europeia, de acordo com o AI Act. Isso inclui “sistemas de identificação biométrica remota”, ou tecnologia de reconhecimento facial, “pontuação social”, ou classificação de pessoas com base em classe econômica e características pessoais, e “manipulação comportamental cognitiva”, como brinquedos ativados por voz com IA.

Em relação à IA generativa, de acordo com as regras propostas pela União Europeia, a divulgação de conteúdo artificialmente gerado será obrigatória, assim como a divulgação dos dados utilizados para treinar qualquer modelo de linguagem grande. Diante do aumento da atenção e das ações judiciais de autores e outros criadores de conteúdo que foi roubado da internet e coletado para treinamento em grandes conjuntos de dados, as empresas por trás das ferramentas de IA e dos modelos de linguagem grande começaram a não especificar a origem de seus dados de treinamento. As empresas também precisarão demonstrar que trabalharam para mitigar riscos legais antes de lançar novas ferramentas e modelos e registrar todos os modelos fundamentais em um banco de dados mantido pela Comissão Europeia.

A abordagem dos Estados Unidos

Os Estados Unidos estão atrás da União Europeia em termos de regulação da IA. Em setembro, a Casa Branca declarou que está “desenvolvendo uma ordem executiva” sobre a tecnologia e seguirá uma “regulamentação bipartidária”. Embora a Casa Branca tenha buscado ativamente aconselhamento de especialistas do setor, o Senado realizou apenas uma audiência e um “Fórum de IA” a portas fechadas com líderes das principais empresas de tecnologia. Nenhum dos eventos resultou em muita ação, apesar de Mark Zuckerberg ter sido confrontado durante o fórum com o fato de o modelo Llama 2 da Meta fornecer um guia detalhado para fazer antraz. Ainda assim, os legisladores americanos afirmam estar comprometidos com algum tipo de regulamentação da IA.

“Não há dúvida de que haverá regulamentação”, disse o senador Richard Blumenthal durante a audiência.

As leis de direitos autorais nos Estados Unidos também podem mudar. Em agosto, o Escritório de Direitos Autorais declarou que está considerando ação ou novas regras federais em relação à IA generativa devido ao “amplo debate público sobre o que esses sistemas podem significar para o futuro das indústrias criativas”. Foi aberto um período de comentários públicos até o início de novembro, e já foram recebidas mais de 7.500 contribuições.

O que está acontecendo no Reino Unido

O Reino Unido, por sua vez, quer se tornar uma “superpotência de IA”, de acordo com um artigo de março do seu Departamento de Ciência, Inovação e Tecnologia. Embora o órgão governamental tenha criado um “laboratório experimental regulatório para IA”, o Reino Unido não tem intenção imediata de introduzir qualquer nova legislação para supervisioná-la. Em vez disso, pretende avaliar a IA à medida que avança.

“Ao apressarmos a legislação muito cedo, corremos o risco de impor ônus indevidos às empresas”, disse Michelle Donnelan, Secretária de Estado de Ciência, Inovação e Tecnologia. “Conforme a tecnologia evolui, nossa abordagem regulatória também pode precisar se ajustar.”

Brasil e China

O Brasil está seguindo uma abordagem semelhante à da UE na categorização de ferramentas e usos de IA como “alto” ou “excessivo” risco e banirá aqueles encontrados na última categoria em uma atualização de projeto de lei no início deste ano. A lei proposta foi descrita pela empresa consultora de tecnologia Access Partnership como tendo um foco “sólido em direitos humanos” ao delinear um “regime de responsabilidade estrita”. O Brasil está prestes a responsabilizar criadores de um LLM por danos causados por qualquer sistema de IA considerado “de alto risco”.

No entanto, é na China que algumas das únicas novas regulamentações sobre IA foram promulgadas. Apesar do uso generalizado de coisas como reconhecimento facial para vigilância governamental, a China nos últimos dois anos promulgou regras sobre algoritmos de recomendação, um caso de uso fundamental para IA, e no ano seguinte regras adicionais sobre tecnologia de “síntese profunda”, mais conhecida como “deepfakes”. Agora, ela pretende regular a IA generativa. Um dos requisitos mais destacados em um projeto de lei é que qualquer LLM, e seus dados de treinamento, precisa ser “verdadeiro e preciso”.

Apenas esse requisito já pode ser suficiente para manter a IA generativa de nível consumidor quase totalmente fora da China. Conforme colocado em um relatório sobre as regras da China pelo Carnegie Endowment for International Peace, um think tank apartidário, é “um obstáculo potencialmente intransponível para os chatbots de IA”.