O que os erros de Mao podem nos ensinar sobre o Grande Salto Adiante da Inteligência Artificial

Erros de Mao e o Grande Salto Adiante da IA

Mao veio pronto para fazer um ponto: a demografia tornava certo que a China se tornaria uma potência mundial em breve. Então, em um jantar uma noite, quando Khrushchev se gabou de que a União Soviética superaria a produção agrícola dos Estados Unidos em 15 anos, Mao não resistiu: “Posso dizer a você que em 15 anos, podemos muito bem alcançar ou ultrapassar [a produção de aço da Grã-Bretanha].” Tragicamente, isso se tornou política – o Grande Salto Adiante. A coletivização resultante e a mudança abrupta da agricultura para a produção de aço foram um desastre. Milhões morreram.

Estamos no limiar de outra grande potencialidade – a chegada da A.I. generativa. Mas a história mostra que o início de uma nova aventura – seja a industrialização da China ou o desenvolvimento da A.I. generativa – não é o melhor momento para projeções. Assim, a estimativa recente da McKinsey de que a A.I. generativa poderia adicionar “o equivalente a US$ 2,6 trilhões a US$ 4,4 trilhões anualmente deve despertar suspeitas saudáveis (o PIB total do Reino Unido em 2021 foi de US$ 3,1 trilhões).

Nos encontramos no topo de uma montanha com uma vista particularmente cênica. Tudo é possível para a A.I. porque, na verdade, tão pouco aconteceu. E, assim como o potencial demográfico chinês da década de 1950, a possibilidade de crescimento (em todos os sentidos) parece ilimitada. No entanto, muito é desconhecido. De fato, parece que as empresas mais criativas concebidas pelo homem podem ser interrompidas primeiro – a escrita, a arte, especialmente a música. Isso não teria sido o palpite de ninguém há vinte anos. Eles teriam escolhido a contabilidade.

Os líderes devem se envolver com essa nova tecnologia, conscientes de que as projeções no topo das montanhas geralmente são errantes e, às vezes, perigosas.

Em primeiro lugar, há a questão da lei existente. Regulamentações como o GDPR da UE e até mesmo algumas leis estaduais abrangentes de privacidade nos EUA exigem que as empresas forneçam opções de exclusão de “tomada de decisão automatizada”.

Qualquer decisão que afete os direitos legais ou de privacidade de um indivíduo que seja tomada exclusivamente por uma máquina ou algoritmo deve ser precisa, justa e passível de recurso. Deve haver uma metodologia para a revisão de casos individuais. Em alguns casos, os indivíduos devem ter a capacidade de optar por não participar, solicitar seus dados, entender a conclusão alcançada pela A.I. e, em última instância, ter seus dados pessoais excluídos.

Isso significa não apenas avaliar os programas de A.I. em si, mas também (e talvez mais) sua integração em programas e processos existentes.

Em seguida, há a questão da regulamentação futura, que provavelmente seguirá um dos dois caminhos. As regulamentações podem ser fragmentadas e politicamente erráticas, como tem sido o caso das criptomoedas. O que será possível em uma jurisdição será proibido em outra. Isso incluirá tanto as entradas (que dados podemos usar para treinar/construir/desenvolver) quanto as saídas (o que podemos fazer com a A.I.). Assim, a seleção de jurisdições (e conjuntos de dados) desde o início será fundamental. Isso parece ser o caminho mais provável no momento.

Alternativamente, as principais potências mundiais poderiam harmonizar seus esforços regulatórios. Rishi Sunak, o primeiro-ministro do Reino Unido, anunciou recentemente que o Reino Unido sediará uma cúpula global sobre inteligência artificial – o objetivo claro do evento é a harmonização, e de fato, seu secretário de Relações Exteriores ecoou esses apelos ao presidir uma reunião da ONU com foco em A.I. que ocorreu em 18 de julho. Mas uma análise superficial do estado atual da legislação ao redor do mundo indica que há muito trabalho a ser feito.

A UE continua a considerar um A.I. Act que imporia obrigações significativas ex ante aos fornecedores de qualquer sistema de A.I. de alto risco, uma obrigação que poderia ter o efeito de praticamente interromper a inovação em A.I. na região.

Os EUA têm sido mais cautelosos e ainda não propuseram legislação federal sobre o assunto, embora projetos de lei mais específicos tenham sido propostos e alguns estados e localidades tenham abordado o uso de A.I. em contextos limitados.

A China até agora impediu o acesso ao ChatGPT e anunciou recentemente diretrizes atualizadas para a A.I. generativa. Mas, como a reação da China às criptomoedas deixou claro, tais regulamentações não devem ser consideradas a palavra final, à medida que os interesses da China mudam. A Rússia indicou na reunião de 18 de julho que a questão era complexa e a ONU pode não ser o melhor lugar para lidar com ela.

revolucionar a segurança, a economia, a produtividade dos trabalhadores, o pensamento, a arte, o discurso e o próprio destino do homem – mas é exatamente isso que é afirmado sobre a A.I.

Em termos de impacto, está sendo comparado ao advento da eletricidade, do telégrafo e da imprensa, e isso pode até subestimar a questão. A diferença é que a inteligência artificial é inherentemente mais imprevisível porque, em um nível fundamental, o arco de seu desenvolvimento está além do humano – e, até certo ponto, além do nosso controle.

Estamos em um ponto de inflexão. A história nos julgará, e nos julgará severamente, se não soubermos apreciar os perigos deste momento crucial, ou, inversamente, reprimir algum grande potencial. Devemos lembrar do Grande Salto Adiante – um grande potencial pode enganar tanto quanto pode empolgar. Devemos abordar este novo momento com humildade, estar prontos para reavaliar nossas suposições e nos envolvermos construtivamente com críticas sinceras – mesmo que isso signifique abandonar nossas aspirações diante do perigo.

Christian Auty é sócio da Bryan Cave Leighton Paisner e líder da equipe de Privacidade e Segurança de Dados Globais dos EUA da empresa. Ele pode ser contatado pelo email [email protected]

As opiniões expressas nos artigos de comentários da ANBLE.com são exclusivamente as visões de seus autores e não refletem necessariamente as opiniões e crenças da ANBLE.

Mais comentários imperdíveis publicados pela ANBLE:

  • O movimento FIRE está ganhando popularidade – mas aposentados precoces relatam se sentir perdidos e insatisfeitos
  • America recorreu aos programas de hospital em casa durante a pandemia – mas seu sucesso surpreendente exige uma solução permanente
  • ‘The Feckless 400’: Essas empresas ainda estão fazendo negócios na Rússia – e financiando a guerra de Putin
  • Daniel Lubetzky: ‘Você não pode fazer grandes compromissos com ESG enquanto falha nos princípios básicos da bondade’