América lidera o mundo em IA, mas podemos ficar para trás na regulamentação da IA até o final de 2023.

América lidera IA, mas pode ficar para trás na regulamentação até 2023.

Embora grande parte da inovação em IA esteja ocorrendo nos Estados Unidos, outros governos ao redor do mundo estão se movendo mais rapidamente para moldar as regras futuras. Em novembro, o Reino Unido sediará uma cúpula global de IA. Até o final de 2023, a União Europeia terá finalizado sua Lei de IA, a lei de IA mais abrangente promulgada até o momento. O Japão terá finalizado sua abordagem de política de IA, ao mesmo tempo em que lidera um esforço do G7 para estabelecer padrões comuns para a governança da IA.

As empresas de software empresarial – fabricantes de sistemas de IA – começaram a pedir legislação nos Estados Unidos há quase dois anos – e a necessidade de agir apenas continua a se tornar mais urgente.

Há objetivos fundamentais em que todos devem concordar: a IA, em qualquer forma, não deve ser usada para cometer atos ilegais. Não deve ser usada para comprometer a privacidade, facilitar ciberataques, agravar a discriminação ou causar danos físicos. IA que é desenvolvida e implantada de forma responsável, melhora nossas vidas e nos torna mais seguros deve florescer.

O Congresso deve aproveitar o trabalho considerável que organizações governamentais, defensores da sociedade civil e grupos da indústria já fizeram para identificar os riscos do uso de IA em diversos contextos e as medidas concretas que as organizações podem tomar para mitigar esses riscos. Embora essas propostas tenham diferenças importantes, elas formam coletivamente uma base para ação.

Há indícios de que os legisladores dos Estados Unidos desejam agir. Vários membros do Congresso estão elaborando ou já apresentaram legislação relacionada à IA, e os senadores Schumer, Young, Heinrich e Rounds lançaram um processo destinado a desenvolver legislação bipartidária sobre IA dentro de “meses”.

No entanto, outros líderes parecem sugerir que o Congresso pode nunca ser capaz de aprovar uma legislação significativa sobre IA, dada a complexidade da tecnologia e a falta de compreensão entre os legisladores.

É importante estudar a questão antes de agir, mas isso, esperançosamente, não levará à inação em uma importante questão de política de tecnologia. Embora ninguém saiba completamente quais serão todos os aspectos positivos e negativos da IA, incluindo as novas implicações da IA generativa, não precisamos esperar para estabelecer regras básicas para proteger contra os riscos que são claros hoje.

A legislação deve exigir que as empresas que desenvolvem ou usam sistemas de IA em contextos de alto risco identifiquem e mitiguem os possíveis danos desses sistemas. Especificamente, a legislação deve exigir que as empresas realizem avaliações de impacto para sistemas de IA de alto risco, para que aqueles que desenvolvem e implantam IA encontrem e abordem os riscos potenciais. As avaliações de impacto já são amplamente utilizadas em uma variedade de outros campos – desde proteção ambiental até segurança de dados – como um mecanismo de responsabilidade. A mesma abordagem pode funcionar para a IA.

Estabelecer regras cuidadosas para a IA é fundamental para a vitalidade de nossa economia. Indústrias de todos os tipos e empresas de todos os tamanhos estão buscando maneiras de usar a IA para crescer. Países que facilitem melhor a adoção responsável e ampla da IA verão o maior crescimento econômico e de empregos nos próximos anos. Mas primeiro, os governos devem estabelecer leis sólidas que construam confiança e elevem os padrões de uso da IA.

Aprovar qualquer nova lei não é tarefa simples. Moldar uma discussão global significativa é demorado e difícil. Os Estados Unidos não podem perder esta janela de oportunidade que está se fechando rapidamente para liderar na legislação de IA.

Victoria Espinel é CEO da BSA – The Software Alliance, uma organização comercial global que representa a indústria de software empresarial.

As opiniões expressas nos artigos de comentários do ANBLE.com são exclusivamente as opiniões de seus autores e não refletem necessariamente as opiniões e crenças da ANBLE.