As empresas estão correndo para adotar a IA. Executivos e ANBLEs alertam sobre as consequências não intencionais ‘você tem que assumir que algo vai dar errado’.

As empresas estão sobrecarregadas com a corrida para adotar a IA. Executivos e ANBLEs alertam sobre as consequências não intencionais - 'Assuma que algo dará errado!

Existe uma boa razão para toda essa especulação: a IA responsável ainda não foi definida, disseram os palestrantes na Cúpula das Mulheres Mais Poderosas da ANBLE, em Laguna Niguel, Califórnia.

Acadêmicos, governos e empresas simplesmente ainda não sabem a resposta, explicou Susan Athey, ex-chefe ANBLE da Divisão Antitruste do Departamento de Justiça dos Estados Unidos e professora da Stanford Graduate School of Business.

“Esta será uma agenda de pesquisa conjunta entre acadêmicos, governo e indústria”, disse Athey. “Acho que é uma jornada de 10 anos, no mínimo, até que realmente tenhamos uma resposta sobre se podemos dizer que esse sistema é profundamente responsável em todos os aspectos importantes.”

Regulamentações de IA não resolvem tudo

Barbara Cosgrove, vice-presidente e diretora de privacidade da Workday, disse que não espera que nenhuma das próximas regulamentações ajude a implementar a IA responsável. Atualmente, a IA responsável é definida no nível da empresa e grande parte dela é baseada em valores e no que pode ser feito legalmente, disse Cosgrove. Na Workday, ela explicou que analisaram como queriam estabelecer os limites para a IA responsável na empresa e se certificaram de definir seus princípios éticos de IA nesse nível, para que pudessem então construir programas de governança.

“Nosso mais importante”, afirmou Cosgrove, “é garantir que estamos adotando uma abordagem centrada no ser humano, que não estamos substituindo os seres humanos, que os seres humanos continuarão sendo o centro do que fazemos. Estamos melhorando as experiências, ajudando a amplificar o potencial humano, mas não estamos substituindo-o.”

Karin Klein, sócia fundadora da Bloomberg Beta, explicou que a IA responsável realmente significa dar um passo atrás e analisar o processo de fluxo de dados por uma organização até chegar ao cliente.

“Começando pelo uso dos dados, há equidade e transparência em relação ao conjunto de dados? Como os algoritmos e modelos estão sendo criados? Quais são as aplicações da saída? Em seguida, testar rigorosamente e dar um passo atrás e continuar [a observar] para ver se os valores que foram inicialmente modelados estão sendo consistentes”, compartilhou Klein.

Riscos de privacidade

E, estabelecer e entender a IA responsável depende de cada empresa e do que essa empresa está tentando realizar, disse Susannah Stroud Wright, diretora jurídica da Credit Karma. Estamos em um ponto em que é preciso assumir que algo pode, ou vai, dar errado ao estabelecer como desenvolver e usar a IA de forma responsável, disse Klein – isso é algo que ela procura ao apoiar os fundadores.

“O mundo em que vivemos agora, com a IA, você tem que assumir que algo vai dar errado”, disse Klein. “Pode haver uma alucinação, pode haver dados usados de maneira incorreta. Desde que as pessoas com as quais você está trabalhando, seja uma startup ou uma grande empresa, tenham o foco certo em transparência e comunicação, você estará bem posicionado para lidar com os desafios.”

Quanto à privacidade e ao impacto que a IA pode ter, Cosgrove disse que os dois podem coexistir, apesar do que alguns possam dizer – já existem leis e regulamentações de privacidade que se aplicam ao uso da IA.

“Eles não se chocam”, disse ela. “Mas eu costumo ouvir que ‘vou simplesmente parar de usar a IA porque estou preocupado com a privacidade’, e não há como parar. Quero dizer, as organizações de todos já estão usando.”

Os consumidores e as empresas querem privacidade, mas as empresas que são clientes de IA estão exigindo isso, disse Athey, então o mercado está respondendo. E, é claro, as empresas que prometem privacidade realmente devem cumprir suas promessas, acrescentou Athey, mas isso está avançando a discussão sobre privacidade no contexto da IA.