CEO da Indeed ‘A IA está mudando a forma como encontramos empregos e como trabalhamos. Pessoas como eu não devem estar sozinhas na tomada de decisões que afetam milhões de pessoas.

CEO of Indeed AI is changing how we find jobs and how we work. People like me shouldn't be alone in making decisions that affect millions of people.

Vou começar com algumas preocupações. A primeira é sobre empregos. Na Indeed, nossa missão é ajudar as pessoas a conseguirem empregos. Passamos todos os dias pensando no impacto da tecnologia nas vidas das pessoas. A questão de se a tecnologia vai ajudar ou prejudicar os empregos remonta ao início do século XIX, quando tecelões artesãos na Inglaterra – os Luddites – destruíram as máquinas que ameaçavam substituí-los. É possível que milhares de anos antes disso, alguém tenha tentado quebrar uma roda porque seu emprego estava em risco.

Ondas de inovação tecnológica – e disrupção – têm ficado cada vez mais rápidas ao longo do tempo. Enquanto os efeitos da Revolução Industrial se aceleraram gradualmente ao longo de muitas gerações, as indústrias de viagens, varejo e música foram viradas de cabeça para baixo pela Internet em uma década. Com a inteligência artificial, é concebível que os estudantes possam aprender habilidades na faculdade que estejam obsoletas quando se formarem.

Gostaria de aproveitar esta oportunidade para oferecer desculpas em nome de todos os tecnólogos. Os evangelistas da tecnologia usam a palavra “disrupção” como se fosse puramente positiva. Apresentamos novas tecnologias para “disruptir a indústria de viagens” ou “disruptir a indústria de transporte”. Embora os consumidores se beneficiem com a conveniência e o custo, e ao longo do tempo mais empregos sejam criados, a consequência imediata é perturbar a vida de agentes de viagens e motoristas de táxi. “Luddite” passou a significar “anti-progresso” – mas precisamos lembrar que seus medos eram legítimos.

Tão preocupado quanto estou com os empregos, tenho uma preocupação ainda mais profunda sobre o viés. A inteligência artificial é alimentada por dados, dados que vêm de seres humanos, e os seres humanos são falíveis. Isso é especialmente verdadeiro no emprego: em um estudo bem conhecido de 2003, nomes que soavam como negros receberam 50% menos retornos de chamadas para entrevistas do que nomes que soavam como brancos, mesmo com currículos idênticos. Quando os modelos de IA são construídos a partir de dados com viés embutido, os modelos resultantes replicam e ampliam esse viés.

Um estudo recente representou graficamente esse fenômeno. Quando solicitado a criar imagens relacionadas a cargos de trabalho e crime, a IA generativa ampliou estereótipos sobre raça e gênero. Americanos brancos representam 70% dos trabalhadores de fast-food, mas 70% dos resultados das imagens representam trabalhadores com tons de pele mais escuros. As mulheres representam 39% dos médicos, mas apenas 7% dos resultados das imagens. Ao longo do estudo, cargos mais bem remunerados foram representados principalmente por trabalhadores do sexo masculino e com pele mais clara, enquanto empregos menos remunerados foram dominados por trabalhadoras do sexo feminino e com pele mais escura. Imagens geradas para “detento”, “traficante de drogas” e “terrorista” também ampliaram estereótipos.

Então sim, tenho consideráveis preocupações com a IA. Apesar dessas preocupações, também estou muito animado.

Os avanços recentes na IA têm sido impressionantes. Apenas nos últimos anos, vimos agricultores usando IA para combater pragas e doenças, e um implante cerebral movido a IA que ajudou um homem paralisado a caminhar usando seus pensamentos. A mais recente queridinha da IA, ChatGPT, estabeleceu novos padrões para máquinas em proezas de suposta inteligência humana, obtendo pontuações no percentil ~90 no SAT, GRE, LSAT e no Exame de Barra Uniforme, obtendo nota 4 ou 5 em 13 exames AP diferentes e até mesmo se saindo bem em teoria de sommelier do nível introdutório ao avançado.

A IA também ajuda as pessoas a conseguirem empregos. 350 milhões de candidatos a emprego visitam a Indeed todos os meses, e a IA impulsiona suas conexões simples e rápidas com 30 milhões de empregos. Graças à IA, alguém é contratado na Indeed a cada três segundos.

Apesar da inovação surpreendente ao nosso redor, a IA ainda está em sua infância. Se esperamos continuar a beneficiar da promessa da IA, precisamos dedicar um tempo considerável e energia para lidar com os riscos.

O primeiro passo é admitir que temos um problema. Viés, toxicidade e ódio são misturados com os sinais úteis que permitem que a IA resolva problemas significativos. Em resposta, estabelecemos uma equipe de IA Responsável dedicada a construir um produto justo para candidatos a emprego e empregadores, medindo e mitigando o viés injusto em nossos produtos algorítmicos. Os membros da equipe vão desde astrofísicos até sociólogos, e sua abordagem combina avaliações de imparcialidade, criação de ferramentas, educação e sensibilização. Acreditamos que a imparcialidade algorítmica não é um problema puramente técnico com soluções puramente técnicas. Nosso trabalho trata a imparcialidade como um problema sócio-técnico – incorporado tanto na tecnologia quanto nos sistemas sociais que interagem com ela.

No início deste ano, tive a oportunidade de conversar com o historiador Dr. Ibram X Kendi, que apresentou essa questão com clareza impressionante: “Vejo o maior perigo como a suposição de que a IA é realmente artificial, que os humanos não criaram a IA e que os humanos não inseriram suas próprias ideias racistas, sexistas e etnocêntricas na IA que eles criaram. Se nós, como seres humanos, afirmarmos que a inteligência artificial é fundamentalmente artificial, então ela se tornará uma nova forma de excluir pessoas por causa de sua raça, e isso será defensável”.

Para construir sistemas de IA verdadeiramente responsáveis, precisamos mudar fundamentalmente a maneira como os construímos. Para começar, precisamos preparar a geração atual e futura de trabalhadores de tecnologia para as implicações profundas da tecnologia e seu impacto na vida das pessoas. Além de estatísticas e álgebra linear, os tecnólogos deveriam ser obrigados a estudar história, filosofia, ética e literatura. Um código de ética formal para os profissionais de IA, como uma adaptação do juramento hipocrático dos médicos, seria um ponto de partida importante.

De forma crítica, precisamos mudar quem está construindo esses sistemas. Todos os dias, pessoas estão tomando decisões vitais em salas com pouca ou nenhuma representação de grupos marginalizados – aqueles que são mais propensos a serem impactados negativamente por essas decisões. As mulheres representam cerca de 20% dos recentes doutorados em Ciência da Computação – e apenas 6% dos doutorados são de pessoas negras ou latinx. Digo isso como um homem branco, heterossexual e cisgênero: pessoas como eu não devem estar sozinhas tomando decisões que afetam milhões de pessoas. A representação por si só não resolverá os desafios fundamentais enfrentados pela IA, mas acredito que não superaremos esses desafios se os grupos marginalizados não tiverem um assento equitativo à mesa.

Estamos diante de uma encruzilhada de inovação e disrupção extraordinárias. Com grande poder vem grande responsabilidade. Se quisermos garantir que a IA beneficie toda a humanidade, precisamos abraçar nossa responsabilidade e colocar a humanidade no centro.

Chris Hyams é o CEO do Indeed.

As opiniões expressas nos artigos de comentário da ANBLE.com são exclusivamente as opiniões de seus autores e não refletem necessariamente as opiniões e crenças da ANBLE.