Sistemas de detecção de pedestres em carros autônomos têm menos probabilidade de detectar crianças e pessoas de cor, sugere estudo.

Estudo sugere que sistemas de detecção de pedestres em carros autônomos têm menor precisão ao detectar crianças e pessoas de cor.

  • Estudo mostra que os detectores de pedestres em carros autônomos são menos propensos a detectar crianças e pessoas de cor.
  • Isto ocorre devido a preconceitos em inteligência artificial de código aberto, que os carros autônomos dependem, dizem os pesquisadores.
  • Os pesquisadores estão pedindo aos legisladores que promulguem políticas para regular esses detectores.

À medida que a revolução da inteligência artificial se intensifica, uma tendência fica clara: os preconceitos no treinamento dos sistemas de IA resultam em práticas discriminatórias no mundo real.

Ferramentas de recrutamento com IA têm sido mostradas para discriminar mulheres. O ChatGPT demonstrou preconceitos racistas e discriminatórios. Em cada caso relatado de erro policial na identificação de um suspeito por meio da tecnologia de reconhecimento facial, a pessoa era negra.

E agora, novas pesquisas sugerem que até mesmo o software de detecção de pedestres em carros autônomos pode ser menos eficaz na detecção de pessoas de cor – assim como crianças em geral – como resultado de preconceitos em IA, colocando-as em maior risco de segurança à medida que mais fabricantes de automóveis utilizam a tecnologia.

Uma equipe de pesquisadores no Reino Unido e na China testou o desempenho de oito detectores populares de pedestres, dependendo da raça, gênero e idade de uma pessoa. Embora o gênero tenha apresentado apenas uma pequena discrepância na precisão, os pesquisadores descobriram que os sistemas de detecção eram menos precisos na detecção de pedestres com tons de pele mais escuros.

“Antes, indivíduos pertencentes a minorias podem ter sido negados serviços vitais. Agora, eles podem enfrentar ferimentos graves”, disse Jie Zhang, cientista da computação do King’s College London e membro da equipe de pesquisa, em comunicado.

De acordo com o estudo, os sistemas de detecção tinham 19,67% mais chances de detectar adultos do que crianças e 7,52% mais chances de detectar pessoas com tons de pele mais claros do que pessoas com tons de pele mais escuros.

“No geral, este estudo lança luz sobre as questões de justiça enfrentadas pelos detectores de pedestres existentes, enfatizando a importância de abordar o preconceito relacionado à idade e ao tom de pele”, diz o estudo. “Os insights obtidos podem pavimentar o caminho para sistemas de direção autônoma mais justos e imparciais no futuro.”

Essa tendência é resultado de preconceitos já presentes nos sistemas de IA de código aberto que muitas empresas utilizam para construir os detectores. Embora o estudo não tenha utilizado o mesmo software que empresas como a Tesla usam para alimentar carros autônomos, pois esses são confidenciais, os sistemas de software utilizados no estudo são baseados na mesma IA de código aberto que essas empresas usam, de acordo com Zhang.

A equipe de pesquisa pediu aos legisladores que regulamentem o software de carros autônomos para evitar preconceitos em seus sistemas de detecção.

“É essencial que os formuladores de políticas promulguem leis e regulamentos que protejam os direitos de todos os indivíduos e abordem essas preocupações de maneira adequada”, diz o estudo.