Juízes do Reino Unido recebem luz verde para usar o ChatGPT para auxiliar na redação de decisões legais, apesar do risco de ele citar casos falsos.

Juízes do Reino Unido têm sinal verde para contar com a ajuda do ChatGPT na redação de decisões legais, mesmo com o risco de ele mencionar casos fictícios.

Translation:

  • Os juízes na Inglaterra e no País de Gales poderão usar a inteligência artificial (IA) para auxiliar em algumas de suas tarefas.
  • O Escritório Judicial do Reino Unido emitiu orientações sobre como eles podem utilizá-la.
  • Isso ocorre após um advogado usar o ChatGPT para redigir um breve para o tribunal que continha seis casos falsos.

Os juízes na Inglaterra e no País de Gales receberam sinal verde para utilizar a IA em partes de seu trabalho.

A decisão foi tomada apesar de casos em que a IA foi utilizada no sistema jurídico, resultando em resultados previsivelmente ruins.

O Escritório Judicial do Reino Unido, que supervisiona os juízes, emitiu orientações na terça-feira, delineando como a IA pode ser útil para algumas tarefas. Também destaca áreas em que o uso da IA não é recomendado.

Quanto às formas como as ferramentas de IA podem ser úteis nas tarefas, as orientações afirmam que elas podem ajudar a resumir grandes quantidades de texto e redigir apresentações, e-mails e decisões judiciais sobre um caso. No entanto, pareceu advertir contra o uso da IA para pesquisa e análise jurídica.

Provavelmente isso ocorreu devido ao fracasso de um advogado ao tentar utilizar a IA no tribunal no início do ano, citando casos falsos como resultado de “alucinações.”

Um advogado usou o ChatGPT para redigir um breve para o tribunal que continha referências a seis casos falsos. O escritório de advocacia onde ele trabalhava foi multado em $5.000 depois que o tribunal não conseguiu localizar os casos citados.

Em outra situação deste ano, uma mulher utilizou a IA para representar a si mesma em vez de contratar um advogado. Ela utilizou um chatbot com IA para apresentar jurisprudência em um recurso contra uma penalidade tributária que ela havia recebido, segundo o Telegraph.

A mulher perdeu o recurso depois que foi descoberto que os nove casos citados como parte de sua defesa eram inventados, embora ela não soubesse disso, afirmou o relatório.

As orientações do Escritório Judicial tentam alertar os juízes sobre esses perigos e afirmam que eles “devem estar cientes dos riscos potenciais”. Adverte que a IA pode ser usada pelo público em casos ou, pior ainda, para criar evidências falsas.

“Os chatbots de IA estão sendo utilizados agora por litigantes não representados”, diz as orientações. “Eles podem ser a única fonte de conselho ou assistência que alguns litigantes recebem. Raramente os litigantes têm habilidades independentes para verificar as informações jurídicas fornecidas pelos chatbots de IA e podem não estar cientes de que estão sujeitas a erros”.