Uma pesquisa com chatgpt, um Inteligência Artificial (AI)Chatbot, pretendia facilitar o trabalho de uma equipe de advogados e encontrar exemplos de casos suplementares para seus argumentos em uma disputa perante o Supremo Tribunal em Pietermaritzburg, na província costeira de KwaZulu-Natal.
A ferramenta de IA fez exatamente isso, e os representantes legais apresentaram um aviso de apelação, no qual citaram várias autoridades e estudos de caso destacados pela ferramenta.
Mas quando o juiz conduziu uma pesquisa independente usando o ChatGPT para verificar uma das citações, ele descobriu a sua absoluta espanto de que muitos dos casos citados não foram incluídos em nenhum banco de dados legal reconhecido.
O Tribunal finalmente decidiu contra o demandante, afirmando na sentença por escrito: “O Tribunal ganhou a impressão de que os advogados depositaram falsa confiança na veracidade da pesquisa jurídica gerada por IA e, por preguiça, não conseguiu verificar esta pesquisa”.
Fatos arrancados do ar
Tayla Pinto, advogada especializada em IA, proteção de dados e lei de TI na Cidade do Cabo, vê uma ameaça crescente à profissão.
“Quando perguntado como isso aconteceu e de onde vieram as citações, o advogado admitiu usar a IA generativa”, disse Pinto à DW. “Isso mostra que o problema dos advogados não saberem usar a IA generativa de forma responsável e eticamente está crescendo”.
Segundo Pinto, há três casos em África do Sul em que os consultores jurídicos envolvidos usaram a IA para criar seus documentos judiciais. Em junho, houve uma aplicação incorreta semelhante de IA no caso trazida pela empresa de mineração processando para o norte contra o diamante sul -africano e a autoridade regulatória de metais preciosos.
Este também foi o caso em 2023 em um julgamento de difamação e no caso do Tribunal Superior de Pietermaritzburg, que causou um rebuliço no tribunal em 2024 e agora está sendo revisado pelo Conselho de Prática Jurídica e pela Associação de Advogados Provinciais.
O uso da IA deve ser ‘ético, responsável e consistente’
O caso de Pietermaritzburg foi trazido por Philani Godfrey Mavundla, que foi suspenso como prefeito do município de Umvoti em KwaZulu-Natal. Em primeira instância, ele até prevaleceu contra a autoridade regional responsável.
No entanto, este último apresentou um recurso – e seus advogados aparentemente se basearam cegamente na veracidade dos estudos de caso fornecidos pela IA perante o Supremo Tribunal.
Este não é um problema tecnológico, disse o advogado Pinto. “Sempre usamos a tecnologia na forma de calculadoras, verificadores de feitiços e gramáticos e assim por diante. Agora está se tornando um problema causado pelo homem”, disse ela.
“Dado o caminho e o ritmo em que a IA está se desenvolvendo, se quisermos usar a IA, devemos garantir que o façamos de uma maneira que seja ética, responsável e consistente com as funções que assumimos como profissão jurídica”.
O Tribunal negou improcedente a solicitação de Mavundla de recorrer do caso de liderança da comunidade com base em uma baixa perspectiva de sucesso e criticou o argumento do caso como defeituoso e não profissional.
O juiz ordenou que o escritório de advocacia de Mavundla pagasse as custas de participações judiciais adicionais. Com essa ordem, o Tribunal expressou sua desaprovação da conduta do escritório de advocacia ao enviar evidências legais não verificadas e fictícias.
Uma cópia do julgamento foi enviada ao Conselho de Prática Jurídica em KwaZulu-Natal para investigação e possível ação disciplinar contra os advogados envolvidos.
O abuso de conteúdo gerado pela IA ‘cria desconfiança entre os juízes’
Muito poucas queixas formais foram apresentadas, embora vários assuntos estejam começando a ser encaminhados ao Conselho de Prática Jurídica (LPC) para analisar, confirmou Kabelo Letebele, porta -voz do Tribunal de Prática Legal de Joanesburgo.
O LPC continua a monitorar desenvolvimentos e tendências em torno da inteligência artificial, disse ele. “Nesse estágio, o LPC sustenta que ainda não há uma necessidade de uma nova regra ética e que nossas regras, regulamentação e código de conduta existentes sejam adequadamente para lidar com reclamações que regulam o uso da IA – mesmo que o debate continue no LPC”, disse ele à DW.
Segundo Letebele, os profissionais jurídicos são advertidos contra cegamente citar a jurisprudência adquirida usando ferramentas de IA, pois casos em que existem imprecisões serão considerados negligência e como potencialmente enganosos para o tribunal.
Ele enfatizou que a Biblioteca de Direito do LPC está disponível para os profissionais jurídicos, sem nenhum custo, e os profissionais podem verificar e encontrar informações mais recentes sobre leis de caso e pesquisas legais necessárias ao preparar questões legais.
Além disso, os webinars de conscientização são conduzidos para que os profissionais do direito destacem questões específicas e lhes diga como eles podem evitar estar em violação de regras, regulamentos e código de conduta do LPC.
Juízes, promotores e funcionários do tribunal precisam estar cientes de que resumos e argumentos agora podem conter não apenas erros humanos, mas também erros de IA.
“Os juízes dependem muito das submissões de advogados durante as audiências, especialmente em aspectos legais”, disse Mbekezeli Benjamin, advogado de direitos humanos e orador da Judges Matter, que defende mais transparência e responsabilidade.
Benjamin disse que estava preocupado com os advogados confiando muito no uso da IA, cuja suscetibilidade ao erro poderia enganar o tribunal.
“Isso enfraquece significativamente o processo judicial porque, infelizmente, cria desconfiança entre os juízes sobre a precisão das declarações feitas por advogados em seus argumentos”, afirmou.
‘Diretrizes claras’, revisou o Código de Conduta necessário para o uso da IA
O advogado Tayla Pinto não vê necessidade de regulamentação específica do uso da IA para pesquisas judiciais, mas vê a necessidade de atenção especial à revisão das referências enviadas usando a IA e a conformidade com os padrões éticos.
No entanto, Benjamin disse que os avisos dentro da profissão jurídica para revisar o uso de ferramentas de IA na produção não eram suficientes. “A Câmara deve emitir diretrizes claras, incluindo uma emenda ao Código de Conduta, para regular como a IA deve ser usada em procedimentos judiciais. Mas também deixa claro que a dependência excessiva sem revisar o conteúdo da IA constitui uma má conduta profissional”, disse ele.
Benjamin também pediu uma revisão do Código de Conduta da profissão, para que o uso inadequado da inteligência artificial possa ser punido como uma violação de dever com uma multa pesada, ou mesmo exclusão ou remoção do Registro de Profissionais Jurídicos.
A Sociedade de Direito da África do Sul alertou que mesmo a submissão inadvertida de informações falsas pode arruinar uma carreira.
Editado por: Benita van Eyssen
Correção, 23 de julho de 2025: Uma versão anterior deste artigo errou o nome de Kabelo Letebele. DW pede desculpas pelo erro.



