28/01/2026

Juíza aponta erros em inicial feita por IA e adverte advogado por litigância de má-fé

Por Eduardo Velozo Fuccia/Vade News em 28/01/2026 às 06:00

Pixabay
Pixabay

O uso de inteligência artificial (IA) na petição inicial de uma ação reivindicatória de imissão na posse gerou “vícios formais extremamente graves”, conforme a juíza Bruna de Oliveira Farias, da 1ª Vara Cível, de Família, de Sucessões e da Infância e Juventude de Planaltina (GO). Ela advertiu o advogado por litigância de má-fé e determinou a emenda da peça para a correção dos erros.

“A petição inicial apresenta características típicas de texto gerado por ferramenta de inteligência artificial sem a devida supervisão profissional”, anotou a julgadora. Ela detectou expressões próprias de “resposta de assistente virtual” e de material acadêmico, que não são adequadas para uma peça processual.

Sob pena de indeferimento da inicial e extinção do processo sem resolução do mérito, todos os vícios deverão ser sanados em 15 dias. A juíza também determinou a expedição de ofício à Ordem dos Advogados do Brasil, Seccional do Distrito Federal (OAB-DF), para comunicar a “atuação profissional irregular” do advogado que assina a peça.

Independentemente da adoção das providências disciplinares cabíveis pelo órgão de classe, a magistrada advertiu em sua decisão que, na hipótese de reincidência, poderão ser aplicadas as sanções previstas para a litigância de má-fé, nos termos dos artigos 77 a 81 do Código de Processo Civil (CPC).

“A utilização de ferramentas de inteligência artificial na elaboração de petições exige supervisão humana rigorosa, especialmente quanto à verificação da veracidade de citações doutrinárias e jurisprudenciais”, destacou Bruna Farias. A julgadora apontou como “contradição insanável” a identificação do réu.

Embora o suposto invasor do imóvel seja identificado na inicial com determinado nome, ele é chamado repetidamente por outro no decorrer do texto. Para a juíza, isso evidencia que a ferramenta de IA possivelmente foi treinada com um caso hipotético envolvendo uma pessoa fictícia, sem a adaptação ao caso real e a devida revisão humana.

“Alucinações”

A jurisprudência tem reconhecido os riscos das “alucinações” de IA, fenômeno pelo qual ferramentas como o ChatGPT criam dados inexistentes ou inventam julgados. Por esse motivo, nos autos da Reclamação nº 78.890/BA, o ministro Cristiano Zanin, do Supremo Tribunal Federal (STF), impôs multa por litigância de má-fé a um advogado.

A julgadora salientou que a IA deve ser ferramenta de apoio, jamais substituta do raciocínio jurídico, sendo o advogado responsável pelo conteúdo produzido. No caso em análise, ela vislumbrou violação à Recomendação nº 1/2024 do Conselho Federal da OAB, que estabelece diretrizes para o uso de inteligência artificial na advocacia.

Bruna ainda fundamentou a sua decisão no Estatuto da Advocacia, que impõe ao advogado o dever de não apresentar peças manifestamente defeituosas; no Código de Ética e Disciplina da OAB, que estabelece o dever de atuar com zelo e diligência, e no artigo 5º do CPC, que impõe às partes o dever de boa-fé processual.

“Houve violação aos deveres éticos e processuais, e não há como conferir validade a argumentação potencialmente criada por IA sem respaldo na realidade jurídica, constituindo desrespeito ao Poder Judiciário, às partes e à advocacia”, concluiu a magistrada.

Por Eduardo Velozo Fuccia/Vade News

loading...

Este site usa cookies para personalizar conteúdo e analisar o tráfego do site. Conheça a nossa Política de Cookies.