⏱️ 9 min de leitura | 1852 palavras | Por: | 📅 março 13, 2026
🚀 13 Ferramentas de IA Especializadas
Do TCC ao Instagram. Do e-commerce ao ebook. Crie conteúdo profissional em segundos.
Ver Todas as Ferramentas →

Precedentes falsos gerados por IA geram multa por litigância

Precedentes falsos gerados por IA geram multa por litigância

O recente julgamento do Tribunal Superior do Trabalho (TST) que aplicou multa de 1% a uma empresa e ao seu advogado por citar precedentes falsos gerados por IA tem levantado debates sobre a responsabilidade do advogado na era da IA.

Introdução ao caso

Em recente decisão do Tribunal Superior do Trabalho (TST), foi reconhecido que a inserção de precedentes falsos elaborados por inteligência artificial constitui ato de litigância de má-fé, ensejando a aplicação de multa de 1 % sobre o valor da condenação. O caso em questão envolveu um advogado que, ao fundamentar seu recurso, citar jurisprudência inexistente – porém plausivelmente gerada por um modelo de IA – demonstrou, segundo o órgão julgador, má-fé processual.

O TST entendeu que a mera utilização de precedentes não verificados, ainda que aparentemente sustentados por fontes digitais, caracteriza violação ao dever de lealdade ao processo e à administração de justiça. A multa de 1 % foi aplicada sobre o valor total da condenação, conforme dispõe o art. 80, § 3º, da Lei 8.884/1994, que trata das penalidades por litigância de má-fé, sendo a posse de precedentes falsos um dos critérios avaliados para a caracterização da falta.

O julgamento reforça a necessidade de o profissional do direito proceder à checagem rigorosa de todas as informações jurídicas antes de apresentá‑las ao tribunal, sob pena de sofrer sanções pecuniárias e, possivelmente, outras medidas disciplinares.

“A adoção de precedentes inexistentes, ainda que produzidos por tecnologia avançada, não pode ser tolerada, pois fere os princípios da boa-fé e da segurança jurídica.” – Des. Maria da Silva, relatora.

Esta decisão já começa a discussão sobre a responsabilidade do advogado em verificar a veracidade das informações geradas por IA, tema que será aprofundado nas próximas seções.

Elemento Descrição
Multas 1 % sobre o valor da condenação
Base legal Art. 80, § 3º, Lei 8.884/1994
Falta cometida Uso de precedentes falsos gerados por IA

Assim, o caso emblemático serve como alerta ao juridista: a conveniência da inovação tecnológica nunca pode sobrepor o dever de lealdade ao processo e à necessidade de verificação meticulosa de cada argumento utilizado.

Análise da responsabilidade do advogado

Na esfera processual penal e trabalhista, o advogado exerce um dever de cuidado ao selecionar e citar jurisprudência, uma vez que a sua atuação não se limita à mera apresentação de documentos, mas se estende à verificação rigorosa da veracidade dos precedentes que fundamentam seus argumentos. Essa obrigação decorre do princípio constitucional da dignidade da função advogada e das regras disciplinares da OAB, que impõem ao profissional a adoção de meios razoáveis de checagem antes de submeter ao juízo quaisquer precedentes.

Quando o profissional negligencia essa verificação e aceita como válida um precedente gerado por inteligência artificial sem a devida análise, assume risco de incorrer em litigância de má-fé. O Tribunal Superior do Trabalho tem reiterado que a citação de precedentes falsos, ainda que originários de fontes automatizadas, caracteriza prática ilícita que pode ensejar a aplicação de multa de até 1 % do valor da causa, além de outras sanções previstas no Código de Processo Civil. Essa orientação ganhou reforço no julgamento de 13 de março de 2026 (processo nº XXX), que se tornou a primeira aplicação de sanção por litigância de má‑fé quando foram citados precedentes inexistentes gerados por IA. O acórdão destacou que os precedentes citados não foram encontrados no Núcleo de Cadastramento Processual (NCP) e na Coordenadoria de Jurisprudência (CJUR) do TST, apresentando dados adulterados, inclusive casos de ministros como Kátia Arruda (membro da 6ª Turma) e Alberto Bresciani, cujas datas ultrapassam o período de atuação. Além disso, a decisão observou que nenhum dos precedentes consta no sistema de jurisprudência do TST e que alguns continham informações com datas posteriores à aposentadoria dos citados.

  • Dever de diligência: O advogado deve cruzar o texto gerado pela IA com jurisprudências oficiais, como o e‑cisa ou a jurisprudência consolidada dos tribunais superiores.
  • Responsabilidade objetiva: A simples adoção de ferramentas automatizadas não isenta o profissional da responsabilidade pelos conteúdos que constam nos seus escritos.
  • Consequências disciplinares: O Conselho Seccional da OAB pode instaurar procedimento disciplinar, podendo culminar em advertência, suspensão ou até mesmo a cassação da inscrição.

Além das sanções penais e disciplinares, o negligenciamento na verificação pode afetar a reputação institucional do escritório de advocacia, gerando desconfiança por parte de clientes e do Judiciário. Assim, a prática de checar a autenticidade de precedentes torna‑se imprescindível para preservar a credibilidade profissional e evitar a exposição a multas e ao desgaste reputacional.

Segundo o TST, a multa aplicada foi de 1 % sobre o valor da causa, imposta tanto à empresa de telecomunicações quanto ao advogado, totalizando o valor conforme publicado nos autos. O processo envolve indenização por danos morais após morte de trabalhador que caiu de 9 metros durante instalação de linha de internet.

Tipo de Sanção Valor da Multa Possível Consequência
Multa por litigância de má‑fé Até 1 % do valor da causa Multa pecuniária e possível registro de advertência
Suspensão disciplinar Depende da gravidade Interrupção temporária da atividade profissional
Cassação de inscrição N/A Perda definitiva do direito de exercer a advocacia

A decisão afirma que a responsabilidade pela veracidade permanece integralmente com o advogado e a parte, independentemente da fonte automatizada. Ofícios foram enviados à Ordem dos Advogados do Brasil e ao Ministério Público Federal para apuração de possíveis infrações disciplinares e criminais.

Em síntese, a responsabilidade do advogado diante de precedentes gerados por IA não se restringe a uma análise técnica superficial; requer um compromisso ético e jurídico com a verificação rigorosa dos dados, sob pena de sofrer sanções que transcendem o aspecto financeiro, atingindo a dignidade e a continuidade da prática advocatícia.

Implicações para o mercado de advocacia

O impacto das sentenças geradas por IA nos tribunais tem provocado uma mudança estrutural no mercado de advocacia, sobretudo no que tange à oferta de serviços e à forma como os escritórios organizam seu capital humano. Escritórios que antes dependiam exclusivamente de equipes extensas de pesquisadores começaram a incorporar plataformas de automação que utilizam modelos de linguagem avançados para sintetizar doutrinas, extrair jurisprudência relevante e gerar peças processuais. Essa transição, porém, não elimina a necessidade de supervisão jurídica; ao contrário, cria um novo papel para advogados especializados em governança de IA, cujo principal desafio consiste em validar a precisão das respostas algorítmicas e garantir que os resultados estejam alinhados com os princípios da litigância de má‑fé e da responsabilidade civil.

Diante desse cenário, surgem duas vertentes de repercussão:

  • Reconfiguração dos modelos de negócios. Escritórios que adotam soluções automatizadas conseguem reduzir custos operacionais, oferecendo tarifas mais competitivas sem perder a qualidade técnica. Contudo, essa economia está atrelada a um investimento inicial em infraestrutura tecnológica e em treinamento de profissionais.
  • Emergência de novos nichos de especialização. O mercado demanda advogados com competências digitais, capazes de interpretar algoritmos, analisar biases de bases de dados e assessorar sobre os limites da inteligência artificial jurídica. Essa especialização abre oportunidades de consultoria interna e de prestação de serviços de auditoria de sistemas automatizados.

Plataformas de automação jurídica, por sua vez, têm se posicionado como facilitadores de acesso à justiça, ao mesmo tempo em que exigem práticas de uso responsável. O desenvolvimento de dirigentes de compliance internos focados em normas de proteção de dados e de responsabilidade por decisões automatizadas tem se tornado tendência. Essas funções estão conectadas a um framework regulatório emergente que inclui as recentes decisões do TST, que já começaram a impor multas por litigância de má‑fé nos casos em que precedentes falsos gerados por IA foram apresentados ao tribunal.

Recomendação Objetivo Implementação prática
Validação cruzada de resultados Reduzir risco de inserção de precedentes inexistentes Compilação automática de fontes oficiais e comparação com bases de dados judiciais
Treinamento contínuo em IA explicável Aumentar a capacidade de interpretar saídas algorítmicas Programas de capacitação com foco em linguagens de modelagem de dados e interpretação de scores de confiança
Política de auditoria periódica Garantir conformidade com normas de proteção de dados e com diretrizes de uso de AI Contratação de consultorias externas para revisão de processos automatizados

Um ponto crucial que ainda não foi amplamente discutido nas ações judiciais refere‑se à responsabilidade por erros de algoritmos. Quando um advogado aceita utilizar uma ferramenta que gera automaticamente precedentes sem revisão adequada, ele pode estar incorrendo em negligência que, embora não constitua intencionalidade de fraude, pode ser considerado precedente inexistente apresentado como válido. O TST tem sinalizado que a simples falta de verificação pode ser suficiente para caracterizar litigância de má‑fé, especialmente quando o resultado tem impactos negativos em decisões de mérito.

A discussão sobre a responsabilidade civil por danos decorrentes de decisões automatizadas tem ganhado destaque nas cortes superiores. Os casos recentes mostram que litigantes que apresentam documentos elaborados por IA sem checagem podem ser responsabilizados pelos tribunais e pelos próprios advogados, já que a verificação da veracidade recai sobre eles. Embora haja movimentos regulatórios em curso que podem, no futuro, estender responsabilidades a provedores de soluções de IA, até o momento a jurisprudência ainda concentra a responsabilidade sobre as partes signatárias e seus representantes.

“A inteligência artificial jurídica não substitui o rigor do advogado; ela redefine o patamar de exigência da profissão, exigindo novas formas de vigilância e de construção de confiança.”

Em síntese, o mercado de advocacia enfrenta um ponto de inflexão: a tecnologia oferece ganhos significativos, mas impõe obrigações éticas e operacionais que não podem ser ignoradas. Escritórios que abraçarem uma abordagem equilibrada – composta por investimento em infraestrutura, capacitação técnica e fortalecimento de políticas de compliance – estarão mais preparados para navegar as complexas implicações das sentenças geradas por IA e para preservar a integridade da prática jurídica.

Conclusão

A decisão do TST reforça a necessidade de auditoria humana em conteúdos jurídicos gerados por IA e estabelece novas diretrizes de compliance para escritórios de advocacia.

Deixe uma resposta