Inteligência Artificial no Judiciário e na Advocacia em 2026: governança, prova e ética em uma nova fase

Publicado em 05 de fevereiro de 2026 - por Thiago Carcará

O ano de 2026 marca uma virada prática no uso de inteligência artificial no sistema de Justiça brasileiro: a tecnologia deixa de ser apenas “inovação” e passa a exigir, com mais intensidade, governança, rastreabilidade e responsabilidade.

Isso ocorre porque o Conselho Nacional de Justiça consolidou um marco regulatório específico para o desenvolvimento, a auditoria, o monitoramento e o uso responsável de soluções de IA no Poder Judiciário, com ênfase explícita em transparência, explicabilidade, contestabilidade, proteção de dados e supervisão humana.

A Resolução CNJ nº 615/2025, vigente, estabelece que sua aplicação alcança inclusive projetos já implantados ou em desenvolvimento e fixa prazo de 12 meses, a partir da publicação, para que os tribunais adequem seus modelos e projetos às novas disposições.

Do ponto de vista do jurisdicionado e das empresas, o efeito mais imediato dessa nova etapa é o aumento da relevância do “como” as decisões e triagens são construídas. Ainda que a IA atue como ferramenta de apoio, a diretriz institucional reforça que não pode haver substituição da autoridade decisória humana, e que o uso de sistemas inteligentes deve ser acompanhado de mecanismos de revisão, auditoria e controle, com comunicação clara aos usuários externos quando a tecnologia for empregada em serviços judiciais.

Em termos práticos, 2026 tende a ampliar discussões processuais sobre transparência, possibilidade de impugnação de saídas automatizadas, pedidos de esclarecimento, necessidade de perícia técnica em situações específicas e maior atenção à conformidade com a LGPD, especialmente quando se debate treinamento, curadoria e segurança de dados utilizados por modelos.

Esse ambiente regulado também altera a advocacia, tanto no contencioso quanto no consultivo. No contencioso, cresce a importância de dominar linguagem técnica suficiente para identificar quando a tecnologia pode ter influenciado um fluxo decisório ou um procedimento e, sobretudo, como formular requerimentos úteis — sem cair em impugnações genéricas.

No consultivo, aumenta a demanda por políticas internas de uso responsável de IA em escritórios e empresas, com regras claras sobre confidencialidade, privacidade, verificação humana, transparência com clientes e limites de utilização.

Nesse sentido, o Conselho Federal da OAB aprovou recomendações voltadas à ética e responsabilidade no uso de IA generativa na prática jurídica, com destaque para confidencialidade, privacidade e comunicação adequada sobre o uso dessas ferramentas.

Em paralelo, 2026 também tende a tornar mais rigorosa a discussão probatória quando a prova é digital e quando ferramentas automatizadas são utilizadas para organizar, resumir ou “explicar” documentos e conversas.

O Superior Tribunal de Justiça já sinalizou, em linha firme, que não se admite como prova dados extraídos de celular sem metodologia e documentação aptas a garantir integridade, o que reforça a necessidade de preservação adequada de evidências, cadeia de custódia quando cabível e cuidados com autenticidade e contexto.

Em um cenário de maior digitalização do processo e de maior uso de IA como apoio, a advocacia que reúne prova com técnica — e que sabe diferenciar “conveniência” de “confiabilidade” — tende a ganhar previsibilidade e eficiência.

O ponto central, portanto, é que a inteligência artificial em 2026 não é apenas uma ferramenta de produtividade: ela passa a ser um tema jurídico completo, que envolve direitos fundamentais, proteção de dados, dever de transparência, padrões de governança e, em certos casos, discussão sobre validade e robustez probatória.