DESAFIO
No contencioso de grandes volumes, a situação em que se encontra o Ferreira e Chagas Advogados, o número diário de publicações jurídicas é extremamente elevado e, muitas vezes, cada publicação contém múltiplos comandos, destinados a diferentes partes, com prazos de cumprimento variados - alguns com termo inicial imediato, outros diferidos no tempo. Além disso, há publicações que são meramente informativas e não exigem nenhuma providência.
O desafio do escritório era automatizar, com alta assertividade, a leitura, interpretação e correta categorização dessas publicações para garantir que apenas aquelas que realmente demandam atuação do advogado fossem tratadas como tal. O objetivo era desonerar a operação dessa tarefa repetitiva, rotineira e de baixa complexidade intelectual, liberando o time jurídico para atividades mais estratégicas.
Soluções de mercado avaliavam o conteúdo como um todo e não distinguiam blocos de comando dentro das publicações, o que gerava imprecisões como:
- Rótulos equivocados quando havia múltiplos comandos na publicação;
- Alto volume de "classes" de publicações distintas pra classificação no modelo atual, gerando pouca padronização;
- Alto volume de reclassificações e prazos lançados incorretamente;
- Baixa confiança no agendamento automático e retrabalho elevado
SOLUÇÃO
O escritório desenvolveu a SOPHIA, um conjunto de agentes de IA generativa (LLM + RAG) treinados para atuar em publicações judiciais. A iniciativa elimina gargalos históricos do contencioso de massa ao:
- Fragmentar cada publicação em blocos semânticos (um comando/processo lógico por bloco);
- Classificar cada bloco em 17 classes finais;
- Identificar o destinatário (polo ativo, passivo ou terceiro) e validar a decisão com metadados oficiais do processo;
- Calcular e lançar automaticamente o termo inicial e o prazo adequado dentro do sistema interno.
IMPLEMENTAÇÃO
A implementação do projeto envolveu:
- Integração via API REST com o sistema de gestão processual do escritório;
- Execução de inferência paralela por meio de containers Docker em cluster ECS com GPU spot, garantindo tempo de resposta inferior a 5 segundos por publicação;
- Arquitetura com stack moderna: Python, R, xgBoost, Tensorflow, FastAPI, LangChain, PostgreSQL, Redis, Prometheus e Grafana;
- Governança LGPD embarcada, com anonimização de dados sensíveis antes do processamento;
- Painéis de controle em tempo real, com exibição de blocos originais, classificações, score de confiança e logs detalhados.
O pipeline de IA foi estruturado em etapas interdependentes: inicialmente, a publicação é pré-processada por meio de OCR e heurísticas de pontuação que quebram o texto em blocos semânticos — cada um correspondente a um comando distinto. Esses blocos são então classificados em 17 classes operacionais por meio de engenharia de prompts e dicionário jurídico proprietário.
Em seguida, um modelo de identificação de destinatário analisa o conteúdo e define se o comando é direcionado ao cliente, à parte adversa ou a terceiros. Essa decisão é validada com metadados do processo, como grau de jurisdição, fase e tipo de movimentação.
Nos casos aplicáveis, o sistema calcula e agenda automaticamente os prazos processuais com base nas regras do CPC e feriados locais. As correções realizadas manualmente pela equipe jurídica são reaproveitadas como dados de fine-tuning semanal, promovendo melhoria contínua do modelo.
O projeto seguiu uma jornada ágil: em apenas 10 semanas, evoluíram da prova de conceito à entrada em produção com total observabilidade, anonimização de dados sensíveis conforme LGPD e transparência nos logs de decisão da IA.
RESULTADO
A implementação do SOPHIA trouxe uma transformação significativa na operação jurídica do escritório. A assertividade global do modelo atingiu 98%, com picos superiores a 99% em classes críticas como "Sentença", "Contrarrazões" e "Audiência". Houve uma redução expressiva de erros de classificação e reprocessamentos: o volume de publicações que precisavam ser reenquadradas manualmente caiu de 18% para apenas 3%, e as baixas indevidas por erro na identificação do destinatário foram reduzidas em 30%.
O tempo médio de análise de cada publicação foi reduzido de 4 minutos para apenas 15 segundos, o que gerou uma economia de aproximadamente 3.750 horas jurídicas por mês. Isso permitiu a realocação de cerca de 22 advogados (considerando FTEs) para frentes mais estratégicas, liberando o equivalente a 500 dias-advogado mensais.
Além do impacto direto na produtividade, o projeto melhorou substancialmente a qualidade e padronização dos dados operacionais, gerando bases mais confiáveis para análises estratégicas, provisões contábeis e relatórios de desempenho. A solução mostrou-se altamente escalável, absorvendo variações de volume — como os picos pós-recesso forense — sem perda de performance. A transparência do modelo, com logs detalhados e métricas de confiança por classe, fortaleceu a governança.

