A inteligência artificial que vale a pena adotar na advocacia não é a que trabalha no lugar do advogado. É a que trabalha sob o seu comando.
Essa distinção separa uma adoção responsável (com resultados reais e conformidade ética) de uma corrida às cegas que expõe escritórios a riscos jurídicos e viola a confiança dos clientes. O ponto de partida, portanto, não é a tecnologia, mas o diagnóstico das dores reais da prática jurídica.
Antes da ferramenta, o diagnóstico
Qualquer projeto sério de adoção de IA começa por uma pergunta singela: qual é o problema concreto que precisa ser resolvido? A resposta não vem de um catálogo de soluções tecnológicas, mas de um mapeamento honesto das rotinas do escritório. Como exemplo, esse exercício de design thinking revelou dois gargalos comuns na advocacia corporativa: o volume documental repetitivo e os ciclos longos de negociação.
Dois projetos, um princípio: o advogado no centro
No primeiro projeto, um agente virtual de negociação humanizada foi desenvolvido pela LBCA para atuar na resolução consensual de conflitos. O agente conduz interações em escala, respeitando os parâmetros éticos definidos pela equipe. Em seis meses, a taxa de acordos subiu de 48 para 67%; o tempo médio caiu de 12 para 4,5 dias úteis; o custo operacional por acordo recuou 71%. Em 100% dos casos, o advogado supervisionou cada interação, sendo que em 23% houve intervenção direta. O princípio do human-in-the-loop foi a coluna vertebral do projeto.
No segundo projeto, um assistente para análise de matrículas imobiliárias automatizou a leitura de registros, averbações e gravames. Uma matrícula que antes levava 45 minutos passou a ser processada em 90 segundos, com 98,7% de precisão. O custo por análise caiu de R$ 185,00 para R$ 22,00. Em um piloto com uma grande instituição financeira, 850 matrículas foram processadas em 48 horas, volume que exigiria mais de 640 horas de análise humana.
Riscos que não podem ser ignorados
· Responsabilidade intransferível: quem assina o parecer ou assume a estratégia é o profissional, e assim continuará sendo.
· LGPD: contratos e matrículas contêm dados cujo tratamento automatizado exige base legal e governança séria.
· Alucinações: modelos de linguagem podem gerar citações inexistentes e distorcidas com aparência de veracidade. A resposta é um protocolo obrigatório de revisão humana e verificação cruzada para todo output de IA.
Letramento
A tecnologia só entrega seu potencial quando a equipe está preparada para usá-la com discernimento. A LBCA criou a Akdia, escola de inovação jurídica, e o programa AI First, investindo mais de R$ 500 mil em capacitação. Resultado: o quadro de colaboradores cresceu 22%, ao invés de encolher.
O ponto de partida, portanto, não é a assinatura de uma plataforma caríssima. É o diagnóstico: onde estão as dores da sua prática jurídica? Quem precisa ser capacitado antes que qualquer ferramenta seja utilizada? A IA que funciona na advocacia não é a mais sofisticada, mas a que responde a essas perguntas com maior precisão.
Solano de Camargo é professor de Direito Internacional na Faculdade de Direito da USP, pós-doutor pela Faculdade de Direito da Universidade de Coimbra, mestre e doutor pela USP. Conselheiro Seccional, Presidente da Comissão de Privacidade, Proteção de Dados e IA da OAB-SP. Autor do Manual de Engenharia de Prompts no Direito (RT, 2024). Sócio fundador da LBCA.
Os artigos e reportagens assinadas não refletem necessariamente a opinião da editora, sendo de responsabilidade exclusiva dos respectivos autores.

