A IA passou a ocupar posição de destaque no debate sobre inovação na advocacia, frequentemente associada a ganhos de eficiência e produtividade. Ainda assim, a adoção dessa tecnologia não pode ser dissociada de uma reflexão prévia e estruturada sobre governança. No contexto jurídico, a introdução da IA exige cautela redobrada, sob pena de comprometer valores essenciais da profissão.
Para além do exercício de analisar a real necessidade da introdução da ferramenta de IA, e partindo do pressuposto de que a tecnologia será utilizada nesse ambiente, é essencial avaliar se as políticas internas da organização estão adequadas. Uma política de uso de IA é de extrema relevância, pois estabelece regras específicas para sua aplicação na atividade jurídica do escritório ou do departamento. A adoção de políticas claras pode ser decisiva no combate ao chamado Shadow AI, fenômeno que ocorre quando colaboradores utilizam ferramentas de IA de forma não autorizada ou não governada pela organização.
Nesse contexto, destaca-se também a necessidade de previsão expressa da revisão humana obrigatória sobre quaisquer outputs gerados por sistemas de IA. A responsabilidade técnica, ética e jurídica permanece integralmente atribuída ao profissional que subscreve a peça, emite a opinião ou orienta o cliente. Erros decorrentes do uso inadequado ou acrítico da IA, como informações imprecisas, fundamentações inexistentes ou interpretações equivocadas, não afastam a responsabilidade do advogado, razão pela qual a revisão humana se impõe como elemento central da governança.
Essa compreensão encontra respaldo, inclusive, nas diretrizes institucionais recentemente consolidadas no âmbito do sistema de justiça. A Resolução nº 6151 do Conselho Nacional de Justiça, ao estabelecer parâmetros para o uso responsável da IA no Poder Judiciário, reforça princípios como transparência, rastreabilidade, explicabilidade, segurança e supervisão humana. Embora direcionada ao Judiciário, a norma sinaliza padrões relevantes para todo o ecossistema jurídico, evidenciando que o uso da IA deve estar ancorado em critérios éticos, técnicos e de responsabilização.
De forma complementar, as diretrizes2 editadas pela Ordem dos Advogados do Brasil para o uso da IA na advocacia reforçam que a tecnologia não afasta os deveres profissionais do advogado, tampouco mitiga sua responsabilidade. A OAB destaca a necessidade de revisão humana, o respeito ao sigilo profissional, a observância do Código de Ética e Disciplina e a vedação de práticas que comprometam a confiança na relação advogado-cliente. Trata-se de um posicionamento que deixa claro que a IA deve ser utilizada como instrumento de apoio qualificado, jamais como mecanismo de delegação automática da atividade intelectual ou decisória.
A mera adoção de políticas internas, contudo, não é garantia suficiente de governança. A implementação da IA pressupõe uma gestão contínua da ferramenta. Diferentemente de outras tecnologias, a IA, por sua própria natureza, evolui ao longo do tempo, aprendendo a
partir dos fluxos em que é inserida. Assim, não basta uma governança de entrada: é indispensável o gerenciamento contínuo de todo o ciclo de vida da IA, com processos claros, documentados e devidamente faseados.
Esses processos tornam-se ainda mais relevantes sob a ótica da conformidade legal. Diante de uma iminente regulação da IA no Brasil, diversas obrigações tendem a ser impostas aos agentes que desenvolvem ou aplicam essa tecnologia. Ademais, especialmente no âmbito jurídico, não se pode negligenciar as balizas já estabelecidas pela Lei Geral de Proteção de Dados Pessoais, considerando que o tratamento de dados pessoais (muitas vezes sensíveis) está frequentemente associado ao uso de soluções de IA in house, sobretudo quando envolvem informações de clientes.
Nesse ponto, o sigilo profissional e a confidencialidade dos dados assumem papel central. A utilização de ferramentas de IA deve observar rigorosamente os deveres de confidencialidade inerentes à advocacia, evitando o compartilhamento indevido de informações protegidas por sigilo legal ou contratual. A governança da IA, portanto, deve caminhar lado a lado com uma governança robusta de dados, sob pena de exposição a riscos jurídicos, reputacionais e éticos significativos.
Não se pode desviar a atenção de um dos pilares mais relevantes da governança: o letramento. Ações contínuas de conscientização são vitais para que os colaboradores estejam preparados para trabalhar de forma responsável com a IA. O letramento funciona como salvaguarda contra erros amplamente noticiados, como a citação de jurisprudências inexistentes ou de diplomas normativos imaginários. Além disso, a conscientização é essencial sob a perspectiva da segurança da informação e da gestão de riscos, considerando que as ferramentas de IA também se mostram vulneráveis a ataques e manipulações cada vez mais sofisticados.
A atividade jurídica enfrenta, assim, um dos momentos mais desafiadores e, ao mesmo tempo, promissores de sua história recente. A era da IA oferece oportunidades inéditas para a potencialização da atuação jurídica. No entanto, a palavra de ordem é cautela. A governança revela-se peça insubstituível para a implementação responsável da IA, especialmente em uma área sensível como a jurídica, na qual ética, confiança, sigilo e responsabilidade profissional não admitem concessões.
Renato Opice Blum é advogado e Economista; executive chairman no Opice Blum Advogados, economista, professor e referência em Direito Digital, Proteção de Dados e Inteligência Artificial; Atua há mais de 20 anos na área, sendo palestrante internacional e coordenador de cursos em instituições renomadas; Atua como professor nas instituições ESPM, FAAP e INSPER; Presidente da Comissão de Estudos de Novas Tecnologias, Neurodireitos e Inteligência Artificial do IASP; Diretor de Cibersegurança do DESEG; Conselheiro da Europrivacy.
Os artigos e reportagens assinadas não refletem necessariamente a opinião da editora, sendo de responsabilidade exclusiva dos respectivos autores.

