O mercado jurídico brasileiro passa por uma transformação digital sem precedentes. O uso de tecnologia passou a não ser uma escolha, mas uma demanda crescente para gerenciar um volume massivo de dados e múltiplas tarefas diárias. Se inicialmente a inteligência artificial (IA) era aplicada para classificação e jurimetria (IA preditiva), o surgimento da IA generativa e dos agentes inteligentes democratizou o acesso e acelerou a adoção, elevando o debate para um novo patamar, pela possibilidade de criação de minutas, automação de atividades e acesso a uma interface mais intuitiva para análises complexas. Contudo, essa evolução também traz riscos inerentes, como as "alucinações" e dilemas éticos sobre a responsabilidade e os limites do uso da IA em profissões regulamentadas, como a magistratura e a advocacia.
Nesse cenário, a partir de uma solicitação do CESA - Centro de Estudos das Sociedades de Advogados, em 2017, sobre qual seria um limite ético-profissional objetivo, propus o que denominei o "princípio do ato privativo", como uma diretriz para nortear essa discussão. Inspirado na regulação de outras áreas, como a medicina (ato médico), esse princípio estabelece que a definição dos atos privativos de cada profissão serve como fronteira ética e legal para estabelecer o que só pode ser praticado por quem tem a devida habilitação.
Isso, inclusive, define o exercício irregular da profissão, entre outras consequências, tendo em vista esta obrigatoriedade de um diploma universitário ou um concurso, por exemplo, para realizar determinados atos. A partir desse contexto, a proposta do princípio busca refletir essa lógica, que não é nova, para aplicá-la ao uso de tecnologia. Naquele momento, essa ideia foi pouco compreendida, até gerando algumas críticas, por parecer restritiva, mas o objetivo foi oposto. Ao compreender o que é privativo de cada profissão, pode-se entender onde se pode aplicar com mais liberdade e em que casos deve funcionar como apoio e suporte à decisão, mantendo-se o protagonismo desses profissionais. No Direito, essa observância pode orientar quais são as prerrogativas e responsabilidades exclusivas de advogados e magistrados, entre outras carreiras jurídicas.
No Poder Judiciário brasileiro, por exemplo, a aplicação prática desse princípio pode ser observada na Resolução CNJ nº 615/25¹. Ao longo dos trabalhos, constatou-se que a Constituição Federal, os Código de Processo, entre outras fontes aplicáveis, determinam que a valoração da prova, a fundamentação da sentença e a própria decisão são, obviamente, atos privativos do magistrados. Com base nesse entendimento, determinou-se a impossibilidade de uma solução que gere decisões automatizadas sem a participação ativa do magistrado, e sua responsabilidade pelo conteúdo e consequências de sua decisão. De outro lado, a resolução classifica atividades acessórias, consideradas operacionais ou de suporte à decisão, como sumarização de documentos, gestão processual, jurimetria, como baixo risco, o que transmite mais segurança e clareza sobre o avanço do desenvolvimento de aplicações dessa natureza.
Internacionalmente, o caso do escritório inglês Garfield.Law e as decisões em tribunais americanos reforçam essa perspectiva. Embora o órgão regulador inglês tenha autorizado um modelo de assistência por IA para causas de baixa complexidade, a validade do serviço depende da curadoria de conteúdo por advogados habilitados, que respondem por todas as atividades e pelas saídas do sistema - ou seja, não é a IA que decide, mas refletindo o conteúdo e as orientações desses advogados, a partir de uma construção balizada em fontes proprietárias. Nos Estados Unidos, magistrados têm aplicado sanções severas a profissionais que protocolam petições com "alucinações" (precedentes falsos) geradas por IA, sob o fundamento de que o advogado é o único responsável pelos atos e pelo conteúdo que assina.
Diante desse cenário, é fundamental compreender que os sistemas de IA são modelos estatísticos de probabilidade, que refletem padrões e correlações observadas em dados passados, com diversas limitações e riscos envolvidos. Não se comparam à inteligência humana, muito menos têm consciência, criatividade, intencionalidade. Por essa razão, o princípio do ato privativo não deve ser visto como uma barreira à inovação, mas como um alicerce de segurança jurídica. Ele permite que a tecnologia otimize tarefas operacionais e de suporte à decisão, liberando o profissional para atividades de maior valor agregado, como a criatividade e a capacidade analítica, mas preserva seu protagonismo e o conceito de que certas profissões, e suas atividades, requerem anos de estudo, capacitação e a devida habilitação.
O uso de IA trará diferenciais competitivos importantes, melhores resultados, mas precisamos compreender que é uma "tecnologia meio", que depende da capacidade técnica e do conhecimento especializado. O sucesso da transformação digital no Direito não reside na automação dos atos privativos, mas na potencialização das capacidades humanas através de uma construção diligente. O Direito, o conhecimento jurídico e as habilidades e competências de seus profissionais devem permanecer no centro de qualquer inovação tecnológica.
¹ O autor foi um dos membros do grupo de trabalho nomeado pelo CNJ para confeccionar a proposta da resolução.
Alexandre Zavaglia Coelho é doutor em governança e ética da IA (TIDD/PUCSP), líder de pesquisas no Centro de Ensino e Pesquisas em Inovação (CEPI) da FGV Direito SP. Presidente da Comissão de Tecnologia e Inovação da OAB-SP e Coordenador do IASP TECH. Conselheiro da Fenalaw.
Referências bibliográficas:
Conselho Nacional de Justiça. Resolução CNJ nº 615/2025. Regulamenta o uso de inteligência artificial no Poder Judiciário. Brasília, DF: CNJ, 2025. Disponível em https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf
ESTADOS UNIDOS. Federal Rules of Civil Procedure. Rule 11: Signing Pleadings, Motions, and Other Papers; Representations to the Court; Sanctions.
UNITED KINGDOM. Solicitors Regulation Authority (SRA). Regulatory guidance on AI-driven legal services: The case of Garfield.Law. Londres: SRA, 2025. Disponível em: https://www.sra.org.uk/news/news/press/garfield-ai-authorised/.
Zavaglia Coelho, Alexandre. O uso da Inteligência Artificial generativa na área do Direito. Tendências 2023/24. Thomson Reuters, 2023.
Zavaglia Coelho, Alexandre. Data, automation and artificial intelligence - (generative) AI in legal practice. In: Oxford Handbook of the foundation and regulation of Generative AI. Oxford Press, 2025. Disponível em: https://academic.oup.com/edited-volume/59908/chapter-abstract/529755897?redirectedFrom=fulltext
Zavaglia Coelho, Alexandre. A ética e o uso de Computação Cognitiva na Advocacia. Anuário 2017 do CESA - Centro de Estudos das Sociedades de Advogados. Migalhas, 2017, posteriormente publicado na Revista de Direito e novas tecnologias (RDTec) da Revista dos Tribunais - RT, Edição n. 1, 2018.
Os artigos e reportagens assinadas não refletem necessariamente a opinião da editora, sendo de responsabilidade exclusiva dos respectivos autores.

