O ministro Cristiano Zanin rejeitou, recentemente, uma reclamação constitucional que supostamente utilizou ferramentas de inteligência artificial para produzir julgados inexistentes e interpretações incorretas de súmulas [1]. No voto, o ministro afasta a possibilidade de erro e afirma: "Ainda que a utilização de inteligência artificial seja lícita, devem as partes ler e conferir o conteúdo de sua petição, antes de ajuizar uma ação no Supremo Tribunal Federal." [2].
Casos como esse estão se tornando corriqueiros. Um advogado americano, ligado a uma empresa de desenvolvimento de ferramentas de IA, teria usado uma citação criada por inteligência artificial, em um caso relacionado a direitos autorais de gravadoras [3]. Em seu site, o advogado francês Damien Charlotin compilou uma série de casos de citações e argumentos falsos em documentos jurídicos gerados por alucinação de IA [4]. De acordo com Charlotin, a construção de campo do direito, fortemente baseada em texto e argumentação, é propício para alucinações [5].
Alucinações de IA são o termo usado para descrever conteúdo gerado por modelos de IA generativa que, à primeira vista, parece verossímil, porém, contém erros factuais, elementos irreais ou simplesmente sem sentido [6]. Quando os primeiros chatbots baseados em modelos generativos foram disponibilizados para o grande público, as alucinações eram mais facilmente percebidas. A defasagem temporal entre os dados utilizados para o treinamento dos modelos e o momento da interação levava a alucinações acerca dos ocorridos neste ínterim.
O fenômeno das alucinações, ainda que menos notável, torna-se, a cada novo lançamento de modelos mais e mais robustos, mais frequente. Os modelos mais recentes estão ampliando ainda mais o percentual de alucinações em testes [7]. E os cálculos envolvidos nas decisões probabilísticas que produzem conteúdos de IA generativa são simplesmente inviáveis de serem retraçados. Nesse contexto, Amr Awadallah, ex-executivo do Google, afirmou que alucinações irão sempre existir [7].
A recomendação do Conselho Federal da OAB leva em consideração a possibilidade de alucinações em suas diretrizes para o uso de inteligência artificial generativa. O levantamento de doutrina e jurisprudência pode ser feito com recursos tecnológicos, inclusive IA generativa, desde que verificação da veracidade dos conteúdos [8]. O termo que a recomendação usa é supervisão humana: é preciso averiguar se o conteúdo não foi causado por uma alucinação.
A diretriz da OAB coloca o uso de inteligência artificial no contexto judicial sob a luz de responsabilidades já antigas da advocacia. Os elementos doutrinários ou jurisprudenciais - e, evidentemente, legais - utilizados no processo precisam encontrar respaldo na realidade jurídica. Não é aceitável a inclusão de uma jurisprudência produto de alucinação de IA generativa, assim como não é aceitável a inclusão de um julgado inventado por um ser humano ou a atribuição de um julgado de um tribunal a outro e assim por diante.
A supervisão, enquanto critério para utilização de conteúdos gerados por IA na prática jurídica, encontra paralelo em práticas já consolidadas, como a revisão das minutas de aprendizes, a utilização de trechos de outras peças etc. Os documentos legais têm, há tempos, além da camada de técnica de apresentação da doutrina e jurisprudência, a camada estratégica de orquestração desses elementos no processo. A supervisão, qualificada como humana, renova o problema antigo da revisão do esquema estratégico processual.
A constatação de que o problema, ora causado pelo fenômeno de alucinação de modelos de IA generativa, é um problema renovado - e não um problema novo - não implica em uma posição conservadora em relação à inovação no direito. Pelo contrário, essa constatação, aberta pela polêmicas judiciais, permite recolocar justamente o problema da inovação, que se dá a partir de interpretação nova e respaldada na hermenêutica da lei e pela cooperação processual. Nesse contexto, o Conselho de Ética da OAB e o ministro Zanin apontaram para a introdução de ferramentas de IA como mais uma peça disponível no esquema jurídico, suportando justamente a inovação jurídica em sentido próprio.
REFERÊNCIAS:
1. Zanin vê má-fé e rejeita petição feita por IA com falsos precedentes. Migalhas, 2025. Disponível em: https://www.migalhas.com.br/quentes/430465/zanin-ve-ma-fe-e-rejeita-peticao-feita-por-ia-com-falsos-precedentes. Acesso em: 31 julho 2025.
2. Brasil. Supremo Tribunal Federal. Reclamação Constitucional n. 78.890. Relator: Min. Cristiano Zanin. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=7240744. Acesso em: 31 julho 2025.
3. Zeff, Maxwell. Anthropic’s lawyer was forced to apologize after Claude hallucinated a legal citation. TechCrunch, 2025. Disponível em: https://techcrunch.com/2025/05/15/anthropics-lawyer-was-forced-to-apologize-after-claude-hallucinated-a-legal-citation/. Acesso em: 31 julho 2025.
4. AI Hallucination Cases. Damien Charlotin, 2025. https://www.damiencharlotin.com/hallucinations/. Acesso em: 01 agosto 2025.
5. Mauran, Cecily. 120 court cases have been caught with AI hallucinations, according to new database. Mashable, 2025. Disponível em: https://mashable.com/article/over-120-court-cases-caught-ai-hallucinations-new-database. Acesso em: 31 julho 2025.
6. Farnschläder, Tom. AI Hallucination: a guide with examples. DataCamp, 2025. Disponível em: https://www.datacamp.com/blog/ai-hallucination. Acesso em: 31 julho 2025.
7. Metz, Cade. Weise, Karen. A.I. Is Getting More Powerful, but Its Hallucinations Are Getting Worse. The New York Times, 2025. Disponível em: https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html. Acesso em: 31 julho 2025.
8. Ordem dos Advogados do Brasil. Conselho de Ética. Recomendação n. 001/2024. https://s.oab.org.br/arquivos/2024/11/7160d4fe-9449-4aed-80bc-a2d7ac1f5d2f.pdf