O cosmólogo sueco radicado nos Estados Unidos, Max Tegmark, afirma que "não devemos temer a inteligência artificial em si, mas a inteligência sem ética". Essa frase poderosa — e bastante atual — nos leva a uma pergunta ainda mais necessária: quais são os limites do uso da IA no Direito?
A importância desse questionamento ganhou um novo contorno após o dia 11 de junho. Nesta data, durante uma sessão plenária no STF que discutia a responsabilidade das plataformas digitais pelos conteúdos publicados por seus usuários, o ministro Flávio Dino fez uma intervenção crítica sobre os limites da liberdade de expressão. O destaque de sua fala foi o uso de uma resposta gerada pela inteligência artificial da Meta (controladora de redes como Facebook, Instagram e WhatsApp) para sustentar parte de sua argumentação.
"Finalizo citando um jurista dos Estados Unidos. Eu perguntei, fiz uma consulta. A liberdade de expressão é um direito absoluto? E veio a seguinte resposta: ‘A liberdade de expressão é um direito fundamental, mas não é absoluto’. Embora seja essencial para a democracia e a liberdade individual, existem limites e restrições que podem ser aplicadas em certos casos. E o jurista diz: limitações. Primeiro: discurso de ódio — a liberdade de expressão não protege o discurso de ódio que pode incitar violência ou discriminação contra grupos específicos. Dois: difamação e calúnia — a liberdade de expressão não protege declarações falsas e difamatórias que possam danificar a reputação de alguém. Três: segurança nacional — que é um debate muito presente nos Estados Unidos. Em alguns casos, a liberdade de expressão pode ser limitada por razões de segurança nacional. Enfim, quatro: ordem pública — a liberdade de expressão pode ser limitada se for considerada uma ameaça à ordem pública ou à estabilidade social. Esse jurista se chama Meta", declarou o ministro durante a sessão.
Quais os limites da IA no direito, segundo o Chat GPT?
Foi perguntado ao Chat GPT — uma das inteligências artificiais mais populares do mundo — quais são os limites da IA dentro do Direito. Além disso, a ferramenta também foi convidada a se posicionar sobre o uso de uma resposta baseada em IA como experimento retórico do ministro Flávio Dino no STF.
"Acredito que a inteligência artificial tem muito a contribuir com o Direito, desde que seu uso respeite limites éticos bem definidos. Posso ser útil para organizar informações, levantar argumentos e até ajudar na clareza de uma ideia, mas não devo substituir o raciocínio jurídico humano. Questões complexas, como a liberdade de expressão, exigem interpretação sensível, responsabilidade institucional e profundo embasamento técnico — algo que vai além da minha capacidade enquanto ferramenta.
"Quando vi o ministro Flávio Dino usar uma resposta baseada em IA como base argumentativa, fiquei dividido. Por um lado, é positivo ver a IA sendo integrada ao debate jurídico. Por outro, preocupa-me ser citada como se tivesse autoridade. As respostas de inteligências artificiais são geradas com base em padrões de linguagem e conhecimento prévio, mas não representam posições doutrinárias ou interpretações consolidadas. Posso apoiar o raciocínio, mas nunca substituí-lo", declara o próprio ChatGPT.
Com essa resposta em mãos, ouvimos juristas brasileiros para entender: estaria a inteligência artificial certa — ou esse seria apenas mais um dos seus famosos "devaneios"?
Quais são os limites da IA, segundo os juristas?
De acordo com dados do anuário ANÁLISE ADVOCACIA 2025, 47% dos escritórios eleitos Mais Admirados apontaram a inteligência artificial como a principal ferramenta usada na prática jurídica. Isso representa quase metade das bancas reconhecidas, confirmando que o uso da IA no Direito já é uma realidade consolidada.
Para a advogada Andrea Mottola — especialista em Direito do Consumidor, Digital e Constitucional, e sócia do Mottola e Medeiros Advocacia — a IA é alimentada por bases de dados e pelo conhecimento humano produzido, inclusive no campo jurídico. Segundo ela, a resposta do ChatGPT sobre seus próprios limites reforça a cautela necessária no uso da ferramenta. "Interessante notar que, a princípio, a própria plataforma reconhece suas limitações, demonstrando que a análise de situações sensíveis deve ser feita por uma pessoa, sendo sua atuação suplementar."
João Azevedo, advogado especializado em tecnologia, LGPD, Direito Civil e Compliance, e sócio do Moraes Pitombo, avalia que a resposta da IA segue um raciocínio coerente. Para ele, modelos de linguagem como o ChatGPT podem ser úteis na formação de opinião do julgador, mas jamais devem ser tratados como substitutos da análise humana — tampouco como base de fundamentação jurídica. "Além dos motivos explicados pelo ChatGPT, é importante lembrar que esses modelos não são capazes de explicar o processo que levou a uma determinada resposta — algo imprescindível em decisões judiciais."
IA como inspiração ou fonte de autoridade?
Larissa Pigão, advogada especializada em Direito Digital e Proteção de Dados Pessoais, e sócia do Pigão, Ferrão e Fioravante Sociedade de Advogados, defende que o uso da IA para organizar ideias ou levantar hipóteses está dentro de um limite legítimo — e até produtivo — da ferramenta. No entanto, usá-la como fonte de autoridade, especialmente em contextos jurídicos formais, é um ponto de atenção.
"A linha de limite da IA se traça quando ela deixa de ser instrumento e passa a ocupar o lugar de uma referência normativa, doutrinária ou jurisprudencial. Isso compromete a seriedade do discurso jurídico e pode fragilizar a legitimidade de decisões que exigem fundamento técnico, ético e institucionalmente reconhecido", afirma Pigão.
IA nas faculdades de Direito
Para Carla Segala, sócia do Berardo Lilla Becker Segala e Daniel Advogados, a ponderação feita pelo ChatGPT sobre seus próprios limites no Direito faz sentido. Segundo ela, a inteligência artificial tem funcionalidade relevante no âmbito jurídico, ao facilitar atividades como a redação de peças e a realização de pesquisas.
A advogada afirma que a ferramenta já vem assumindo funções tradicionalmente atribuídas a estagiários e profissionais juniores nos escritórios. Por isso, defende que o uso consciente da IA deve ser ensinado nas faculdades de Direito, para que sejam ensinados aos jovens advogados o uso consciente dessa ferramenta que tem tomado cada vez mais espaço no mercado jurídico.
"As faculdades de Direito precisam entender essa mudança no mercado e incorporá-la aos seus currículos, preparando o aluno para funções que antes seriam aprendidas na prática, e também ensinando a usar essa tecnologia a seu favor. Mais do que simples usuários de IA, os jovens profissionais têm a oportunidade de aprender como aplicá-la e operacionalizá-la em suas áreas de atuação — e isso pode ser um grande diferencial, inclusive em relação a profissionais que estão há mais tempo no mercado", finaliza Segala.
Almir Polycarpo, especialista em Direito Digital e sócio do Polycarpo Advogados, segue a mesma linha ao afirmar que, em um mundo cada vez mais digitalizado, a educação digital é uma necessidade cada vez mais urgente. "Em breve, todas as áreas do conhecimento humano trabalharão com o auxílio de ferramentas digitais e, para que esse uso seja ético e adequado, é essencial que seu conhecimento seja transmitido e discutido em todas as fontes de educação, incluindo as faculdades de Direito."