A controvérsia sobre deepfakes de nudez gerados pelo Grok, da xAI, reacendeu o debate sobre os limites da regulação de IA no Brasil. Enquanto ChatGPT, Gemini e Claude adotaram salvaguardas robustas contra conteúdo sintético não consensual, o Grok optou por uma abordagem mais permissiva. Segundo especialistas ouvidos pela Análise Editorial, essa abordagem pode ter implicações jurídicas relevantes, tanto do ponto de vista da responsabilidade civil quanto da governança algorítmica.
O caso ganhou repercussão após relatos de usuários que conseguiram gerar imagens sintéticas de nudez utilizando o sistema, evidenciando a ausência de filtros preventivos. A situação coloca em xeque não apenas a estratégia de produto da xAI, mas também a capacidade do ordenamento jurídico brasileiro de lidar com violações que envolvem empresas transnacionais.
Deepfakes como sistema de alto risco
O Projeto de Lei 2.338/2023, que institui o marco legal da inteligência artificial no Brasil, adota uma lógica de regulação baseada em risco. Embora o texto não classifique deepfakes automaticamente como sistemas de alto risco, especialistas apontam caminhos normativos claros para esse enquadramento em determinados contextos.
Marcus Valverde, sócio do Marcus Valverde Sociedade de Advogados, explica que o enquadramento depende do uso concreto. "Considera-se um deepfake de risco excessivo quando ele envolve técnicas subliminares ou explora pessoas vulneráveis para induzir condutas prejudiciais". Além disso, o PL estabelece responsabilidade objetiva para fornecedores e operadores de sistemas de alto risco ou risco excessivo, dispensando a comprovação de culpa.
Roberta Raccioppi, advogada do EFCAN Advogados, complementa que a noção de alto risco se constrói a partir do potencial impacto sobre direitos fundamentais, principalmente quando há violação do direito à imagem, produção de conteúdo sexual não consensual ou manipulação informacional com dano reputacional. "A classificação não decorre apenas da tecnologia subjacente, mas do uso concreto, da escala de disseminação e da previsibilidade de impactos", ressalta.
Beatriz Haikal, sócia do BBL Advogados, pondera que o PL dedica dispositivos específicos à produção de conteúdos sintéticos, impondo dever de sinalização e prevendo ações coordenadas para mitigar riscos. "Ainda que a mera geração de imagem falsa não configure, por si só, uma aplicação de alto risco, os efeitos em determinados contextos podem justificar sua reclassificação futura", observa.
Desafio da extraterritorialidade
A natureza transnacional da xAI e a arquitetura distribuída de seus servidores levantam questões complexas sobre jurisdição e efetividade de medidas judiciais. O PL 2.338/2023 regula o uso de IA no Brasil, mas não define como aplicar obrigações a empresas estrangeiras sem presença local.
Valverde destaca que a experiência brasileira com plataformas transnacionais demonstra que os tribunais já recorreram a medidas incisivas diante do descumprimento de ordens judiciais. O advogado relembra os precedentes de bloqueio do Telegram, WhatsApp e, mais recentemente, do X. "Há entendimento consolidado no STJ de que empresas estrangeiras podem ser responsabilizadas no Brasil por meio de representantes ou estruturas de atuação no país, mesmo sem filial formalmente constituída", afirma.
Raccioppi aponta que tutelas de urgência no Judiciário brasileiro costumam ser o instrumento mais rápido e eficiente. Esse tipo de ação permite a remoção de deepfakes, preservação de provas e imposição de medidas de mitigação. Ela enfatiza que o bloqueio de acesso deve ser tratado como medida excepcional, aplicável apenas em casos de descumprimento comprovado e reiterado.
Para Haikal, a eficácia da atuação dependerá não apenas do texto legal, mas da articulação institucional entre autoridades setoriais, organismos multilaterais e operadores da cadeia digital. "O PL reconhece que situações complexas e transfronteiriças exigirão soluções regulatórias dinâmicas e bem calibradas", observa.
Alan Campos Thomaz, especialista em direito digital e sócio do Campos Thomaz Advogados, ressalta que o Marco Civil da Internet já permite a aplicação da lei brasileira a plataformas oferecidas a usuários no país, embora o maior desafio esteja na efetividade da aplicação frente a empresas transnacionais.
Lacunas na proteção de imagem sintetizada
A Lei Geral de Proteção de Dados não regula deepfakes ou dados sintéticos de modo expresso, mas especialistas apontam que a legislação atual oferece caminhos de proteção. Segundo Valverde, se a imagem sintetizada torna uma pessoa identificada ou identificável, trata-se de dado pessoal, e sua geração e disseminação pode configurar tratamento.
Raccioppi esclarece que a criação de deepfakes envolve, desde sua origem, o tratamento de dados pessoais, como voz, rosto e expressões faciais, que permitem ao modelo aprender padrões específicos de identidade. "O fato de o conteúdo gerado ser artificial não descaracteriza a utilização de insumos reais", argumenta.
A advogada ressalta ainda que no Brasil, a imagem isoladamente não é considerada dado sensível, tornando-se sensível apenas quando empregada com finalidade biométrica. Mesmo assim, a ANPD possui competência para atuar preventivamente, por meio de diretrizes, exigência de relatórios de impacto e fiscalização de mecanismos de mitigação.
Haikal observa que a LGPD adota um conceito funcional de dado pessoal, baseado na possibilidade de identificação, de modo que a simples vinculação da imagem ou voz a uma pessoa natural já configura tratamento regulado. "O ponto central não é discutir se o dado é real ou sintético, mas se a operação tecnológica produz efeitos jurídicos relevantes sobre pessoas identificáveis", destaca.
Vantagem competitiva ou falha de governança?
A postura mais permissiva do Grok em relação aos guardrails levanta a questão se isso configuraria vantagem competitiva desleal. Os especialistas divergem quanto à caracterização.
Valverde argumenta que a permissividade pode gerar vantagem de curto prazo, mas não é neutra à luz do PL 2.338, aproximando-se de falha de governança. "Se a vantagem vier de reduzir salvaguardas, isso pode ser considerado na responsabilização, e o PL manda levar em conta a vantagem auferida pelo infrator na dosimetria da punição", explica.
Raccioppi pondera que a adoção de mecanismos de salvaguarda menos restritivos não configura, por si só, vantagem competitiva desleal, sendo necessário demonstrar efeitos anticoncorrenciais concretos associados a violação de deveres legais. Ela destaca que salvaguardas robustas geram maior confiança e segurança jurídica, podendo ser fator de competitividade positiva no longo prazo.
Haikal adota posição semelhante, afirmando que é natural que diferentes modelos adotem abordagens distintas, e a escolha de calibragem dos guardrails pertence a uma zona cinzenta regulatória, não havendo imposição legal expressa que obrigue uniformidade. "A assimetria entre modelos deve ser compreendida dentro do ciclo normal de amadurecimento regulatório", observa.
Thomaz é mais categórico: "Não vejo caracterização de vantagem competitiva desleal. Trata-se de abordagens distintas que permanecem dentro da legalidade, refletindo visões divergentes sobre governança digital".
Lições do AI Act europeu
O AI Act europeu estabelece obrigações estruturais de conformidade para sistemas de alto risco, incluindo avaliações de conformidade, documentação técnica e gestão contínua de riscos. Especialistas apontam que, se aplicado ao caso Grok, o regulamento evidenciaria falhas relevantes.
Valverde identifica três frentes de falha: transparência sobre conteúdo sintético, documentação técnica inadequada e ausência de governança de riscos capaz de demonstrar identificação e mitigação de riscos relevantes.
Quanto à exportabilidade do modelo europeu, os especialistas divergem. Valverde considera o modelo amplamente transplantável, destacando que o PL 2.338 já adota a mesma lógica de regulação por risco. Raccioppi concorda parcialmente, mas ressalta a necessidade de adaptação ao ordenamento brasileiro.
Já Haikal adota posição crítica: "O modelo europeu, com sua rigidez documental e foco exaustivo em conformidade prévia, poderia engessar empresas brasileiras e sufocar iniciativas em fase embrionária". Ela defende que o caminho mais inteligente para o Brasil é valorizar mecanismos de autorregulação e intervenções calibradas com base em riscos efetivos.
Thomaz compartilha essa preocupação: "É um modelo excessivamente burocrático, com alto custo de conformidade, que inibe o desenvolvimento autônomo de tecnologias. O Brasil deve buscar equilíbrio entre proteção e inovação".
Responsabilidade objetiva ou subjetiva?
O debate sobre o regime de responsabilidade adequado para danos causados por IA divide os especialistas. Valverde defende a responsabilidade objetiva para sistemas de alto risco, argumentando que exigir prova de negligência equivaleria a impor ônus probatório praticamente impossível à vítima. O PL 2.338 já adota esse regime para IA de alto risco, estabelecendo ainda presunção de culpa e inversão probatória nos demais casos.
Raccioppi apresenta visão mais cautelosa, reconhecendo que um regime exclusivamente baseado em prova de culpa pode dificultar a reparação, mas qualquer modelo deve ser construído gradualmente, preservando segurança jurídica e equilíbrio entre inovação e proteção.
Haikal defende um modelo intermediário: "Ao invés de importar categorias clássicas sem mediação, o ordenamento pode evoluir para imputação baseada em governança, diligência e capacidade de compreensão técnica proporcional ao papel do agente". Ela destaca que a ausência de alfabetização em IA pode ser considerada fator de negligência.
Thomaz posiciona-se pela responsabilidade subjetiva: "É o regime mais adequado para uma tecnologia emergente. Aplicar a objetiva pode desestimular o desenvolvimento de soluções de IA no Brasil ao impor ônus desproporcional".
Direito de imagem em ambiente digital
A jurisprudência brasileira sobre direito de imagem desenvolveu-se em contexto analógico, mas especialistas consideram que o arcabouço atual é adaptável aos deepfakes. Valverde explica que a dogmática tradicional protege não apenas a fotografia original, mas o bem jurídico mais amplo que ela representa: a identidade visual da pessoa, sua honra e dignidade.
Raccioppi destaca que o direito de imagem alcança tanto a "imagem-retrato" quanto a "imagem-atributo", permitindo responsabilização mesmo quando a representação sintética não deriva de imagem real, mas fere a identificação pública da pessoa.
Haikal observa que o que se tutela não é apenas a captura literal da fisionomia, mas a possibilidade de associação pública entre a representação e a pessoa identificável, configurando uso da imagem mesmo quando criada artificialmente.
Tipo penal autônomo ou interpretação extensiva?
A criação de tipo penal específico para deepfakes não consensuais divide opiniões. Valverde reconhece que tipos tradicionais como difamação e injúria nem sempre capturam a especificidade do deepfake, mas pondera que o Direito Penal deve operar com parcimônia, criando novos tipos apenas quando as normas existentes se mostram inequivocamente insuficientes.
Raccioppi considera que um tipo penal específico, cuidadosamente delimitado, poderia aumentar a segurança jurídica, desde que evite excessos e seja articulado com mecanismos civis e administrativos. Ela ressalta, porém, que o Brasil ainda carece de dados sobre recorrência e impactos dos deepfakes.
Haikal defende que o tipo penal autônomo deve focar na conduta de quem gera ou impulsiona intencionalmente deepfakes lesivas, evitando imputações desproporcionais a plataformas que apenas hospedam conteúdo.
Thomaz é mais incisivo: "Considerando o princípio da legalidade e a interpretação restritiva do Direito Penal no Brasil, o mais adequado seria a criação de tipo penal autônomo, conferindo maior segurança jurídica".
Auditabilidade e segredo industrial
A tensão entre transparência algorítmica e proteção de ativos empresariais exige soluções equilibradas. Valverde defende um modelo de transparência controlada, no qual a empresa preserva segredos, mas comprova conformidade por meio de documentação e acesso supervisionado. Ele aponta que terceiros independentes podem verificar requisitos de segurança sob confidencialidade.
Raccioppi ressalta que o equilíbrio pode ser buscado por meio de auditoria restrita, conduzida por terceiros qualificados com acesso monitorado, verificando controles sem expor lógica interna.
Haikal observa que accountability algorítmica não exige que tudo seja aberto, mas que tudo seja justificável, por meio de documentação técnica robusta, logs de operação e evidências de testes. Ela destaca que empresas com governança sólida reduzem riscos jurídicos e demonstram responsabilidade epistêmica.
Thomaz apresenta visão mais cética: "A auditabilidade algorítmica plena é praticamente utópica. É possível auditar salvaguardas e processos, mas modelos de auditoria por terceiros ainda são problemáticos do ponto de vista do sigilo".
Regulação em ambiente de commoditização
A proliferação de modelos open source e APIs acessíveis desafia a regulação focada em grandes desenvolvedores. Valverde argumenta que focar em atores centrais continua fazendo sentido porque existem gargalos relevantes na cadeia, mas o PL reconhece a realidade ao distribuir deveres conforme funções, permitindo responsabilizar quem coloca o sistema em uso.
Raccioppi observa que a regulação continua a atribuir papel central aos gatekeepers não por serem criadores, mas porque controlam distribuição, alcance e escala de impactos. "A responsabilidade passa a ser funcional, recaindo sobre quem tem meios reais de governança", explica.
Haikal afirma que regular sistemas sem dono único exige abandonar a autoria exclusiva e focar em quem efetivamente influencia o sistema.
Thomaz pondera que a situação é complexa e não comporta solução única, devendo considerar o usuário final como agente passível de responsabilização pelo uso indevido, com identificação por logs ou fingerprints.
Caminhos para o futuro
O caso Grok evidencia que a regulação de IA no Brasil está em momento crítico. O PL 2.338/2023 oferece arcabouço promissor, mas sua efetividade dependerá da implementação institucional, articulação entre autoridades e interpretações judiciais que equilibrem direitos e inovação.
Os especialistas convergem em um ponto: a resposta regulatória não pode ser nem permissividade absoluta, nem burocratização paralisante. O desafio é construir um modelo brasileiro que aprenda com experiências internacionais, evite seus erros e promova governança responsável sem sufocar o desenvolvimento tecnológico nacional.
Enquanto isso, o debate sobre deepfakes permanece como laboratório essencial para testar os limites da responsabilidade civil, da proteção de dados e dos direitos da personalidade em ambiente digital. A forma como o Brasil responderá ao caso Grok pode definir o tom da regulação de IA para os próximos anos.

