O imposto oculto: como cadastros inconsistentes ameaçam a corrida de empresas pela IA | Análise
Análise

O imposto oculto: como cadastros inconsistentes ameaçam a corrida de empresas pela IA

Enquanto empresas aceleram a adoção de IA, falhas na qualidade de dados deixam de ser problema operacional e passam a gerar riscos jurídicos e financeiros relevantes

3 de April 0h17
(Imagem: Análise Editorial/Reprodução)

A promessa da inteligência artificial é sedutora: eficiência, automação, decisões mais rápidas e precisas. Mas há um obstáculo silencioso entre as empresas brasileiras e esse futuro — e ele não tem nada de tecnológico. Chama-se dado ruim. Cadastros duplicados, informações desatualizadas e bases sem qualquer critério de padronização estão no coração de uma crise que, segundo dados da plataforma Shelf, consome até 12% da receita das companhias e pode custar entre US$ 12 milhões e US$ 15 milhões por ano às empresas de médio porte — chegando a US$ 406 milhões nas grandes corporações.

Por muito tempo, o problema foi tratado como uma questão de TI. Agora, com a corrida pela automação, o diagnóstico mudou de endereço: o imposto oculto da desorganização passou a frequentar o vocabulário do departamento jurídico — e já começa a atrair responsabilização civil, sanções regulatórias e danos reputacionais que nenhum balanço consegue ignorar.

Da ineficiência ao passivo jurídico

Para Daniel Becker, sócio da área de Proteção de Dados e IA do BBL Advogados, a linha entre ineficiência operacional e risco jurídico concreto é mais tênue do que a maioria das empresas imagina. "A ineficiência no tratamento de dados deixa de ser um problema meramente operacional quando passa a produzir efeitos externos concretos — quando gera decisões equivocadas que impactam terceiros, como negativas indevidas de crédito, erros de faturamento ou discriminação algorítmica", avalia o especialista.

"Dado ruim não é apenas ineficiência: é um problema de governança que, especialmente no contexto de IA e automação, pode rapidamente evoluir para um passivo jurídico."

O ponto mais sensível, segundo Becker, é que o risco começa antes mesmo da materialização de um dano. "A tolerância a bases imprecisas e não saneadas já pode ser interpretada como falha de governança", explica. "A manutenção de riscos previsíveis e não gerenciados indica ausência de diligência na condução do negócio."

Juliana Sene Ikeda, sócia do Campos Thomaz Advogados, reforça a amplitude dessa exposição. Para ela, o uso de informações de baixa qualidade pode gerar riscos jurídicos quando impacta as demonstrações financeiras, prejudica terceiros — consumidores, parceiros ou investidores — e acarreta o descumprimento de obrigações legais ou regulatórias. "Qualquer falha operacional pode evoluir para responsabilidade civil da empresa e, em certos casos, caracterizar violação do dever de cuidado e diligência dos administradores", afirma.

IA treinada com dados inconsistentes: uma combinação explosiva

O cenário se agrava quando a inteligência artificial entra em cena. Sistemas de IA alimentados por cadastros inconsistentes ou duplicados produzem decisões automatizadas sobre crédito, precificação e atendimento — e essas decisões, mesmo que geradas por algoritmos, são inteiramente imputáveis às empresas.

"Uma decisão equivocada, ainda que gerada por IA, é imputável à empresa. Isso pode configurar prática abusiva, discriminação ou falha na prestação do serviço, gerando danos morais, sanções administrativas e aumento do contencioso", aponta Becker.

Na perspectiva de Ikeda, os passivos se ramificam em várias direções: responsabilidade por decisões discriminatórias, violação de direitos do consumidor com base no Código de Defesa do Consumidor, infrações à Lei Geral de Proteção de Dados (LGPD) — especialmente quanto à qualidade, finalidade e adequação dos dados — e riscos contratuais com parceiros comerciais. "Os danos reputacionais podem ser severos, afetando a confiança do mercado, a credibilidade da marca e até o valor da empresa", alerta.

Becker complementa: "A combinação entre exposição jurídica e perda de credibilidade é, na prática, o maior custo oculto do uso de IA sem uma governança adequada de dados."

LGPD: a lei que transforma dado ruim em infração

A Lei Geral de Proteção de Dados não é apenas uma exigência de segurança da informação. Seus princípios de qualidade, necessidade e transparência criam obrigações diretas sobre a acurácia das informações mantidas pelas empresas. Alimentar modelos de IA com bases desatualizadas, duplicadas ou inconsistentes, para Becker, "não é apenas ineficiência: é descumprimento legal".

O equilíbrio entre o apetite da IA por grandes volumes de dados e as exigências legais de precisão passa por uma lógica que Ikeda sintetiza com clareza: "A lógica deixa de ser 'quanto mais dados melhor' e passa a ser 'dados confiáveis, adequados e juridicamente sustentáveis'." Para isso, as empresas precisam adotar políticas de minimização, implementar processos contínuos de validação e atualização, e garantir transparência e finalidade no uso das informações.

Becker acrescenta que empresas que estruturam seus projetos de IA sobre bases de dados saneadas "não apenas reduzem riscos regulatórios, mas também desenvolvem modelos mais precisos e decisões mais defensáveis". A qualidade dos dados, nesse contexto, deixa de ser apenas uma exigência legal e vira uma vantagem competitiva.

O novo papel do jurídico: de reativo a estratégico

Se o problema mudou de dimensão, o papel dos advogados também. Tanto Becker quanto Ikeda são enfáticos: o departamento jurídico não pode mais ser acionado apenas quando o problema já virou litígio.

"O advogado in-house e o consultor jurídico deixaram de ser figuras reativas", observa Becker. "A complexidade regulatória envolvendo IA e dados exige que o jurídico esteja presente desde a concepção dos projetos, participando de decisões sobre arquitetura de dados, escolha de fornecedores e definição de políticas internas."

Ikeda aponta na mesma direção, destacando a necessidade de uma atuação integrada:

"O time jurídico tem que ter um papel central na estruturação da governança de dados, atuando de forma integrada com TI, compliance e áreas de negócio. O saneamento de dados deve ser tratado como tema de compliance e risco corporativo, e não apenas técnico."

Primeiros passos práticos para escalar a IA com segurança

Diante do cenário, quais são as medidas concretas que uma empresa deve adotar? Os especialistas são convergentes nos pontos de partida.

Checklist jurídico-operacional para governança de dados e IA

  • Revisão de contratos com fornecedores de tecnologia, com cláusulas sobre qualidade, origem dos dados e responsabilidades em caso de falhas;
  • Due diligence prévia de fornecedores, avaliando a origem e qualidade das bases utilizadas;
  • Implementação de programa de governança de dados e IA com políticas, papéis e rotinas de monitoramento;
  • Criação de comitês multidisciplinares envolvendo jurídico, TI, compliance e negócios;
  • Mapeamento e classificação dos dados existentes, com controles e auditorias periódicas;
  • Adoção de frameworks como a ISO/IEC 42001 como referência de governança;
  • Programas de letramento em IA para garantir compreensão dos limites da tecnologia em todas as áreas;

Para Becker, o elemento cultural é indispensável: "Iniciativas de letramento em IA, cartilhas de boas práticas e treinamentos ajudam a garantir que as áreas de negócio compreendam os limites da tecnologia, a importância da qualidade dos dados e a necessidade de supervisão humana."

Ikeda reforça a urgência da adoção dessas medidas como condição para a própria sobrevivência das operações: "Essas medidas permitem escalar o uso de IA com segurança, reduzindo riscos jurídicos e evitando custos invisíveis decorrentes da desorganização informacional."

O recado que fica é: empresas que ainda tratam o saneamento de dados como problema de TI estão, na prática, acumulando um passivo que nenhum algoritmo conseguirá resolver.

BBL AdvogadosCampos Thomaz AdvogadosDados RuinsDaniel BeckerImpostoJuliana Sene IkedaLGPDNotícias