Ao rolar o feed das redes sociais para distração — seja em casa, no transporte público ou no trânsito —, o usuário é frequentemente bombardeado por anúncios e publicações pagas. Essa ferramenta serve para destacar materiais financiados por empresas a fim de divulgar produtos e serviços a públicos segmentados, consolidando-se como uma estratégia indispensável para quem busca manter a relevância no mercado.
No entanto, a plataforma não realiza uma distinção rigorosa dos materiais impulsionados. Esse vácuo operacional abre brechas para que agentes mal-intencionados divulguem golpes financeiros e promessas enganosas, deixando os consumidores indevidamente expostos a esses riscos.
Sob essa alegação, o Instituto Defesa Coletiva moveu uma ação civil pública no Tribunal de Justiça de Minas Gerais (TJMG) contra a Meta, acusando a empresa de supostamente promover e monetizar conteúdos ilícitos em plataformas como o Facebook e o WhatsApp. O processo tramita na 32ª Vara Cível de Belo Horizonte e, até o fechamento desta edição, não houve uma decisão judicial sobre o caso.
Na ação, o Instituto exige que a big tech adote medidas de segurança e prevenção, além de exigir que a plataforma não use mais dados pessoais de usuários para segmentar anúncios. Além disso, a entidade também busca o pagamento de uma indenização de R$ 1,5 bilhão por danos morais coletivos por falha grave na prestação do serviço.
Decisão isolada ou tendência?
Para o Instituto, a Meta deve ser responsabilizada pela vulnerabilidade algorítmica de seus serviços, que já deveria ser de conhecimento da Meta. A entidade argumenta ainda que as plataformas da empresa permitem a livre circulação de fraudes e acabam por se beneficiar financeiramente delas, uma vez que os impulsionamentos são realizados mediante pagamento.
Na visão do professor Fernando Moreira, advogado e professor da Fundação Getúlio Vargas (FGV), além de especialista em cibersegurança, este caso não parece configurar uma iniciativa isolada. Entretanto, o especialista ressalta que o que cresce no Judiciário é a relativização do artigo 19 do Marco Civil da Internet nos casos em que a plataforma deixa de ser uma hospedeira passiva e passa a lucrar com a difusão de conteúdo fraudulento.
"A tendência existe, porém a uniformização nacional dependerá de um posicionamento definitivo do Superior Tribunal de Justiça", complementa Moreira.
Big techs como parceiras do risco?
Os argumentos utilizados pelas plataformas de redes sociais sustentam que elas atuam apenas como intermediárias, e não como participantes ativas em tentativas de fraudes. No entanto, a partir do momento em que a empresa destaca anúncios fraudulentos mediante pagamento, essa prática pode transformá-la em uma suposta "parceira do risco" perante o Código de Defesa do Consumidor, o que anularia a proteção conferida pelo Marco Civil da Internet.
Para o sócio do Pironti+Moura, Rodrigo Pironti, esse é o ponto mais sensível do caso. "Quando a plataforma monetiza diretamente um anúncio fraudulento, ela deixa de ser vista apenas como infraestrutura tecnológica e passa a integrar a cadeia econômica daquele dano", destaca o advogado.
Segundo o especialista, existe um argumento jurídico relevante, sob a ótica do Código de Defesa do Consumidor, de que a plataforma participa da oferta ampliada do produto ou serviço fraudulento. Em outras palavras, A Meta não hospeda o conteúdo, mas lucra diretamente com a ampliação do alcance do golpe.
Pironti afirma que os tribunais brasileiros têm demonstrado uma movimentação gradual para relativizar a leitura absoluta do Marco Civil. Esse movimento ganhou força especialmente após o Supremo Tribunal Federal (STF) discutir a constitucionalidade do Artigo 19 do Marco Civil nos Temas 987 e 533, além do avanço de debates regulatórios internacionais. Essas discussões indicam que as plataformas deixaram de atuar como intermediárias passivas para assumirem um papel economicamente ativo na circulação destes conteúdos.
"O artigo 19 do Marco Civil foi pensado para proteger a liberdade na internet, e não para criar uma blindagem absoluta para modelos de negócio que monetizam riscos conhecidos, cujas consequências impactam diretamente a economia e as pessoas", argumenta Pironti.
As implicações em anúncios pagos
Apesar de os argumentos da ação visarem a proteção dos usuários, o processo pode trazer repercussões negativas para o setor corporativo. Caso a ação seja julgada a favor da entidade, o mercado poderá enfrentar não somente um aumento de preços, como uma mudança radical no cenário de divulgação de produtos e serviços nas redes sociais.
"Se uma condenação bilionária se consolidar, o impacto real para marcas legítimas tenderá a ser o aumento do custo de mídia, além de verificações mais rígidas, aprovações mais lentas e maior exigência documental. Grandes anunciantes dificilmente abandonarão a Meta Platforms, mas passarão a cobrar um ambiente mais seguro e reputacionalmente confiável", acredita o professor Fernando Moreira.
Moderação proativa como regra
A maneira ideal de evitar que situações como essa ocorram deve ser a identificação de lacunas de segurança algorítmica pelas big techs antes mesmo da denúncia, especialmente em casos de anúncios pagos. É por esse motivo que a moderação proativa precisa se tornar a regra para mitigar esse tipo de vulnerabilidade.
Rodrigo Pironti observa que esse cenário tem motivado um questionamento mais sofisticado sobre o tema: se a plataforma lucra antes de a fraude se concretizar, a avaliação de sua responsabilidade também deveria estar atrelada a critérios de mitigação e apetite ao risco. Caso a ação seja julgada favoravelmente à entidade, as empresas legítimas passarão a exigir um compliance by design mais rígido das plataformas.
"O impacto provavelmente será o aumento das exigências de conformidade dentro das próprias plataformas, envolvendo validação documental mais robusta, rastreabilidade de anunciantes, mecanismos antifraude e auditorias mais rigorosas em campanhas sensíveis", afirma Pironti.
Mudanças estruturais nos termos de uso
Para evitar que ações como essa se tornem uma rotina de perdas bilionárias nos balanços financeiros, as big techs precisam adotar mudanças estruturais em seus termos de uso e filtros de segurança. Nesse cenário, Pironti indica as adaptações necessárias para a sustentabilidade do modelo de negócio.
"As plataformas precisarão migrar de um modelo reativo para um modelo preventivo. Isso envolve uma due diligence mais robusta de anunciantes, verificação reforçada de identidade, sistemas automatizados de detecção de fraude, revisão humana em anúncios sensíveis e maior transparência sobre os critérios algorítmicos de impulsionamento", recomenda o advogado.
O sócio afirma que, durante muitos anos, as plataformas sustentaram a tese de que eram apenas pontes neutras entre usuários. O problema reside no fato de que algoritmos monetizados deixaram de ser pontes há bastante tempo; hoje, eles atuam como agentes ativos de distribuição econômica de risco. Segundo Pironti, o judiciário brasileiro começou a perceber essa transição, o que tem motivado esse tipo de ação.
"No fundo, estamos entrando em uma era do que chamo de compliance by design nas plataformas digitais, que consiste em prevenir o dano antes que ele escale em massa", ressalta Pironti.
Com base nessa mudança de mentalidade, o professor Fernando Moreira destaca que a ação representa uma evolução na percepção da justiça brasileira. O especialista finaliza com a projeção de um cenário que ele acredita que se tornará a regra para os próximos anos no ambiente digital.
"O debate jurídico está mudando de eixo: deixa de se perguntar apenas ‘quem publicou?’ para questionar ‘quem lucrou, segmentou e ampliou o dano?’. Esse binômio, que une o lucro à segmentação, pode redefinir a responsabilidade civil digital no Brasil e fortalecer um verdadeiro Direito Digital do Consumidor", conclui Moreira.

