O filósofo grego Aristóteles acreditava que a virtude está no meio, ou seja, na média ponderada dos fatos, entre o excesso e a falta. A recomendação aristotélica bem se aplica ao desafio que o Supremo Tribunal Federal (STF) tem diante de si ao discutir a responsabilização das plataformas digitais - as chamadas big techs - em relação a conteúdos produzidos por terceiros.
O debate tem se tornado cada vez mais relevante, tanto no Brasil quanto no cenário internacional. Com o aumento da utilização de redes como Facebook, Instagram, X (antigo Twitter), Threads, WhatsApp, TikTok, YouTube e afins o alcance dos conteúdos compartilhados por milhões de pessoas no mundo inteiro é imenso, e o impacto desses conteúdos sobre a sociedade não pode ser subestimado. O tema ganha ainda mais destaque quando se avalia o papel dessas empresas na difusão de informações, muitas vezes, sem controle ou checagem de informações, o que pode acarretar consequências sérias, como a propagação de notícias falsas, a disseminação de discursos de ódio e incitação à violência.
O tema já está em pauta no STF, onde os debates começaram ano passado e devem ser retomados neste semestre. A discussão envolve aspectos relacionadas à responsabilização das plataformas por conteúdos de terceiros. Atualmente, a legislação vigente não tem clareza ou marcos legais sobre o tema. O debate envolve uma série de implicações jurídicas, sociais e políticas, o que justifica uma abordagem multidisciplinar, com a participação de diversos atores: os próprios ministros do STF, juristas especializados na área de direito digital, representantes da sociedade civil e, claro, as próprias big techs.
Só com amplo debate se pode chegar ao modelo mais adequado, mas o certo é que a regulamentação da responsabilidade das plataformas é essencial para trazer mais segurança jurídica tanto para os usuários quanto para as próprias empresas. É fundamental que essa regulamentação não adote um caminho simplista. Os extremos da responsabilidade zero da responsabilidade absoluta pelas plataformas apresentam riscos significativos: a ausência total de responsabilização pode gerar um ambiente de impunidade para a disseminação de conteúdos prejudiciais, enquanto a responsabilização absoluta pode resultar na censura indevida de conteúdos legítimos, ferindo um bem valioso para as democracias, que é a liberdade de expressão. O equilíbrio é necessário para garantir que as plataformas exerçam um controle responsável sobre o conteúdo, sem comprometer a liberdade dos usuários.
Para que se garanta uma solução jurídica adequada, a responsabilidade das empresas deve ser modulada de acordo com as circunstâncias e com as medidas adotadas por elas para coibir abusos. Ou seja, deve-se estabelecer uma obrigação de vigilância, mas sem atribuir às plataformas responsabilidades impossíveis de serem cumpridas. Um aspecto importante dessa regulamentação é o prazo para que as empresas tomem medidas em relação ao comportamento dos usuários. A resposta a conteúdos nocivos deve ser célere, mas sem automatismos que venham a restringir demasiadamente a liberdade de expressão e o direito de os usuários se expressarem de maneira legítima.
Também relevante é garantir que os usuários tenham suas vozes ouvidas no processo de regulamentação, de modo que se alcance um sistema efetivo, justo e equilibrado. O papel dos usuários deve ser considerado tanto na criação de conteúdos quanto no processo de moderação, o que implica a necessidade de bons mecanismos de reporte e de feedback, bem como uma atuação das empresas que leve em conta as características específicas de cada plataforma e de seu público.
Recentemente o grupo Meta (Facebook, Instagram e WhatsApp), de Mark Zuckerberg, anunciou a substituição do sistema de checagem externa de dados por uma abordagem em que os próprios usuários poderão avaliar a veracidade das postagens. De acordo com essa nova política, em vigor nos Estados Unidos, a Meta passará a confiar nas "notas" atribuídas pelos usuários para sinalizar a veracidade das informações publicadas. A decisão foi tomada em um contexto marcado por uma série de fatores políticos, incluindo um encontro de Zuckerberg com Donald Trump e uma doação de US$ 1 milhão para a cerimônia de posse. É inegável que a nova política da Meta favorecerá a disseminação de desinformação, especialmente no que diz respeito a narrativas negacionistas e discursos de ódio. A principal preocupação é a possibilidade de se criar um ambiente em que informações falsas se espalhem rapidamente, sem que haja um mecanismo eficaz de verificação externa e imparcial. Ao delegar a verificação das postagens aos próprios usuários, sem a presença de mediadores independentes, corre-se o risco de que a plataforma se torne um terreno fértil para as polarizações.
Justamente para evitar tais distorções é que se torna urgente regulamentar a responsabilidade das big techs. O papel do Estado na criação de um ambiente digital mais seguro e equilibrado é fundamental, mas para que as soluções sejam eficazes, é necessário que as plataformas assumam sua responsabilidade de forma proativa, adotando medidas que minimizem os danos causados por conteúdos nocivos, sem comprometer os direitos fundamentais tão caros às democracias.
A regulamentação deve ser construída de maneira a prevenir a censura excessiva, ao mesmo tempo em que assegura a integridade do ambiente digital. Deve ser equilibrada e proporcional, consagrando a ética e a segurança jurídica. O tema é de grande relevância, e sua resolução demanda um debate abrangente e inclusivo, que considere as múltiplas perspectivas e busque o bem comum. A regulamentação equilibrada pode, sem dúvida, contribuir para a construção de um ambiente digital em que os direitos dos usuários sejam respeitados e os danos à sociedade minimizados.
Alan Bousso, Mestre em Direito Processual Civil pela PUC-SP, é sócio do escritório Cyrillo e Bousso Advogados