As lacunas da decisão do STF sobre o Marco Civil da Internet
JOTA.Info 2025-08-01
A regulação das plataformas digitais e a delicada balança entre liberdade de expressão e combate à desinformação constituem, sem dúvida, um dos grandes desafios jurídicos do constitucionalismo contemporâneo.
Nesse cenário, uma recente sentença do Tribunal Europeu dos Direitos Humanos (TEDH) no caso Google LLC e outros v. Rússia (18 de junho de 2024) emerge como um farol de princípios e advertências cruciais, especialmente ao expor as fragilidades da recente decisão do Supremo Tribunal Federal sobre o art. 19 do Marco Civil da Internet.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Enquanto o Brasil vivencia intensos debates e decisões judiciais acerca da responsabilização das big techs, o julgamento de Estrasburgo não só lança luz sobre os perigos da censura estatal disfarçada de regulação, mas também ressoa profundamente com a imperativa busca por um equilíbrio que combata abusos sem cercear a liberdade fundamental.
O caso julgado pelo TEDH envolve a imposição de multas substanciais à Google LLC por tribunais russos, em virtude do não cumprimento de pedidos de remoção de conteúdo no YouTube. O conteúdo em questão era vasto, abrangendo desde vídeos relacionados à invasão da Ucrânia pela Rússia até críticas ao governo, reportagens independentes e apoio aos direitos LGBTQ. Os tribunais russos justificavam sua atuação com base em uma lei federal que previa a remoção de desinformação sobre temas como a mobilização das Forças Armadas russas, a proteção de interesses nacionais e a segurança internacional.
O TEDH observou que os fatos da alegada interferência ocorreram antes de 16 de setembro de 2022, data em que a Federação Russa deixou de ser parte na Convenção Europeia de Direitos Humanos, o que lhe conferia jurisdição para examinar o caso. Por unanimidade, declarou a violação do artigo 10º da Convenção Europeia dos Direitos Humanos (liberdade de expressão) ao considerar que a imposição de penalidades tão severas, combinada com a ameaça de novas sanções, exerceu pressão considerável sobre a Google LLC para censurar conteúdo, interferindo em seu papel de provedora de plataforma para a livre troca de ideias e informações.
As razões para essa conclusão são particularmente instrutivas para o cenário brasileiro. Em primeiro lugar, o tribunal reiterou que, embora segurança nacional e integridade territorial sejam objetivos legítimos, devem ser aplicados com moderação e interpretados restritivamente, invocados apenas quando comprovadamente necessário suprimir informações.
Em segundo lugar, o tribunal enfatizou o papel das plataformas como fórum para diversos pontos de vista, inclusive os não tradicionais. Contudo, reconheceu que, ao gerenciar ou curar conteúdo (via algoritmos), as plataformas assumem deveres de cuidado e diligência na moderação do debate público.
Em terceiro lugar, o TEDH enfatizou o “efeito inibidor” (chilling effect) das multas desproporcionais. A severidade e natureza cumulativa das sanções financeiras, e a ameaça de penalidades maiores, exerceram pressão considerável sobre a Google LLC para censurar conteúdo. Esse cenário, segundo o tribunal, atingiu o cerne da função da internet como meio para a livre troca de ideias. Por fim, o TEDH criticou a falha dos tribunais russos em avaliar a veracidade do conteúdo, seus riscos, impacto ou dano.
O voto concordante do juiz Pavli – talvez a parte mais interessante da decisão do Tribunal Europeu – destacou ser esta a primeira sentença do TEDH a abordar diretamente direitos e responsabilidades de grandes plataformas digitais sob o artigo 10º. Ele reforçou que plataformas não são meras intermediárias, mas possuem papel crucial na formação do ambiente online, exigindo práticas responsáveis. Assim, Estados podem, em princípio, impor obrigações de due diligence para promover um ambiente seguro e evitar a disseminação de conteúdo nocivo, essenciais à democracia em contextos como eleições.
Contudo, Pavli também reconheceu, que a moderação de conteúdo realizada pelas plataformas, pode violar a liberdade de expressão dos usuários, criticando a ausência de devido processo na lei russa. Ele contrastou com a Lei de Serviços Digitais (DSA) da União Europeia, que exige proteções individuais rigorosas para remoção de conteúdo, suspensão de contas ou desativação de monetização. Pavli previu que o Tribunal Europeu em breve deverá solucionar os conflitos entre plataformas e usuários, e a questão da disponibilidade de fóruns alternativos de expressão.
O tribunal será também chamado a avaliar se as grandes plataformas digitais, importantes para o livre fluxo de informações em nossas sociedades, podem ser assimiladas ao tipo de espaço público onde todos devem ter acesso irrestrito. Para Pavli, “qualquer que seja a resposta a essa pergunta – e quaisquer que sejam os direitos que o próprio artigo 10º possa (ou não) conferir aos usuários a esse respeito – parece razoável supor que os Estados terão um interesse suficientemente forte em exigir que as grandes plataformas ofereçam pelo menos certas salvaguardas básicas de devido processo legal destinadas a proteger os usuários – os poderosos, os famosos ou apenas cidadãos comuns – da exclusão arbitrária do mercado de ideias”.
O alerta do juiz do TEDH impacta diretamente as discussões brasileiras pós-decisão do STF sobre a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet. Ao modificar a exigência de notificação judicial para responsabilidade a partir de notificação extrajudicial (salvo exceções como matéria eleitoral e crimes contra a honra), o STF apostou na autorregulação das plataformas para garantir devido processo ao usuário.
Além de perigosa, a aposta é bastante contraditória. A decisão do STF sobre o art. 19 só têm sua razão de existir em razão das evidentes limitações da autorregulação das plataformas. Se a autorregulação das plataformas estivesse voltada à proteção dos usuários, possivelmente a atuação do Supremo seria dispensável.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Mesmo com exigências robustas de transparência e devido processo, a implementação do Digital Service Act (DSA) na União Europeia tem demonstrado a dificuldade de monitorar a moderação de conteúdo das plataformas. A base de dados de transparência do DSA, nos últimos seis meses, informa mais de 9,7 bilhões de decisões de remoção de conteúdo, sendo 51% delas totalmente automatizadas, segundo as plataformas.
Além da impossibilidade para qualquer órgão fiscalizador monitorar tal volume de decisões, a superficialidade das exposições de motivos realizada pelas plataformas, dificulta a avaliação dos impactos da remoção de conteúdos legítimos.
O item 8 da tese do STF exige autorregulação das plataformas, abrangendo notificações, devido processo e relatórios de transparência. Contudo, a decisão não detalha mecanismos para evitar remoções indevidas ou órgãos de fiscalização. Não se trata de advogar pela não moderação de conteúdo, mas de reconhecer que o poder excessivo nas mãos das plataformas tampouco pode ser a única saída. As democracias não devem abrir mão de regular os novos centros de poder informacional, mas tampouco podem fazê-lo sem freios, sem legitimidade e sem respeito aos direitos que se busca proteger.