Dever de cuidado e responsabilidade das redes sociais pela checagem de conteúdo

JOTA.Info 2025-01-09

O dever de cuidado e a responsabilidade das plataformas digitais que veiculam conteúdo de terceiros têm merecido considerações e debates intensos. Com o anúncio do CEO da Meta, Mark Zuckerberg, na última terça-feira (7), de que não mais fará checagem dos conteúdos circulantes nas redes sociais da sua empresa, em nome de uma suposta liberdade de expressão, a discussão teve sua temperatura elevada.

Especialmente porque deixa a entender que a checagem de fatos, para veiculação da informação segura, seria censura, com o que não se pode concordar.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

Embora se refira à prática que adotará nos EUA, sem menção direta ao Brasil, o anúncio acende o alerta, mas é inquestionável que o ordenamento brasileiro contém regras legais mais bem definidas para tratar do assunto. Isso sem contar protocolos e termos de compromisso voluntariamente firmados pelas plataformas, com o objetivo de moderar conteúdos para evitar a difusão da desinformação que atinja o processo eleitoral, por exemplo. 

De fato, o principal dispositivo nesse campo tem sido discutido no Supremo Tribunal Federal, o artigo 19 do Marco Civil da Internet, que mais de uma década depois de editado, carece de aperfeiçoamento, principalmente em face das últimas movimentações extremistas que se valem das plataformas para engajar e manipular lançando mão de fake news e conteúdos violentos para atentar contra a democracia.

Por isso, a moderação de conteúdos nas redes sociais a partir do artigo 19 do MCI não deve ser lida de modo isolado, não harmônico com outros dispositivos e, principalmente, distante da Constituição, de outras leis como o Código de Defesa do Consumidor, o Código Civil, o Código Penal, o Estatuto da Criança e do Adolescente e regulamentos específicos, como resoluções do TSE. 

Sem subterfúgios, tal como constante da redação originária do artigo 19 do MCI, não pode ser de responsabilidade exclusiva do Judiciário velar pelo respeito aos direitos fundamentais no mundo digital, como prima ratio!

Para um sistema de justiça abarrotado, com mais de 83 milhões de processos, como anuncia o CNJ, é mais que desejável que as plataformas cumpram seu dever de cuidado, independente da ação estatal, e que o façam sem delongas ainda mais quando provocadas pelas pessoas interessadas.  

Bem guardada a finalidade do artigo 19, lembrando a principiologia estruturante do MCI, não há falar nos dois direitos fundamentais anunciados, liberdade de expressão e vedação à censura, para colocar biombo na responsabilidade das plataformas que não são estáticas, neutrais ou doadoras de serviços para o bem da humanidade, sem finalidade econômica e sem curadoria de conteúdos. 

A propósito, no Estado de Direito regulado pela Constituição, a faceta da responsabilidade corresponde ao elemento democrático, quando se trata da liberdade de expressão, que deve ser exercida sob identificação plena da autoria (inc. IV, art. 5º), jamais para albergar crimes, abusos e violências. 

A responsabilidade advém, exatamente, para que não se admitam violações dos direitos da personalidade, se acobertem tratamentos desumanos e degradantes, não haja anuência com a violação da honra e da imagem ou cerco ao acesso à informação, não se pactue com a propagação do racismo, a violação da proteção aos dados pessoais, com a violação da proteção integral das crianças, com a distorção e a desinformação afetando o princípio da segurança, da confiança e da democracia.  

Ao tratarmos das plataformas, é preciso vê-las como veículos de comunicação social, como já reconhecido pelo TSE, no RO 060397598, vendendo e perfilizando publicidade com a mineração de dados, se relacionando com pessoas usuárias por meios de contratos (termos de uso), portanto, numa relação de consumo.

A propósito, outro importante tribunal brasileiro, o STJ, reconhece a relação de consumo entre usuário e redes sociais, como se pode ler no Recurso Especial 1.783.269-MG, de 14/12/2021, e no Recurso Especial 2.096.417-SP, de 07/03/2024. 

A manifestação da Advocacia-Geral da União (AGU), inclusive, no RE 1.037.396, leading case do Tema 987, da repercussão geral do STF, foi no sentido de que o terceiro que gera conteúdo impulsionado é cliente da plataforma, o que reforça a relação de consumo e a necessidade de responsabilização dessas empresas pelos conteúdos ilícitos nelas veiculados:

  1. Em se tratando de relação de consumo, configurada quando há relação da plataforma com o usuário final, ainda com mais razão se pode afirmar que não se aplica a regra geral do art. 19 do MCI. A expressão “conteúdo gerado por terceiros” não é adequada para descrever conteúdos veiculados por meio de publicidade paga, em que o anunciante remunera a plataforma para o impulsionamento de uma determinada mensagem. Nessa situação, o “terceiro” não é alguém supostamente indeterminado sobre quem a plataforma não possui qualquer ingerência. O “terceiro” que gera o conteúdo é, na verdade, um cliente da plataforma, que remunera o provedor para impulsionar uma determinada mensagem. O alcance ampliado desse conteúdo, obtido por meio do impulsionamento, impõe ao provedor uma responsabilidade adicional na fiscalização da legalidade do conteúdo. A negligência em remover ou impedir a divulgação de conteúdos ilícitos, mesmo na ausência de uma ordem judicial, deve, portanto, levar à responsabilização da plataforma, conforme as normas do Código de Defesa do Consumidor.

É indubitável que a relação de consumo submete as plataformas ao regime de responsabilidade civil (artigo 927, Código Civil), sem descuidar da responsabilidade penal pela omissão (artigo 13, Código Penal), se não agirem para inibir o dano contra os direitos fundamentais.  

Deve ser afastada de vez a visão simplória de que haveria neutralidade e ação desinteressada no resultado, como meras empresas de tecnologia. A tecnologia coadjuva, mas o objeto central é a comercialização de espaços/dados/produtos voltados à publicidade de toda sorte, inclusive e maciçamente publicidade eleitoral.

Outro aspecto, para tratar das perspectivas, é não perder de vista que a liberdade econômica, guindada ao status constitucional não permite que empresas privadas conduzam seus negócios como quiserem, sem respeito à coletividade e à função social que devem cumprir. 

O Marco Civil da Internet, criado com a finalidade de proteger as pessoas no âmbito digital, a cidadania, com seus direitos humanos fundamentais, enseja interpretação e aplicação sistêmica de todos os seus dispositivos, harmonizando o artigo 19 com o artigo 21, por exemplo, para que cogitações de proteção da liberdade de expressão e vedação à censura não sirvam para nublar seus sentidos, e que o dever de cuidar não se transforme em letra morta ou seja tratado como obstáculo.

A AGU reforça também que as plataformas, por serem as responsáveis pela manutenção, disponibilização e impulsionamento dos conteúdos, podem ser responsabilizadas:

  1. O referido artigo 19 da Lei 12.965/2014, portanto, não exaure as hipóteses ensejadoras da moderação de conteúdo. O ordenamento jurídico é um todo unitário, um sistema que se completa em conjunto, dotado de coerência e completude. Há situações nas quais a responsabilidade pode ser imputada aos provedores de aplicações de internet não pela elaboração e disponibilização do conteúdo imputáveis ao usuário, mas por aquilo que é próprio das plataformas digitais, a manutenção, o impulsionamento e a distribuição massiva de informação, viabilizada por algoritmos e outros atributos inerentes a atividade empresarial por elas desenvolvida.

Ainda, é preciso remarcar que há um plano global para o milênio, cujo Objetivo 16 exorta à paz, justiça e instituições sólidas, o que realça o papel da ONU na governança mundial para que essa construção se estenda para o mundo digital, em busca de um ambiente seguro e inclusivo também nessa esfera. 

O Marco Civil da Internet deve guardar compatibilidade com os objetivos do milênio, os tratados e princípios internacionais, nomeadamente orientadores de empresas transnacionais e direitos humanos, que lhes impõe o dever de proteger, respeitar e reparar. 

Com isso, o dever de cuidado e diligência se ativa para que os direitos fundamentais sejam protegidos, com a ação preventiva e eficiente das empresas submetidas aos princípios constitucionais para o desenvolvimento de tais atividades, lançando mão de todos os meios, inclusive o devido processo administrativo, para atender denúncias e reclamações das pessoas usuárias, especialmente quanto a contas não identificadas, perfis falsos, veiculação de discursos de ódio, misóginos, agressivos às crianças, às pessoas negras, indígenas, dentre outras ações danosas e visíveis a olho nu. Isso para propiciar controle cuidadoso, não só e exclusivamente, por intermédio do processo judicial. 

Voltando ao próprio MCI, no artigo 21, resta mais que evidente o dever de cuidado, antes mesmo de qualquer ordem judicial:  

O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo (grifo nosso).

Alguém cogitaria de violação da liberdade de expressão ou de censura se a pornografia infantil for retirada de circulação, independente de ordem judicial? E o que dizer da violência política contra as mulheres, com a exortação ao seu extermínio, ostensivamente praticada em canais monetizados? 

Precisamente nessa linha, importante receber os influxos da regulação levada a efeito pelo TSE, com a Resolução 23.610, preocupado com a integridade do processo eleitoral, para arrematar a reflexão: 

  1. é dever do provedor de aplicação de internet, que permita a veiculação de conteúdo político-eleitoral, a adoção e a publicização de medidas para impedir ou diminuir a circulação de fatos notoriamente inverídicos ou gravemente descontextualizados;
  2. é vedado ao provedor de aplicação, que comercialize qualquer modalidade de impulsionamento de conteúdo, disponibilizar esse serviço para veiculação de fato notoriamente inverídico ou gravemente descontextualizado;
  3. o provedor de aplicação, que detectar conteúdo ilícito ou for notificado de sua circulação pelas pessoas usuárias, deverá adotar providências imediatas e eficazes para fazer cessar o impulsionamento, a monetização e o acesso ao conteúdo e promoverá a apuração interna do fato e de perfis e contas envolvidos para impedir nova circulação do conteúdo e inibir comportamentos ilícitos, inclusive pela indisponibilização de serviço de impulsionamento ou monetização;
  4. as providências mencionadas para proteger o ambiente digital decorrem da função social e do dever de cuidado dos provedores de aplicação, que orientam seus termos de uso e a prevenção para evitar ou minimizar o uso de seus serviços na prática de ilícitos eleitorais, e não dependem de notificação da autoridade judicial;
  5. caberá aos provedores de aplicação cumprir as ordens para remoção de conteúdo, suspensão de perfis, fornecimento de dados ou outras medidas determinadas pelas autoridades judiciárias, no exercício do poder de polícia ou nas ações eleitorais, e, se o integral atendimento da ordem depender de dados complementares, informar, com objetividade, no prazo de cumprimento, quais dados devem ser fornecidos.  

Dessa maneira, o dever de cuidado é bastante similar ao dever de prestar socorro a quem necessita, com ações eficazes e diligentes.

A nossa compreensão é que o cuidado com o ambiente digital com a checagem de conteúdo está no campo do dever, não do poder. Implica dizer que é dever do provedor excluir conteúdos danosos aos direitos fundamentais, ainda mais se perante o Poder Público emanando ordem judicial para tanto. Não é hipótese aceitável se recusar a fazê-lo, ainda mais se demandado por reclamação pertinente da pessoa ofendida. 

Melhor: é dever, em ação preventiva e de cuidado, adotar plano de integridade para inibir infrações a direitos fundamentais com os conteúdos veiculados, com apuração criteriosa de origem, meios e eventuais pessoas atingidas, com relatórios às autoridades competentes. 

Essa compreensão diz do controle judicial como mais uma possibilidade, não a única, nem exclusiva, cabendo às empresas que oferecem os serviços velarem pelo ambiente no qual se desenvolvem. Ademais, em breve, com o julgamento do recurso pertinente, que tramita no STF, acerca da constitucionalidade do artigo 19 do Marco Civil da Internet, o cenário regulatório restará ainda mais nítido.