EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish

Critérios para moderação e remoção de conteúdo da internet

Critérios para moderação e remoção de conteúdo da internet

É inegável o aumento do volume de conteúdos existentes na Internet, bem como o consumo das mais diversas informações ali disponíveis. Por consequência lógica – e em sendo websites e redes sociais um dos maiores meios de comunicação atualmente – tem-se que a sociedade civil, o Estado e as próprias empresas privadas (administradoras de plataformas digitais1) passaram a se preocupar mais com a importância destas ferramentas de acesso pela e para a coletividade.

Tal como qualquer assunto relevante e presente, questões como “o que é um conteúdo ilícito?”, “o que pode ser mero exercício da liberdade de expressão e o que pode ser violação de direitos personalíssimos de terceiros?”, “quem deve definir quando e qual conteúdo ou perfil deve ser removido de uma rede social?”,

além de eventuais sanções envolvidas, continuam sendo debatidas, também no Brasil, ainda que o ordenamento jurídico já conte com disposições legais capazes de permitir definições razoáveis e proporcionais.

No Brasil, a responsabilidade civil dos provedores de aplicações é regulada pela lei Federal 12.965/14, conhecida como Marco Civil da Internet. Em suma, as pessoas físicas ou jurídicas que possuem ingerência sobre determinadas redes sociais ou websites que proporcionam espaços para o compartilhamento de conteúdo não são penalizados por publicações de terceiros/usuários, conforme art. 19, caput2.

 

Os provedores de aplicações de Internet respondem eventualmente e subsidiariamente por determinado conteúdo publicado por seu usuário apenas na hipótese de descumprimento de ordem judicial que ordene determine a indisponibilização do mesmo, e desde que observados os requisitos legais necessários para tanto – especialmente a identificação clara e específica capaz de permitir a localização inequívoca do material cibernético – a fim de evitar a nulidade da decisão.

Isso ocorre porque, além de ser inviável aos provedores de aplicações fazer uma varredura de conteúdos – dentre a imensidão de publicações que são inseridas, alteradas e removidas na rede diariamente e a todo instante -, seria igualmente temerário impor aos mesmos um dever de fiscalização e de eventual órgão censor.

Apesar disso, e embora não exista qualquer dever de fiscalização ou monitoramento pelos provedores de aplicações, estes podem penalizar usuários que violam as regras de suas plataformas e também restringir o que é disponibilizado, com base em suas próprias condições de utilização.

Ou seja, as regras seguidas pelos provedores de aplicações para moderação de conteúdos são regras criadas pelas próprias administradoras de plataformas digitais, com base na cultura local e visando sempre um ambiente saudável e seguro para todos aqueles que utilizam a Internet.

Plataformas digitais e seus usuários devem, obrigatoriamente, aceitar e se comprometer com as políticas previamente estabelecidas.

Os famosos Termos de Serviço, Diretrizes e Políticas de Uso, que nada mais são do que contratos normalmente eletrônicos firmados entre usuário e plataforma, regulam não apenas as condições de proteção de informações/dados do usuário, mas também os tipos de conteúdo que podem ou não ser disponibilizados, sob pena de violarem direitos de terceiros ou da sociedade e, portanto, as regras da plataforma.

A importância e o objetivo das diretrizes estabelecidas no contrato entre usuário e provedores de aplicações é, principalmente, fomentar um ambiente de liberdade (de expressão, principalmente) para as partes envolvidas e também para a sociedade como um todo, eis que o acesso aos conteúdos não necessariamente depende do ingresso/login como usuário em determinado website ou rede social.

 

Por isso, de maneira transparente, as plataformas digitais estabelecem o que é proibido e quais sanções poderão ser aplicadas na hipótese de violação.

Um exemplo emblemático foi o banimento do perfil oficial do então presidente dos Estados Unidos de redes sociais. À luz de seus Termos de Serviço, Diretrizes e Políticas de Uso, em virtude da sessão que certificaria um novo presidente do país, no início do ano de 2021,

alguns provedores de aplicações entenderam que houve violação de regras diante da publicação de conteúdos em que o então representante afirmava que as eleições teriam sido fraudadas, incitando ainda apoiadores a invadirem o Congresso conhecido como Capitólio dos EUA para protestos violentos.

Dentre os conteúdos publicados, havia afirmações como: “tivemos uma eleição que foi roubada de nós”. Uma das plataformas digitais, neste sentido, agindo no exercício regular do seu direito de moderador de conteúdo, reconheceu a violação de suas regras e informou publicamente que o usuário “não pode usar os serviços com o propósito de manipular ou interferir em eleições ou outros processos cívicos”.

“Isso inclui postar ou compartilhar conteúdo que possa suprimir a participação ou enganar as pessoas sobre quando, onde ou como participar de um processo cívico. Além disso, podemos rotular e reduzir a visibilidade de postagens contendo informações falsas ou enganosas sobre processos cívicos, a fim de fornecer contexto adicional”.

Com relação ao caso citado, é evidente que a medida adotada se deu durante momento político-social exposto para todo o mundo, tornando, de certo modo, talvez mais fácil o posicionamento de forma clara e objetiva quanto (i) à ilicitude do conteúdo, (ii) às notificações prévias para fins de exclusão dos conteúdos, sob pena de aplicação de outras penalidades, e (iii) aos motivos das sanções efetivamente aplicadas.

Noutro giro, porém, é de se observar a natural impossibilidade de moderação de todos os conteúdos denunciados existentes na Internet com a mesma rapidez e precisão.

Aqui no Brasil, o cenário da última eleição não foi muito diferente e as suas consequências continuam sendo objeto de debate, mesmo com o fim do período eleitoral oficialmente. Provedores de aplicações excluíram conteúdo do então presidente e suspenderam suas contas temporariamente, uma vez que constatada a propagação de informação falsa e manipulada que relaciona a vacina contra o vírus da Covid-19 e o vírus da Aids, por exemplo.

As grandes empresas de tecnologia explicaram, basicamente, que seus Termos de Serviço, Diretrizes e Políticas de Uso não permitem acusações no sentido de que as vacinas contra a covid-19 matam ou causam danos graves às pessoas, tampouco autorizam desinformação médica no sentido de que as vacinas não reduzem o risco de contrair a doença ou que causam outras doenças infecciosas.

Após o resultado da eleição presidencial, em especial, a preocupação continuou em virtude da publicação de conteúdos antidemocráticos em massa, por exemplo.

Tem-se assim que, ações como a remoção de conteúdo ou a suspensão de contas, a partir de denúncias administrativas e não de ordens judiciais, são pautadas em condições publicamente disponíveis e expressamente aceitas por usuários quando do ingresso em determinada plataforma digital, situação, inclusive, reconhecida majoritariamente pelos Tribunais3 do país.

Portanto, os provedores de aplicações, ao atuarem como moderadores de conteúdo, agem legitimamente no exercício regular de um direito reconhecido, o que afasta qualquer hipótese de ato ilícito ou falha, nos termos do art. 188, I do Código Civil4.

Os provedores de aplicações, dentro dos seus limites técnicos e jurídicos, tão somente empregam uma série de mecanismos de governança a fim de tornar o ambiente digital mais saudável e evitar a propagação de conteúdos considerados “ruins” (como é a hipótese de fake news, desinformação, discurso de ódio, manifestações antidemocráticas, etc.).

De todo modo, não há como esperar uma suposta obrigação impossível de controle imediato de conteúdos publicados por terceiros, tampouco imediata eficácia na análise de todas as reclamações trazidas por usuários, principalmente em virtude da impossibilidade de sopesamento de eventuais direitos envolvidos em contextos, muitas vezes, subjetivos, não explicitados e cuja decisão depende exclusivamente do Poder Judiciário.

A liberdade dos provedores de aplicações traz não apenas uma necessidade de atuação destes, mas também maior engajamento da sociedade civil e do Estado. Aos provedores de aplicações, cabe a liberdade de atuação na moderação de conteúdo, à luz de seus Termos de Serviço, Diretrizes e Políticas de Uso aceitos por seus usuários.

Da sociedade civil, espera-se um debate que estimule a consciência social coletiva sobre manifestações dentro de plataformas digitais, principalmente por meio da participação da população através de canais para denúncias de violações (os quais, inclusive, são normalmente disponibilizados publicamente pelas próprias empresas responsáveis por websites e “redes sociais”).

Quanto ao Estado, por outro lado, a expectativa é de cuidado extremo quando o assunto é a proposição de projetos de lei que busquem estabelecer regulamentações taxativas às plataformas ou afrouxar limites do poder discricionário.


1 Plataformas digitais são “sistemas tecnológicos que funcionam como mediadores ativos de interações, comunicações e transações entre indivíduos e organizações operando sobre uma base tecnológica digital conectada, especialmente no âmbito da Internet, provendo serviços calcados nessas conexões, fortemente lastreados na coleta e processamento de dados e marcados por efeitos de rede”.

(VALENTE, J. C. L. Tecnologia, informação e poder: das plataformas online aos monopólios digitais. Tese (Doutorado em Sociologia). Universidade de Brasília, Brasília, 2019. p. 170)

2 MCI, Art. 19: “Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”

3 “OBRIGAÇÃO DE FAZER C.C. INDENIZAÇÃO POR DANO MORAL. Prestação de serviços de publicação de anúncios, via internet, com a utilização da ferramenta “Google Adwords”. Existência de convenção de arbitragem não comprovada. Inaplicabilidade do Código de Defesa do Consumidor. Serviços de publicidade de anúncios que se destinavam à captação de clientela para a empresa autora. Relação de insumo e não de consumo, já que voltada à implementação da atividade desenvolvida pela demandante.

Bloqueio da conta da autora, com desativação de seus anúncios. Correspondência eletrônica trocada entre as partes comprova que a empresa recorrida tinha conhecimento de que violou as políticas de proibições estabelecidas nos termos de uso da ferramenta, em razão de similaridade de seu site com outro.

Apelante que agiu no exercício regular de direito ao bloquear a conta da autora até a regularização do layout de seu site. Dano moral não caracterizado. Indenização afastada. Sentença reformada para julgar improcedente a ação. RECURSO PROVIDO.” (TJSP – Apelação 1026118-94.2017.8.26.0100 – Des. Rel. Afonso Bráz – 17ª Câmara de Direito Privado – J. 08.08.2018)

Art. 188. Não constituem atos ilícitos: I – os praticados em legítima defesa ou no exercício regular de um direito reconhecido.


Thays Bertoncini da Silva
Advogada, sócia da Lee, Brock, Camargo Advogados (LBCA) e especialista em Direito Digital Aplicado e Direito das Plataformas Digitais pela FGV.

Post Relacionados