Em um dos julgamentos mais aguardados do ano, o Supremo Tribunal Federal (STF) começa a analisar nesta quarta-feira, 27, ações que discutem a responsabilidade das plataformas digitais por conteúdos publicados pelos seus usuários. No STF, a expectativa é que o julgamento seja longo e interlocutores não descartam a possibilidade de o desfecho se arrastar para 2025. Mas há pouca margem de dúvida em relação ao resultado: a maioria da Corte defende alguma mudança na forma como o regime de responsabilidade das redes funciona hoje.
A discussão levantada nas duas ações, relatadas pelos ministros Dias Toffoli e Luiz Fux, é a constitucionalidade do artigo 19 do Marco Civil da Internet. O trecho da lei de 2014 estabelece que as plataformas só podem ser responsabilizadas por conteúdos publicados por terceiros caso elas deixem de cumprir uma ordem judicial de remoção. Há duas exceções: em casos de violação de direitos autorais e divulgação de fotos íntimas sem consentimento, a plataforma é obrigada a agir assim que for notificada pela vítima.
O artigo 19, na sua própria redação, diz que busca assegurar a liberdade de expressão e impedir a censura por parte das plataformas digitais. Um dos argumentos favoráveis ao dispositivo é que ele evita transferir a atores privados, e mantém na Justiça, o poder de decidir o que pode ou não pode ser veiculado nas redes sociais. Por outro lado, o artigo também é apontado como insuficiente para proteger direitos no ambiente digital, já que os danos causados por uma postagem geralmente ocorrem mais rapidamente do que a resposta da Justiça.
Existem alguns cenários possíveis para o resultado. Uma das possibilidades é o Supremo declarar o artigo 19 inconstitucional, o que acabaria com o regime que protege as plataformas. Isso poderia trazer de volta o sistema “notice and take down“, que era vigente antes de 2014 – nessa lógica, o conteúdo deve ser derrubado após a notificação do usuário.
Outra opção é dar ao artigo uma interpretação conforme à Constituição – ou seja, manter a validade da norma, mas com novas exceções. Nesse caso, os ministros poderiam estabelecer mais hipóteses em que as plataformas devem agir antes de ordem judicial, como em casos de conteúdos que incitem violência ou atos antidemocráticos.
Para André Giacchetta, advogado do escritório Pinheiro Neto que representa o X no caso, o julgamento ainda traz um risco de impacto econômico para as plataformas. Ao Broadcast (sistema de notícias em tempo real do Grupo Estado), o advogado explicou que a maior parte da revisão de conteúdo nas redes sociais é feita de forma automatizada, e que essa tecnologia não será suficiente em questões mais subjetivas, como publicações que façam menção a um golpe de Estado. “Pequenas e médias plataformas sequer terão recursos para investir, e na dúvida vão remover mais do que assumir a responsabilidade por aquele conteúdo”, avaliou.
Giacchetta também diz que o próprio Judiciário se vê diante de dúvidas sobre a ilegalidade de determinados conteúdos. “Se ao Judiciário é dada possibilidade de errar por último, as empresas que errarem assumem a possibilidade de indenizar”, afirmou.
O caso foi pautado pelo presidente do Supremo, Luís Roberto Barroso, após o debate não avançar no Congresso. O julgamento já foi adiado duas vezes – a primeira para ouvir a sociedade em uma audiência pública; a segunda, para aguardar uma ação do Legislativo. Na última vez que as ações contra o MCI entraram em pauta, em junho de 2023, o PL das Fake News estava próximo de ser votado. Mas a tramitação voltou à estaca zero depois de o presidente da Câmara, Arthur Lira, criar um grupo de trabalho para redigir um novo texto.
Nos últimos anos, ministros mandaram inúmeros recados públicos ao Congresso defendendo a regulamentação das redes. Eles também têm apontado uma relação entre a falta de regras no ambiente digital e ataques à democracia, como os atos golpistas de 8 de janeiro de 2023 e o atentado a bomba em frente ao Supremo no último dia 13. Gilmar Mendes, Alexandre de Moraes e Barroso são as vozes mais enfáticas, mas Flávio Dino, Cármen Lúcia e Dias Toffoli também já defenderam, em algum momento, essa regulação.
Em março de 2023, após audiência pública no Supremo sobre o tema, Toffoli disse que a Corte pode fixar balizas para a remoção de determinados conteúdos nas redes sociais. Na ocasião, sem antecipar seu voto, o ministro sugeriu que é possível que a Corte interprete o texto para “dar a maior proteção possível” aos direitos individuais.
Casos concretos
Ambas as ações em julgamento chegaram ao Supremo em 2017. O processo de relatoria de Toffoli se originou de uma ação indenizatória contra o Facebook devido a um perfil falso. O Facebook recorreu ao Supremo contra decisão da segunda instância que determinou o pagamento de indenização por danos morais de R$ 10 mil à usuária que teve seu nome usado no perfil. A mulher notificou o Facebook pedindo a exclusão do perfil falso, mas a solicitação não foi atendida.
No outro caso, de relatoria de Fux, uma professora de ensino médio era alvo de comentários ofensivos de alunos em uma comunidade no antigo Orkut chamada “Eu Odeio a Aliandra”. Ela obteve decisão favorável na segunda instância para receber uma indenização de R$ 21 mil do Google, que controlava o Orkut – rede social desativada em 2014. O Google recorreu contra essa decisão.
Por Lavínia Kaucz
Be First to Comment