Junior Kamenach
Junior Kamenach
Jornalista, repórter do Sagres Online e apaixonado por futebol e esportes americanos - NFL, MLB e NBA

STF muda regra e decide que plataformas podem ser responsabilizadas por conteúdos ilegais

O Supremo Tribunal Federal (STF) formou maioria nesta semana para alterar um dos pilares do Marco Civil da Internet, a responsabilização das plataformas digitais por conteúdos publicados por terceiros. A decisão, que ainda está em julgamento, mas já conta com votos suficientes para mudar a jurisprudência, estabelece que redes sociais e sites podem ser responsabilizados por conteúdos ilegais, mesmo sem decisão judicial prévia — uma reviravolta no entendimento consolidado desde 2014.

A mudança atinge diretamente a lógica prevista no artigo 19 do Marco Civil da Internet, que condicionava a responsabilização das plataformas à existência de uma ordem judicial específica para remoção do conteúdo. No programa Pauta 2 da Sagres TV, a decisão foi tema de debate.

A advogada Josimara Carvalho, especialista em direito digital, alertou para os impactos e riscos da nova interpretação jurídica. “O STF está julgando se as plataformas como redes sociais e aplicativos de mensagem devem ser responsabilizadas civilmente por conteúdos ilícitos publicados por seus usuários”, explicou.

“O voto do ministro Cristiano Zanin, seguido por outros ministros, defende que, em casos de clara violação de direitos, como discursos de ódio, racismo ou conteúdos que causem danos reais, pode haver responsabilização mesmo sem ordem judicial.” Segundo Josimara, a ideia por trás da nova interpretação é equilibrar dois direitos fundamentais: a liberdade de expressão e a proteção da honra, da imagem e da segurança das pessoas.

Ainda assim, ela destacou que a mudança levanta uma série de desafios. “Apesar da boa intenção, essa decisão traz riscos importantes. O primeiro é: quem vai definir o que é conteúdo ilegal sem uma ordem judicial? As plataformas passariam a ser juízas do que pode ou não ser dito, o que abre brechas para censura privada”, afirmou.

Outro problema apontado pela especialista é o temor de punições por parte das empresas, o que poderia gerar remoções excessivas de conteúdo. “Existe o risco de as plataformas agirem com medo de serem processadas e acabarem silenciando manifestações legítimas, especialmente de grupos vulneráveis”, disse Josimara.

Ela também chamou atenção para o uso de algoritmos na moderação, que pode ser falho e injusto: “O excesso de moderação automatizada pode silenciar vozes legítimas e, ao mesmo tempo, manter no ar conteúdos perigosos por falhas técnicas”. A discussão teve origem em dois recursos apresentados por Google e Facebook ao STF.

O Facebook foi condenado a remover uma comunidade gerenciada por um perfil falso, enquanto o Google foi responsabilizado por um conteúdo de terceiro em uma de suas plataformas. Ambos os casos contestam decisões judiciais que, na avaliação das empresas, ferem o modelo de responsabilização previsto no Marco Civil.

Para Josimara, a solução ideal seria criar exceções bem delimitadas para essa responsabilização direta, sem depender de processo judicial. “Casos como divulgação de nudes sem consentimento ou crimes comprovados poderiam dispensar a judicialização. Mas é essencial que o Judiciário, o Legislativo e a sociedade civil construam juntos critérios claros para isso”, defendeu.

“O grande desafio de hoje, principalmente nas redes sociais, é conseguir equilibrar esse direito de se expressar com o dever de não violar os direitos de terceiros”, afirmou a advogada. Segundo ela, a liberdade de expressão é uma cláusula pétrea da Constituição, mas precisa ser compatibilizada com outros direitos, como a honra, a privacidade e a dignidade da pessoa humana.

Além disso, Josimara levanta questionamentos sobre a constitucionalidade de delegar a entes privados uma função que seria típica do Estado. “Dar essa responsabilidade para um ente privado de ponderar e mexer com a liberdade das pessoas é algo que o Supremo está discutindo como possível inconstitucionalidade”, explicou.

Para ela, ao transferir esse papel ao setor privado, corre-se o risco de violar o princípio da reserva de jurisdição, ou seja, o direito de apenas o Judiciário limitar liberdades individuais. Um dos principais pontos de tensão envolve o conceito de “conteúdo manifestamente ilícito”, expressão usada para definir o que poderia ser removido pelas plataformas mesmo sem decisão judicial.

Para Carvalho, a definição do que é ilícito nem sempre é clara: “Essa linha é muito tênue. Infelizmente, a gente entende que uma empresa grande não quer se responsabilizar pela volumetria de coisas ilícitas que aparecem. Mas isso não justifica a remoção automática sem ponderação”.

Questionada sobre a viabilidade operacional de monitorar bilhões de postagens, como as feitas em redes como Instagram, Facebook e TikTok, a advogada reconhece os limites das plataformas. “Talvez novos algoritmos precisem ser desenvolvidos, mas mesmo assim, elas não conseguem ver tudo. E não podem ser responsabilizadas por publicações de terceiros sem critério claro”, disse.

O cenário brasileiro também se conecta com experiências internacionais. De acordo com Carvalho, em outros países, as plataformas já têm sido chamadas à responsabilidade, principalmente por causa do impacto emocional das redes sociais em jovens. “Estudos mostram que o uso intenso de redes pode gerar frustração, principalmente em meninas, por conta da comparação com padrões irreais de vida”, comentou.

A advogada também chamou atenção para os desafios trazidos por novas tecnologias, como a inteligência artificial. “Muito se vê sobre IA e robôs dominando a internet. O direito precisa acompanhar esse avanço para evitar prejuízos como mensagens incorretas e até sentenças falsas geradas por essas ferramentas”, alertou.

Para além do STF, Josimara destacou o papel do Congresso Nacional, que tem se mostrado reticente em avançar com projetos como o PL das Fake News. “É um tema polêmico diante das eleições do ano que vem. Mas acredito que, a partir do meio do ano, esses debates vão voltar com força”, afirmou.

Ela finaliza reforçando a importância de um marco jurídico mais claro para o ambiente digital: “O papel do Estado, do Judiciário e das plataformas é encontrar esse ponto de equilíbrio. A internet deve ser um espaço livre, mas também responsável”.

Este conteúdo está alinhado aos Objetivos de Desenvolvimento Sustentável (ODS) da Agenda 2030 da Organização das Nações Unidas. ODS 16 – Paz, Justiça e Instituições Eficazes

Leia também:

Mais Lidas:

Sagres Online
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.