O Supremo Tribunal Federal (STF) só deve retomar a partir de maio o julgamento das ações que responsabilizam as plataformas por publicações violentas feitas por usuários em seus perfis nas redes sociais. 

O tema, que se tornou um dos principais debates do cenário político e jurídico do país - aquecido, principalmente, diante da recente decisão anunciada pela Meta -, envolve a possibilidade de criar regras mais rígidas para plataformas como Facebook, X, Instagram, TikTok e YouTube. O objetivo é combater a desinformação, os discursos de ódio e violência e outras práticas prejudiciais no ambiente digital.

O julgamento foi iniciado em novembro de 2024 e interrompido em 18 de dezembro com um pedido de vista de André Mendonça. A dois dias do recesso do Judiciário, o ministro solicitou mais tempo para análise do processo até declarar seu voto. 

Pelo regimento interno do STF, o processo deve ser devolvido no prazo de 90 dias úteis, contado da data da publicação da ata de julgamento. Como o Judiciário entrou em recesso dia 20 de dezembro, a contagem foi interrompida naquela data e será retomada a partir de 3 de fevereiro. 

No gabinete de Mendonça, a informação é de que, diante da complexidade do tema e do debate, o prazo regimental deve ser usado em sua totalidade. Com isso, o processo só seria entregue para retornar à pauta a partir de maio. 

Norma do Marco Civil da Internet é questionada
O STF tem em mãos o desafio de encontrar um ponto de equilíbrio em uma questão que envolve tanto o avanço tecnológico quanto as garantias constitucionais dos brasileiros. 

Estão em julgamento duas ações que questionam uma norma do Marco Civil da Internet. Nela, está prevista que as plataformas só são penalizadas quando descumprirem uma decisão judicial determinando a derrubada de um conteúdo. O que se pretende é que essa remoção de publicações seja feita ao se identificar o conteúdo impróprio mesmo sem ordem da Justiça.

Até a suspensão do julgamento, três ministros haviam votado: os relatores dos processos, ministros Dias Toffoli e Luiz Fux; e o presidente Luís Roberto Barroso. Eles propõem regimes de responsabilização para as plataformas digitais, mas apresentam soluções diferentes.

O que está em jogo na regulamentação das big techs
Há uma série de questões em jogo que podem transformar a maneira como as redes sociais operam no Brasil. O principal ponto de debate é até onde o Estado deve intervir na moderação de conteúdos na internet, sem comprometer a liberdade de expressão. A regulamentação que vem sendo discutida no STF inclui temas como a responsabilização das plataformas por conteúdos prejudiciais, o combate à desinformação, a proteção de dados pessoais e o controle de discursos de ódio.

Por um lado, há a preocupação com os impactos da desinformação nas eleições e na saúde pública, como ocorreu durante a pandemia de Covid-19. O governo e setores da sociedade civil defendem uma atuação mais incisiva das plataformas para evitar que informações falsas se espalhem de maneira desenfreada. Por outro lado, há o receio de que uma regulamentação excessiva possa levar à censura e à restrição do direito de expressão dos cidadãos, além de afetar negativamente a inovação tecnológica.

Outro ponto crucial é a criação de mecanismos que garantam maior transparência nas decisões das plataformas sobre remoção de conteúdo. Atualmente, há uma grande opacidade nas ações de moderação, o que tem gerado críticas de diversos setores. Para alguns, as plataformas deveriam ser mais responsabilizadas pelas consequências de seus algoritmos e práticas.