top of page

Marco Civil da Internet


Opinião, informação e política com Milena Tomelin

Entenda o que está sendo analisado no STF e como estão se posicionando os Ministros


Contexto

Em 2014, foi promulgada a Lei nº 12.965, conhecida como Marco Civil da Internet, que estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil. No entanto, essa legislação depende de regulamentação mais detalhada para resolver pontos controversos de sua aplicação prática.

Atualmente, o Supremo Tribunal Federal (STF) está julgando duas ações que tratam da responsabilidade das redes sociais por conteúdos publicados por seus usuários. O foco está no artigo 19 da referida lei, que visa proteger as empresas de tecnologia contra a responsabilização por conteúdos de terceiros, salvo em caso de descumprimento de ordem judicial.


Confira a redação do artigo:

Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.


O julgamento

O julgamento analisa a constitucionalidade do artigo 19 e definirá diretrizes que terão impacto direto sobre decisões judiciais futuras, sobre a forma como as plataformas digitais operam e sobre o comportamento dos próprios usuários na internet.

Votos já proferidos

Até o momento, quatro Ministros já apresentaram seus votos: Luiz Fux, Dias Toffoli, Luís Roberto Barroso e André Mendonça. As opiniões divergem em vários aspectos, o que ainda não permite prever um consenso.


Luiz Fux

O ministro defendeu que o artigo 19 não impede a responsabilização das redes sociais que, mesmo cientes de conteúdos ilícitos, deixam de removê-los. Ele considerou como ilícitos conteúdos que promovem discurso de ódio, racismo, pedofilia, incitação à violência, apologia ao golpe de Estado e à abolição do Estado democrático de direito.

Fux defendeu o monitoramento ativo das plataformas nesses casos. Já para conteúdos que atinjam a honra, imagem ou privacidade, ele entende que a responsabilidade surge após notificação extrajudicial da vítima, sem necessidade de ação judicial.


Luís Roberto Barroso

Barroso também reconheceu a possibilidade de responsabilização das plataformas sem ordem judicial quando se tratar de conteúdo claramente criminoso, como perfis falsos ou pornografia infantil.

Por outro lado, para casos envolvendo crimes contra a honra (injúria, calúnia ou difamação), ele entende que deve haver ordem judicial para remoção, sob pena de violação à liberdade de expressão.

O ministro também destacou o “dever de cuidado” das plataformas, que devem adotar medidas para mitigar riscos sistêmicos, especialmente em relação a conteúdos altamente nocivos, como incentivo ao suicídio, tráfico de pessoas e terrorismo.


Dias Toffoli

Toffoli votou pela inconstitucionalidade do artigo 19, entendendo que não é necessária ordem judicial para responsabilizar as plataformas. Para ele, essas empresas devem remover conteúdos quando forem notificadas por pessoas ofendidas, especialmente em casos que envolvam ataques ao Estado democrático de direito, racismo ou disseminação de desinformação que possa prejudicar eleições.

Além disso, defendeu a responsabilização objetiva das plataformas quando houver danos decorrentes de conteúdos impulsionados, mesmo que sem remuneração, incluindo responsabilidade solidária com o patrocinador.


André Mendonça

Mendonça adotou uma posição mais cautelosa, destacando a importância do procedimento devido para a remoção de conteúdos. Ele defende que:

1. Serviços de mensagens privadas não devem ser equiparados a redes sociais e devem manter garantias como o sigilo das comunicações.

2. Remoção de perfis só deve ocorrer em casos comprovados de falsidade ou uso de robôs.

3. As plataformas devem ter o dever de identificação dos usuários que violarem direitos de terceiros.

4. A remoção de conteúdo sem ordem judicial deve obedecer a critérios claros e garantir:

o Acesso do usuário à motivação da remoção;

o Preferência por revisão humana;

o Direito de recorrer da decisão da plataforma.

5. As plataformas não devem ser responsabilizadas automaticamente por conteúdos de terceiros.

6. No entanto, podem ser responsabilizadas por omissão caso descumpram os procedimentos legais de moderação e segurança.

7. As decisões judiciais de remoção devem conter fundamentação específica e ser acessíveis à plataforma, mesmo em processos sigilosos.


Próximos passos

Ainda devem votar os ministros Edson Fachin, Gilmar Mendes, Cármen Lúcia, Alexandre de Moraes, Kassio Nunes Marques, Cristiano Zanin e Flávio Dino.

A expectativa é de que os votos continuem divergentes, o que poderá levar a uma decisão com múltiplas teses, orientando o futuro da responsabilização de plataformas digitais no Brasil.

Comentários


bottom of page