O ministro Flávio Dino, do Supremo Tribunal Federal (STF), votou nesta quarta-feira (11) a favor da responsabilização das redes sociais pelo conteúdo publicado por seus usuários. O placar, até o momento, está 4 a 1 pela responsabilização das redes, mas há diferentes posições sobre a forma como isso deve ocorrer. O julgamento foi suspenso após o voto de Dino e será retomado na tarde desta quarta.
"O provedor de aplicações de internet pode ser responsabilizado por danos decorrentes de conteúdos de terceiros", afirmou Dino ao propor uma tese para orientar a aplicação do entendimento nas instâncias inferiores.
O ministro apresentou o quinto voto no julgamento dos recursos que tratam do tema. Já votaram os dois relatores, os ministros Luiz Fux e Dias Toffoli; o presidente Luís Roberto Barroso; e o ministro André Mendonça. Fux, Toffoli e Barroso também se posicionaram pela responsabilização, mas seus votos trazem detalhamentos diversos quanto à forma como isso vai ocorrer.
O ministro André Mendonça divergiu, considerando que as regras atuais previstas no Marco Civil da Internet são constitucionais. Mendonça defendeu, no entanto, que é inconstitucional a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos, com atividade ilícita. Pontuou ainda que não é possível responsabilizar diretamente a plataforma sem prévia decisão judicial quando se está diante de ilícito de opinião.
O próximo a votar será o ministro Cristiano Zanin.
Voto de Flávio Dino
Em seu voto, Dino afirmou que "as redes sociais não aproximaram a humanidade daquilo que ela tem de melhor". Ponderou que é preciso ter cuidado com uma "uma espécie de minimização da mentira". "A mentira existe, e ela pode ser profundamente nociva", pontuou. "É falso que tudo é uma questão de opinião", disse.
O ministro argumentou que "responsabilidade não impede a liberdade". "Liberdade sem responsabilidade é tirania", sustentou. Ainda em sua apresentação, o ministro apresentou casos como o de ataques a escolas e de crimes contra crianças e adolescentes estimulados e realizados nas redes sociais.
"O provedor de aplicações de internet pode ser responsabilizado por danos decorrentes de conteúdos de terceiros", afirmou.
Dino sugeriu uma tese que prevê:
a responsabilização dos provedores de internet, em regra, ocorrerá pelas normas do artigo 21 do Marco Civil da Internet. Este trecho da lei prevê a possibilidade de responsabilidade quando a plataforma digital não toma providências de retirada de conteúdo após uma notificação extrajudicial feita pela vítima ou advogado.
em casos de crime contra a honra, será aplicado o sistema previsto no artigo 19 do Marco Civil da Internet, em que a responsabilidade só pode ocorrer se a rede social não retirou o conteúdo após ordem judicial específica.
no caso da responsabilidade das plataformas, disse que elas têm o dever de evitar que se façam perfis falsos. Nesse ponto, aplica-se a responsabilidade do Código de Processo Civil, cabível independentemente de prévia notificação judicial ou extrajudicial. Isso também se aplica a perfis de robôs, anúncios pagos e impulsionados.
no caso de falha sistêmica, provedores podem ser responsabilizados nos termos do Código de Defesa do Consumidor. O CDC prevê responsabilidade objetiva, independentemente da existência de culpa. Essa responsabilidade ocorrerá em casos de crimes contra crianças e adolescentes; crimes de induzimento, instigação ou auxílio ao suicídio ou à automutilação; crime de terrorismo; apologia à violência e ameaça para crimes contra o Estado Democrático de Direito. A falha sistêmica acontece quando o provedor não toma as medidas de segurança contra conteúdos ilegais. Além disso, a existência de conteúdo ilícito de forma "isolada", não é suficiente, por si só, para configurar a responsabilidade civil. Mas, se houver notificação extrajudicial, a plataforma deve atuar para retirar o conteúdo do ar.
se o provedor retirar conteúdo por dever de cuidado, o autor pode pedir a liberação na Justiça. Se a Justiça liberar a publicação, não será devida indenização do provedor ao usuário.
as obrigações dos provedores serão monitoradas pela Procuradoria Geral da República, até que seja feita lei específica regulando a autorregulação dos provedores de aplicação de internet.
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Votos dos ministros
Saiba como votaram os demais ministros até o momento:
Dias Toffoli: relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet. O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial. O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que se as plataformas digitais deixarem de agir, devem ser responsabilizadas.
Luiz Fux: relator do outro processo sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma. Para Fux, serão considerados ilícitos os conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e a golpe de Estado. O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.
Luís Roberto Barroso: o presidente do STF propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso. Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial. Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como: pornografia infantil; instigação ou auxílio a suicídio; tráfico de pessoas; atos de terrorismo; abolição violenta do Estado Democrático de Direito; golpe de Estado.
André Mendonça: no voto apresentado na semana passada, Mendonça divergiu em parte dos demais ministros. O ministro entendeu que o artigo 19 do Marco Civil da Internet é constitucional. Afirmou, no entanto, que é preciso interpretar o trecho de acordo com a Constituição para fixar alguns pontos. Entre eles, que é inválida a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita; que as plataformas em geral têm o dever de promover a identificação do usuário violador do direito de terceiros; e que não é possível responsabilizar diretamente a rede social sem prévia decisão judicial quando há possíveis irregularidades que envolvam opiniões.
João da Silva Sauro
Quinta-Feira, 12 de Junho de 2025, 01h58Cuiabano
Quarta-Feira, 11 de Junho de 2025, 14h51Carlos Nunes
Quarta-Feira, 11 de Junho de 2025, 14h16