STF amplia responsabilidade das redes sociais por conteúdos dos usuários

Entenda como a nova decisão do Supremo afeta a Internet no Brasil e os direitos de quem consome e produz conteúdo nas redes.

Fique por dentro dos seus direitos

Receba atualizações jurídicas e entenda como a lei pode te proteger.

“Conhecer seus direitos é o primeiro passo para defendê-los.”

Obrigado pelo seu contato!

Para concluir sua inscrição, verifique seu e-mail e clique no link de confirmação que enviamos.

Isso garante que você receba todas as nossas atualizações jurídicas sem perder nada!

A recente decisão do Supremo Tribunal Federal (STF) trouxe mudanças importantes para quem usa as redes sociais — seja como usuário comum, criador de conteúdo ou empresa. Para quem não está familiarizado com o assunto, o Marco Civil da Internet, aprovado em 2014, estabelecia que redes sociais e plataformas como Instagram, Facebook, X (antigo Twitter) ou TikTok só poderiam ser responsabilizadas judicialmente por conteúdos prejudiciais se não cumprissem uma ordem da Justiça determinando a remoção.

Agora, com a nova interpretação do STF, essa proteção foi revista: se uma rede social for avisada diretamente sobre um conteúdo ilegal e mesmo assim não fizer nada, ela poderá ser responsabilizada. Ou seja, mesmo sem ordem judicial, as plataformas podem ser obrigadas a responder por danos causados, caso se omitam diante de uma notificação clara sobre conteúdos ilegais — isto é, uma notificação extrajudicial para a remoção desses conteúdos.

Essa mudança levantou uma série de dúvidas entre usuários, criadores de conteúdo, empresas e até profissionais do direito. O novo entendimento tem gerado dúvidas especialmente entre pessoas que se sentem vítimas de postagens ofensivas ou perigosas na internet. Neste artigo, vamos explicar de forma clara e acessível o que foi decidido pelo STF, o que muda na prática, o que dizem os artigos da lei que foram alterados, e como você pode agir para se proteger em casos de publicações ilegais.

O que dizia o artigo 19 do Marco Civil da Internet?

Esse artigo foi criado em 2014, com a intenção de proteger a liberdade de expressão e garantir segurança jurídica para empresas. Ele dizia que as plataformas (como redes sociais, blogs, fóruns e sites) não podiam ser responsabilizadas por conteúdos postados pelos usuários, a menos que houvesse uma ordem judicial determinando a retirada. Ou seja, mesmo que um conteúdo fosse claramente ilegal, como um vídeo promovendo violência ou espalhando fake news, a plataforma só teria obrigação de agir depois de uma decisão da Justiça.

O STF declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, abrindo caminho para que plataformas sejam responsabilizadas civilmente, conforme o artigo 21 do mesmo Marco, desde que permaneçam omissas após a notificação extrajudicial. O relator, ministro Dias Toffoli, argumentou que a imunidade tradicional facilita a propagação de conteúdos nocivos, como fake news e discurso de ódio. Com o crescimento das redes e dos abusos online, esse modelo passou a ser questionado. O STF decidiu que essa regra, apesar de importante, precisava ser atualizada para situações mais graves.

O que muda com a nova decisão?

Agora, as plataformas devem agir assim que recebem uma notificação clara de que determinado conteúdo viola a lei — especialmente se estiver relacionado a crimes graves como racismo, discurso de ódio, incentivo ao suicídio, violência contra mulheres, terrorismo ou fake news sobre saúde pública. Se a rede for avisada e não remover esse conteúdo em tempo razoável, ela pode ser responsabilizada judicialmente pelos danos causados, mesmo sem ordem judicial.

Quais conteúdos estão incluídos na nova responsabilização?

O STF estabeleceu um rol de conteúdos considerados graves, incluindo crimes antidemocráticos, terrorismo, incitação ao suicídio, discriminação por raça, gênero ou orientação sexual, violência contra mulheres, pornografia infantil e infrações sanitárias. Para esses casos, a omissão após notificação extrajudicial torna a plataforma responsabilizável.

E os conteúdos contra a honra, como difamação e injúria?

Nos casos em que a postagem fere a honra de alguém — como ofensas pessoais, calúnias, difamações — a retirada ainda depende de decisão judicial, pois é uma questão mais subjetiva e delicada. Então, para a retirada desse tipo de conteúdo, permanece a exigência de ordem judicial, mantendo parte da proteção anterior do artigo 19.

Como o usuário pode agir diante de um conteúdo ilegal?

Com a nova decisão do STF, as plataformas passam a ter o dever de agir, após serem alertadas sobre conteúdos claramente ilegais. Mas isso levanta uma dúvida importante: como deve ser feita essa comunicação por parte do usuário? Afinal, a responsabilidade da rede só passa a valer se ela for informada e, mesmo assim, decidir não remover o conteúdo.

O primeiro passo é utilizar os canais oficiais de denúncia que cada rede social oferece — geralmente acessíveis clicando nos três pontinhos de uma publicação ou perfil. A denúncia deve ser objetiva e, se possível, indicar por que aquele conteúdo é ilegal (por exemplo: incita violência, promove discriminação, espalha fake news etc.).

Em casos mais graves ou quando não há resposta, o ideal é formalizar a notificação, ou seja, fazer uma notificação formal. Essa comunicação, feita de forma clara e comprovável, é o que pode fundamentar a responsabilização da plataforma, caso ela se omita mesmo após ser alertada sobre a ilegalidade.

O que é considerado como notificação válida?

O ideal é que o usuário use primeiro os canais oficiais da plataforma (como “denunciar publicação” ou “reportar abuso”). Porém, em situações mais graves ou se não houver retorno da plataforma, é possível enviar uma notificação formal por e-mail ou outro meio que permita comprovar o envio e o conteúdo denunciado, que será considerada uma notificação válida. Isso pode ser feito, como foi dito antes, por e-mail ou outro canal institucional da empresa, e deve incluir detalhes do conteúdo denunciado, links, capturas de tela (prints) e a explicação do motivo da denúncia. Guardar esses registros (provas) é fundamental para que, se necessário, você possa buscar reparação via ação judicial.

O que são anúncios e impulsionamentos? Como isso entra na decisão?

Anúncios são publicações feitas por usuários ou empresas para promover algo, e impulsionamentos são formas de pagar para que uma postagem alcance mais pessoas. Por exemplo, uma empresa pode pagar para que um vídeo apareça no feed de milhares de usuários. O STF entendeu que, nesses casos, as plataformas têm ainda mais responsabilidade, porque estão lucrando com a divulgação daquele conteúdo. Se o material promovido for ilegal ou criminoso, e a rede não agir após ser alertada, poderá responder judicialmente com mais rigor.

Como fica a moderação de anúncios e impulsionamentos?

O STF deixou claro que postagens patrocinadas ou impulsionadas, além das distribuídas por robôs, devem ser moderadas com o mesmo rigor. A omissão nesses casos também gera responsabilidade automática .

E os conteúdos em mensagens privadas?

A decisão não vale para mensagens trocadas de forma privada, como no WhatsApp ou e-mail. Nesses casos, continua valendo a regra anterior: a plataforma só será responsabilizada se houver ordem judicial determinando a remoção ou desbloqueio.

As plataformas vão ter que se adaptar?

Sim. O STF determinou que as redes sociais precisam criar regras claras sobre moderação de conteúdo, oferecer canais de denúncia eficientes, divulgar relatórios anuais sobre os conteúdos removidos e manter tudo isso transparente ao público. A Procuradoria-Geral da República poderá fiscalizar esse cumprimento. Isso significa que as empresas terão de assumir mais responsabilidade e tornar seu funcionamento mais acessível e compreensível aos usuários.

Essas regras já estão valendo?

Sim. A decisão do STF é válida a partir de 26 de junho de 2025, e passa a vigorar imediatamente enquanto o Congresso não editar nova legislação.

Precisa de ajuda jurídica?

Fale agora com um de nossos advogados e tire suas dúvidas.

Conclusão

A recente decisão do STF representa um marco na regulação da internet no Brasil. Ao permitir a responsabilização das plataformas a partir de notificações extrajudiciais, torna-se mais efetiva a proteção contra discursos de ódio, fake news e abusos online. Ao mesmo tempo, preserva-se a liberdade de expressão, ao manter a exigência de ordem judicial em casos contra a honra.

É importante que usuários e vítimas de conteúdo ilegal entendam como proceder: saber identificar crimes graves, usar corretamente os mecanismos de notificação e, se necessário, formalizar o envio com provas (prints, protocolos). Já as plataformas devem cumprir a decisão: instituindo autorregulação, relatórios e atendimento eficiente às notificações.

Essa mudança reforça que a Internet não é uma jurisdição sem regras, ou seja, uma “terra sem lei”. O futuro digital depende tanto de um uso mais responsável por parte das empresas quanto da conscientização dos cidadãos sobre seus direitos e formas de agir. Se você já foi alvo de conteúdo ilegal ou quer se preparar para agir caso necessário, procure orientação jurídica especializada. Atue na defesa da sua reputação e dos seus direitos, porque agora eles contam com respaldo efetivo do STF.

Anéria Lima – Redação André Mansur Advogados Associados

Responsabilidade das plataformas digitais: O que está em jogo e como isso afeta você

Conheça os pontos centrais do julgamento do STF sobre o Marco Civil da Internet e como a decisão pode mudar a forma como usamos e somos protegidos nas redes sociais.

Fique por dentro dos seus direitos

Receba atualizações jurídicas e entenda como a lei pode te proteger.

“Conhecer seus direitos é o primeiro passo para defendê-los.”

Obrigado pelo seu contato!

Para concluir sua inscrição, verifique seu e-mail e clique no link de confirmação que enviamos.

Isso garante que você receba todas as nossas atualizações jurídicas sem perder nada!

Você, ao ler o título desse artigo, deve estar se perguntando: “Por que esse tema importa?” Importa porque as redes sociais, os aplicativos de mensagens, sites de vídeos e fóruns online se tornaram parte essencial da vida moderna. É por esses canais que nos informamos, nos expressamos, vendemos, compramos, protestamos ou apenas socializamos. Mas o que acontece quando alguém é difamado, enganado por fake news ou tem sua intimidade exposta nesses espaços? Quem é o responsável por reparar esse dano: o autor da postagem ou a plataforma digital que permitiu sua veiculação? Essa é a discussão central em curso no Supremo Tribunal Federal (STF), que está atualmente julgando a validade do Artigo 19 do Marco Civil da Internet, o que pode redefinir as obrigações legais dessas empresas no Brasil.

Vivemos em uma era em que as plataformas digitais (como as redes sociais e os aplicativos de mensagens) são parte integrante do nosso cotidiano, influenciando inclusive nosso comportamento. No entanto, a disseminação de conteúdos prejudiciais, como discursos de ódio e desinformação, levanta questões sobre a responsabilidade dessas plataformas. Por isso esse tema é tão importante, e sua análise legal precisa ser acompanhada de perto pela sociedade.

O que é o Artigo 19 do Marco Civil da Internet?

O Artigo 19 estabelece que provedores de aplicações de internet só podem ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomarem as providências para remover o conteúdo ofensivo.

Na forma atual, esse artigo é uma das principais proteções jurídicas às plataformas digitais no Brasil. Ele estabelece que plataformas como Facebook, Instagram, X (ex-Twitter), TikTok e YouTube só podem ser responsabilizadas por conteúdo gerado por usuários, se não removerem esse conteúdo após ordem judicial específica.

Ou seja, se alguém posta um vídeo ofensivo, a plataforma não precisa agir de imediato, a menos que receba uma ordem judicial mandando retirar o conteúdo. Caso não cumpra a ordem, aí sim poderá ser responsabilizada civilmente. Daí vemos a importância desse artigo estar sendo analisado pelo STF, que pode determinar mudanças significativas a fim de proteger os direitos dos usuários.

Por que o STF está julgando o Artigo 19?

O STF está analisando se a exigência de ordem judicial prévia para responsabilizar as plataformas é constitucional. O debate gira em torno de equilibrar a liberdade de expressão com a necessidade de proteger os direitos fundamentais dos usuários, como a honra e a privacidade.

O julgamento ocorre porque muitos consideram que esse artigo criou uma blindagem excessiva às plataformas, que acabam se omitindo diante de conteúdos ilícitos como ameaças, discursos de ódio, notícias falsas e até incitação à violência.

A questão central é: esperar uma ordem judicial para agir, em todos os casos, é razoável num ambiente digital que se move com tanta rapidez? Para os defensores da mudança, essa exigência gera demora e incentiva a impunidade digital. Já os defensores da manutenção do artigo acreditam que ele protege a liberdade de expressão e evita abusos de remoção arbitrária.

Quais são os argumentos a favor da mudança?

A Advocacia Geral da União (AGU) defende que o Artigo 19 é inconstitucional, argumentando que ele oferece uma espécie de “imunidade” às plataformas, mesmo quando elas têm ciência clara da ilicitude de certos conteúdos. Ou seja, ele dá uma espécie de salvo-conduto às plataformas, permitindo que conteúdos prejudiciais permaneçam no ar até que haja uma ordem judicial.

A AGU sugere que as plataformas deveriam ser responsabilizadas por não removerem conteúdos ilícitos mesmo sem ordem judicial, especialmente em casos evidentes de violação de direitos. Vejamos um exemplo prático: uma empresa pode ser alvo de ataques coordenados com acusações falsas e, mesmo após denúncia direta à plataforma, não há ação imediata. Com base no artigo 19, a empresa teria que conseguir uma decisão judicial para forçar a remoção — o que pode demorar dias, tempo suficiente para o dano à reputação se espalhar.

Quais são os argumentos contra a mudança?

Críticos da mudança argumentam que permitir a remoção de conteúdo sem ordem judicial pode levar à censura privada, onde as plataformas, por precaução, removeriam conteúdos legítimos para evitar possíveis responsabilidades legais. Isso poderia afetar negativamente a liberdade de expressão e o debate público.

Para os que defendem a manutenção do artigo, permitir a remoção sem ordem judicial daria às plataformas o poder de decidir o que deve ou não permanecer online, podendo agir com base em interesses próprios, censura privada ou diretrizes pouco transparentes. Um conteúdo crítico a um político, por exemplo, poderia ser removido por pressão de grupos organizados. Também haveria o risco de que plataformas adotem uma política de “remoção por precaução”, restringindo indevidamente a liberdade de expressão de milhões de usuários.

Como isso afeta o usuário comum?

A decisão do STF pode impactar diretamente os usuários das plataformas digitais. Se as plataformas forem responsabilizadas por conteúdos de terceiros sem necessidade de ordem judicial, elas podem adotar políticas mais rigorosas de moderação, o que pode levar à remoção de conteúdos legítimos. Por outro lado, isso também pode resultar em uma Internet mais segura, com menos disseminação de conteúdos prejudiciais.

O fato é que a decisão do STF impacta diretamente todos que usam redes sociais, publicam conteúdos ou mesmo apenas consomem informações online. Vejamos alguns exemplos práticos:

Imagine que você é injustamente acusado em um post viral no Facebook, com seu nome, foto e uma mentira grave. Você aciona a plataforma para remover, mas ela responde que só pode agir mediante ordem judicial. Enquanto isso, o post segue no ar, sendo compartilhado e causando a você enorme prejuízo pessoal, profissional e psicológico.

Outro exemplo: um pequeno comerciante tem sua loja exposta por suposta fraude em um vídeo no TikTok. A acusação é falsa, mas viraliza. Até que uma ordem judicial chegue, o dano financeiro já foi feito.

E, por fim, vamos pensar em um influenciador que sofre ataques transfóbicos nos comentários do Instagram. Mesmo denunciando o conteúdo, a plataforma não remove, alegando que ainda não há ordem judicial. Isso o expõe a violência psicológica e retira seu espaço de fala.

Com a mudança, as plataformas poderiam ser pressionadas a agir mais rapidamente diante de denúncias, o que protegeria o usuário. Mas também há o risco de que o medo de responsabilidade leve as plataformas a removerem conteúdo demais, inclusive críticas legítimas.

Conclusão

O julgamento do STF sobre o Artigo 19 do Marco Civil da Internet representa um divisor de águas na forma como o Brasil lida com a regulação da Internet e na definição das responsabilidades das plataformas digitais no nosso país. Trata-se de um equilíbrio delicado entre liberdade de expressão e proteção contra abusos digitais.

A decisão terá implicações significativas para a liberdade de expressão, a proteção dos direitos dos usuários e a forma como interagimos no ambiente digital. É essencial que os cidadãos estejam informados sobre essas mudanças, pois elas moldarão o futuro da Internet no Brasil.

As plataformas precisam de regras claras, mas os usuários também precisam de segurança. Seja qual for o desfecho, é essencial que a sociedade civil acompanhe e compreenda esse debate, pois o modo como lidamos com a internet hoje definirá os limites do que é possível dizer, denunciar e defender no mundo digital de amanhã.

Anéria Lima (Redação)