Entenda como a nova decisão do Supremo afeta a Internet no Brasil e os direitos de quem consome e produz conteúdo nas redes.
Fique por dentro dos seus direitos
Receba atualizações jurídicas e entenda como a lei pode te proteger.
“Conhecer seus direitos é o primeiro passo para defendê-los.”
Obrigado pelo seu contato!
Para concluir sua inscrição, verifique seu e-mail e clique no link de confirmação que enviamos.
Isso garante que você receba todas as nossas atualizações jurídicas sem perder nada!
A recente decisão do Supremo Tribunal Federal (STF) trouxe mudanças importantes para quem usa as redes sociais — seja como usuário comum, criador de conteúdo ou empresa. Para quem não está familiarizado com o assunto, o Marco Civil da Internet, aprovado em 2014, estabelecia que redes sociais e plataformas como Instagram, Facebook, X (antigo Twitter) ou TikTok só poderiam ser responsabilizadas judicialmente por conteúdos prejudiciais se não cumprissem uma ordem da Justiça determinando a remoção.
Agora, com a nova interpretação do STF, essa proteção foi revista: se uma rede social for avisada diretamente sobre um conteúdo ilegal e mesmo assim não fizer nada, ela poderá ser responsabilizada. Ou seja, mesmo sem ordem judicial, as plataformas podem ser obrigadas a responder por danos causados, caso se omitam diante de uma notificação clara sobre conteúdos ilegais — isto é, uma notificação extrajudicial para a remoção desses conteúdos.
Essa mudança levantou uma série de dúvidas entre usuários, criadores de conteúdo, empresas e até profissionais do direito. O novo entendimento tem gerado dúvidas especialmente entre pessoas que se sentem vítimas de postagens ofensivas ou perigosas na internet. Neste artigo, vamos explicar de forma clara e acessível o que foi decidido pelo STF, o que muda na prática, o que dizem os artigos da lei que foram alterados, e como você pode agir para se proteger em casos de publicações ilegais.
O que dizia o artigo 19 do Marco Civil da Internet?
Esse artigo foi criado em 2014, com a intenção de proteger a liberdade de expressão e garantir segurança jurídica para empresas. Ele dizia que as plataformas (como redes sociais, blogs, fóruns e sites) não podiam ser responsabilizadas por conteúdos postados pelos usuários, a menos que houvesse uma ordem judicial determinando a retirada. Ou seja, mesmo que um conteúdo fosse claramente ilegal, como um vídeo promovendo violência ou espalhando fake news, a plataforma só teria obrigação de agir depois de uma decisão da Justiça.
O STF declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, abrindo caminho para que plataformas sejam responsabilizadas civilmente, conforme o artigo 21 do mesmo Marco, desde que permaneçam omissas após a notificação extrajudicial. O relator, ministro Dias Toffoli, argumentou que a imunidade tradicional facilita a propagação de conteúdos nocivos, como fake news e discurso de ódio. Com o crescimento das redes e dos abusos online, esse modelo passou a ser questionado. O STF decidiu que essa regra, apesar de importante, precisava ser atualizada para situações mais graves.
O que muda com a nova decisão?
Agora, as plataformas devem agir assim que recebem uma notificação clara de que determinado conteúdo viola a lei — especialmente se estiver relacionado a crimes graves como racismo, discurso de ódio, incentivo ao suicídio, violência contra mulheres, terrorismo ou fake news sobre saúde pública. Se a rede for avisada e não remover esse conteúdo em tempo razoável, ela pode ser responsabilizada judicialmente pelos danos causados, mesmo sem ordem judicial.
Quais conteúdos estão incluídos na nova responsabilização?
O STF estabeleceu um rol de conteúdos considerados graves, incluindo crimes antidemocráticos, terrorismo, incitação ao suicídio, discriminação por raça, gênero ou orientação sexual, violência contra mulheres, pornografia infantil e infrações sanitárias. Para esses casos, a omissão após notificação extrajudicial torna a plataforma responsabilizável.
E os conteúdos contra a honra, como difamação e injúria?
Nos casos em que a postagem fere a honra de alguém — como ofensas pessoais, calúnias, difamações — a retirada ainda depende de decisão judicial, pois é uma questão mais subjetiva e delicada. Então, para a retirada desse tipo de conteúdo, permanece a exigência de ordem judicial, mantendo parte da proteção anterior do artigo 19.
Como o usuário pode agir diante de um conteúdo ilegal?
Com a nova decisão do STF, as plataformas passam a ter o dever de agir, após serem alertadas sobre conteúdos claramente ilegais. Mas isso levanta uma dúvida importante: como deve ser feita essa comunicação por parte do usuário? Afinal, a responsabilidade da rede só passa a valer se ela for informada e, mesmo assim, decidir não remover o conteúdo.
O primeiro passo é utilizar os canais oficiais de denúncia que cada rede social oferece — geralmente acessíveis clicando nos três pontinhos de uma publicação ou perfil. A denúncia deve ser objetiva e, se possível, indicar por que aquele conteúdo é ilegal (por exemplo: incita violência, promove discriminação, espalha fake news etc.).
Em casos mais graves ou quando não há resposta, o ideal é formalizar a notificação, ou seja, fazer uma notificação formal. Essa comunicação, feita de forma clara e comprovável, é o que pode fundamentar a responsabilização da plataforma, caso ela se omita mesmo após ser alertada sobre a ilegalidade.
O que é considerado como notificação válida?
O ideal é que o usuário use primeiro os canais oficiais da plataforma (como “denunciar publicação” ou “reportar abuso”). Porém, em situações mais graves ou se não houver retorno da plataforma, é possível enviar uma notificação formal por e-mail ou outro meio que permita comprovar o envio e o conteúdo denunciado, que será considerada uma notificação válida. Isso pode ser feito, como foi dito antes, por e-mail ou outro canal institucional da empresa, e deve incluir detalhes do conteúdo denunciado, links, capturas de tela (prints) e a explicação do motivo da denúncia. Guardar esses registros (provas) é fundamental para que, se necessário, você possa buscar reparação via ação judicial.
O que são anúncios e impulsionamentos? Como isso entra na decisão?
Anúncios são publicações feitas por usuários ou empresas para promover algo, e impulsionamentos são formas de pagar para que uma postagem alcance mais pessoas. Por exemplo, uma empresa pode pagar para que um vídeo apareça no feed de milhares de usuários. O STF entendeu que, nesses casos, as plataformas têm ainda mais responsabilidade, porque estão lucrando com a divulgação daquele conteúdo. Se o material promovido for ilegal ou criminoso, e a rede não agir após ser alertada, poderá responder judicialmente com mais rigor.
Como fica a moderação de anúncios e impulsionamentos?
O STF deixou claro que postagens patrocinadas ou impulsionadas, além das distribuídas por robôs, devem ser moderadas com o mesmo rigor. A omissão nesses casos também gera responsabilidade automática .
E os conteúdos em mensagens privadas?
A decisão não vale para mensagens trocadas de forma privada, como no WhatsApp ou e-mail. Nesses casos, continua valendo a regra anterior: a plataforma só será responsabilizada se houver ordem judicial determinando a remoção ou desbloqueio.
As plataformas vão ter que se adaptar?
Sim. O STF determinou que as redes sociais precisam criar regras claras sobre moderação de conteúdo, oferecer canais de denúncia eficientes, divulgar relatórios anuais sobre os conteúdos removidos e manter tudo isso transparente ao público. A Procuradoria-Geral da República poderá fiscalizar esse cumprimento. Isso significa que as empresas terão de assumir mais responsabilidade e tornar seu funcionamento mais acessível e compreensível aos usuários.
Essas regras já estão valendo?
Sim. A decisão do STF é válida a partir de 26 de junho de 2025, e passa a vigorar imediatamente enquanto o Congresso não editar nova legislação.
Conclusão
A recente decisão do STF representa um marco na regulação da internet no Brasil. Ao permitir a responsabilização das plataformas a partir de notificações extrajudiciais, torna-se mais efetiva a proteção contra discursos de ódio, fake news e abusos online. Ao mesmo tempo, preserva-se a liberdade de expressão, ao manter a exigência de ordem judicial em casos contra a honra.
É importante que usuários e vítimas de conteúdo ilegal entendam como proceder: saber identificar crimes graves, usar corretamente os mecanismos de notificação e, se necessário, formalizar o envio com provas (prints, protocolos). Já as plataformas devem cumprir a decisão: instituindo autorregulação, relatórios e atendimento eficiente às notificações.
Essa mudança reforça que a Internet não é uma jurisdição sem regras, ou seja, uma “terra sem lei”. O futuro digital depende tanto de um uso mais responsável por parte das empresas quanto da conscientização dos cidadãos sobre seus direitos e formas de agir. Se você já foi alvo de conteúdo ilegal ou quer se preparar para agir caso necessário, procure orientação jurídica especializada. Atue na defesa da sua reputação e dos seus direitos, porque agora eles contam com respaldo efetivo do STF.
Anéria Lima – Redação André Mansur Advogados Associados