STF amplia responsabilidade das redes sociais por conteúdos dos usuários

Entenda como a nova decisão do Supremo afeta a Internet no Brasil e os direitos de quem consome e produz conteúdo nas redes.

Fique por dentro dos seus direitos

Receba atualizações jurídicas e entenda como a lei pode te proteger.

“Conhecer seus direitos é o primeiro passo para defendê-los.”

Obrigado pelo seu contato!

Para concluir sua inscrição, verifique seu e-mail e clique no link de confirmação que enviamos.

Isso garante que você receba todas as nossas atualizações jurídicas sem perder nada!

A recente decisão do Supremo Tribunal Federal (STF) trouxe mudanças importantes para quem usa as redes sociais — seja como usuário comum, criador de conteúdo ou empresa. Para quem não está familiarizado com o assunto, o Marco Civil da Internet, aprovado em 2014, estabelecia que redes sociais e plataformas como Instagram, Facebook, X (antigo Twitter) ou TikTok só poderiam ser responsabilizadas judicialmente por conteúdos prejudiciais se não cumprissem uma ordem da Justiça determinando a remoção.

Agora, com a nova interpretação do STF, essa proteção foi revista: se uma rede social for avisada diretamente sobre um conteúdo ilegal e mesmo assim não fizer nada, ela poderá ser responsabilizada. Ou seja, mesmo sem ordem judicial, as plataformas podem ser obrigadas a responder por danos causados, caso se omitam diante de uma notificação clara sobre conteúdos ilegais — isto é, uma notificação extrajudicial para a remoção desses conteúdos.

Essa mudança levantou uma série de dúvidas entre usuários, criadores de conteúdo, empresas e até profissionais do direito. O novo entendimento tem gerado dúvidas especialmente entre pessoas que se sentem vítimas de postagens ofensivas ou perigosas na internet. Neste artigo, vamos explicar de forma clara e acessível o que foi decidido pelo STF, o que muda na prática, o que dizem os artigos da lei que foram alterados, e como você pode agir para se proteger em casos de publicações ilegais.

O que dizia o artigo 19 do Marco Civil da Internet?

Esse artigo foi criado em 2014, com a intenção de proteger a liberdade de expressão e garantir segurança jurídica para empresas. Ele dizia que as plataformas (como redes sociais, blogs, fóruns e sites) não podiam ser responsabilizadas por conteúdos postados pelos usuários, a menos que houvesse uma ordem judicial determinando a retirada. Ou seja, mesmo que um conteúdo fosse claramente ilegal, como um vídeo promovendo violência ou espalhando fake news, a plataforma só teria obrigação de agir depois de uma decisão da Justiça.

O STF declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, abrindo caminho para que plataformas sejam responsabilizadas civilmente, conforme o artigo 21 do mesmo Marco, desde que permaneçam omissas após a notificação extrajudicial. O relator, ministro Dias Toffoli, argumentou que a imunidade tradicional facilita a propagação de conteúdos nocivos, como fake news e discurso de ódio. Com o crescimento das redes e dos abusos online, esse modelo passou a ser questionado. O STF decidiu que essa regra, apesar de importante, precisava ser atualizada para situações mais graves.

O que muda com a nova decisão?

Agora, as plataformas devem agir assim que recebem uma notificação clara de que determinado conteúdo viola a lei — especialmente se estiver relacionado a crimes graves como racismo, discurso de ódio, incentivo ao suicídio, violência contra mulheres, terrorismo ou fake news sobre saúde pública. Se a rede for avisada e não remover esse conteúdo em tempo razoável, ela pode ser responsabilizada judicialmente pelos danos causados, mesmo sem ordem judicial.

Quais conteúdos estão incluídos na nova responsabilização?

O STF estabeleceu um rol de conteúdos considerados graves, incluindo crimes antidemocráticos, terrorismo, incitação ao suicídio, discriminação por raça, gênero ou orientação sexual, violência contra mulheres, pornografia infantil e infrações sanitárias. Para esses casos, a omissão após notificação extrajudicial torna a plataforma responsabilizável.

E os conteúdos contra a honra, como difamação e injúria?

Nos casos em que a postagem fere a honra de alguém — como ofensas pessoais, calúnias, difamações — a retirada ainda depende de decisão judicial, pois é uma questão mais subjetiva e delicada. Então, para a retirada desse tipo de conteúdo, permanece a exigência de ordem judicial, mantendo parte da proteção anterior do artigo 19.

Como o usuário pode agir diante de um conteúdo ilegal?

Com a nova decisão do STF, as plataformas passam a ter o dever de agir, após serem alertadas sobre conteúdos claramente ilegais. Mas isso levanta uma dúvida importante: como deve ser feita essa comunicação por parte do usuário? Afinal, a responsabilidade da rede só passa a valer se ela for informada e, mesmo assim, decidir não remover o conteúdo.

O primeiro passo é utilizar os canais oficiais de denúncia que cada rede social oferece — geralmente acessíveis clicando nos três pontinhos de uma publicação ou perfil. A denúncia deve ser objetiva e, se possível, indicar por que aquele conteúdo é ilegal (por exemplo: incita violência, promove discriminação, espalha fake news etc.).

Em casos mais graves ou quando não há resposta, o ideal é formalizar a notificação, ou seja, fazer uma notificação formal. Essa comunicação, feita de forma clara e comprovável, é o que pode fundamentar a responsabilização da plataforma, caso ela se omita mesmo após ser alertada sobre a ilegalidade.

O que é considerado como notificação válida?

O ideal é que o usuário use primeiro os canais oficiais da plataforma (como “denunciar publicação” ou “reportar abuso”). Porém, em situações mais graves ou se não houver retorno da plataforma, é possível enviar uma notificação formal por e-mail ou outro meio que permita comprovar o envio e o conteúdo denunciado, que será considerada uma notificação válida. Isso pode ser feito, como foi dito antes, por e-mail ou outro canal institucional da empresa, e deve incluir detalhes do conteúdo denunciado, links, capturas de tela (prints) e a explicação do motivo da denúncia. Guardar esses registros (provas) é fundamental para que, se necessário, você possa buscar reparação via ação judicial.

O que são anúncios e impulsionamentos? Como isso entra na decisão?

Anúncios são publicações feitas por usuários ou empresas para promover algo, e impulsionamentos são formas de pagar para que uma postagem alcance mais pessoas. Por exemplo, uma empresa pode pagar para que um vídeo apareça no feed de milhares de usuários. O STF entendeu que, nesses casos, as plataformas têm ainda mais responsabilidade, porque estão lucrando com a divulgação daquele conteúdo. Se o material promovido for ilegal ou criminoso, e a rede não agir após ser alertada, poderá responder judicialmente com mais rigor.

Como fica a moderação de anúncios e impulsionamentos?

O STF deixou claro que postagens patrocinadas ou impulsionadas, além das distribuídas por robôs, devem ser moderadas com o mesmo rigor. A omissão nesses casos também gera responsabilidade automática .

E os conteúdos em mensagens privadas?

A decisão não vale para mensagens trocadas de forma privada, como no WhatsApp ou e-mail. Nesses casos, continua valendo a regra anterior: a plataforma só será responsabilizada se houver ordem judicial determinando a remoção ou desbloqueio.

As plataformas vão ter que se adaptar?

Sim. O STF determinou que as redes sociais precisam criar regras claras sobre moderação de conteúdo, oferecer canais de denúncia eficientes, divulgar relatórios anuais sobre os conteúdos removidos e manter tudo isso transparente ao público. A Procuradoria-Geral da República poderá fiscalizar esse cumprimento. Isso significa que as empresas terão de assumir mais responsabilidade e tornar seu funcionamento mais acessível e compreensível aos usuários.

Essas regras já estão valendo?

Sim. A decisão do STF é válida a partir de 26 de junho de 2025, e passa a vigorar imediatamente enquanto o Congresso não editar nova legislação.

Precisa de ajuda jurídica?

Fale agora com um de nossos advogados e tire suas dúvidas.

Conclusão

A recente decisão do STF representa um marco na regulação da internet no Brasil. Ao permitir a responsabilização das plataformas a partir de notificações extrajudiciais, torna-se mais efetiva a proteção contra discursos de ódio, fake news e abusos online. Ao mesmo tempo, preserva-se a liberdade de expressão, ao manter a exigência de ordem judicial em casos contra a honra.

É importante que usuários e vítimas de conteúdo ilegal entendam como proceder: saber identificar crimes graves, usar corretamente os mecanismos de notificação e, se necessário, formalizar o envio com provas (prints, protocolos). Já as plataformas devem cumprir a decisão: instituindo autorregulação, relatórios e atendimento eficiente às notificações.

Essa mudança reforça que a Internet não é uma jurisdição sem regras, ou seja, uma “terra sem lei”. O futuro digital depende tanto de um uso mais responsável por parte das empresas quanto da conscientização dos cidadãos sobre seus direitos e formas de agir. Se você já foi alvo de conteúdo ilegal ou quer se preparar para agir caso necessário, procure orientação jurídica especializada. Atue na defesa da sua reputação e dos seus direitos, porque agora eles contam com respaldo efetivo do STF.

Anéria Lima – Redação André Mansur Advogados Associados

Senado busca impedir cancelamento de planos de saúde de idosos e PcDs

ANS registrou 6 mil reclamações por cancelamento unilateral por parte das operadoras, no período de janeiro a abril de 2024.

Nos últimos meses, o número de reclamações sobre cancelamentos unilaterais de planos de saúde aumentou significativamente. Preocupados com essa situação, senadores estão se mobilizando para impedir que os brasileiros percam repentinamente o acesso à assistência médica. Em resposta, o senador Fabiano Contarato (PT-ES) apresentou um projeto de lei que visa proibir que operadoras rescindam unilateralmente contratos de planos de saúde com idosos ou pessoas com deficiência. Esta proposta abrange tanto os planos coletivos empresariais quanto os por adesão (PL 2.036/2024).

Atualmente, a legislação permite que os planos de saúde rompam contratos sem precisar justificar o motivo, contanto que o cancelamento esteja previsto no contrato e que os beneficiários sejam avisados com 60 dias de antecedência. Para o senador Contarato, essa prática cria uma situação de incerteza e vulnerabilidade para os usuários que dependem desses serviços, especialmente aqueles que necessitam de cuidados constantes.

A preocupação é comprovada por dados recentes: a Agência Nacional de Saúde Suplementar (ANS) recebeu aproximadamente 6 mil reclamações sobre cancelamentos unilaterais apenas nos primeiros quatro meses deste ano. Além disso, entre abril de 2023 e janeiro de 2024, mais de 5 mil queixas semelhantes foram registradas no portal consumidor.gov.br, vinculado à Secretaria Nacional do Consumidor (Senacon).

O aumento das queixas de cancelamentos unilaterais é especialmente alarmante para os beneficiários dos planos coletivos por adesão, que frequentemente se veem sem cobertura médica. Essa situação tem levado a um clamor por ações legislativas que protejam esses usuários vulneráveis. Contarato enfatiza que essas pessoas ficam em uma situação crítica quando seus planos são cancelados, muitas vezes sem aviso ou alternativas viáveis.

Enquanto o projeto aguarda análise no Senado, a Comissão de Assuntos Sociais (CAS) realizou uma audiência pública para discutir o problema. Durante o encontro, consumidores afetados pediram a “proibição total” dos cancelamentos unilaterais, enquanto representantes do setor de saúde suplementar argumentaram sobre a necessidade de manter o equilíbrio financeiro do sistema para garantir sua sustentabilidade a longo prazo.

Paralelamente, a senadora Damares Alves (Republicanos-DF) apresentou um requerimento solicitando à ministra da Saúde, Nísia Trindade, informações detalhadas sobre os contratos de planos de saúde rescindidos unilateralmente em 2024. A senadora busca entender quantos contratos foram cancelados e quais foram os motivos, enfatizando que esses cancelamentos podem representar uma violação dos direitos fundamentais à saúde, à vida e à dignidade humana.

Fonte: Agência Senado

Essa notícia foi publicada originalmente em: Projeto proíbe operadora de cancelar plano de saúde de idosos e de PcD — Senado Notícias

Tik Tok é condenado a pagar dano moral coletivo e individual

Empresa atualizou política de privacidade, incluindo coleta automática de dados, sem o consentimento dos usuários.

A Justiça determinou que a Bytedance Brasil Tecnologia, responsável pela plataforma social TikTok no Brasil, pague indenização de R$ 23 milhões de reais por dano moral coletivo, além de R$ 500,00 por dano moral individual para cada usuário brasileiro cadastrado na plataforma até junho de 2021. Para resgatar esse valor, o usuário teria de provar a adesão à plataforma até a data da atualização da Política de Dados que introduziu a possibilidade de captura de dados biométricos de seus usuários, em junho de 2021.

A sentença foi proferida por um juiz da Vara de Interesses Difusos e Coletivos de São Luís, em resposta aos pedidos incisivos do Instituto Brasileiro de Defesa das Relações de Consumo – IBEDEC/MA contra a Bytedance Brasil Tecnologia Ltda (Tik Tok), em uma Ação Civil Coletiva de Consumo. O processo visava combater práticas abusivas, demandando “Tutela de Urgência Antecipada”.

Conforme a decisão, a empresa deverá evitar coletar e compartilhar dados biométricos do usuário sem o necessário consentimento; explicar ao usuário de que forma o consentimento é obtido, com exposição das janelas, condições, línguas e caixas de diálogo em que são inseridos os termos deste consentimento; implementar ferramenta operacional para obter o consentimento do usuário da plataforma, com a oportunidade do usuário autorizar ou não a coleta de dados; e excluir os dados biométricos coletados ilegalmente sem consentimento.

O IBEDEC informou ter recebido diversas reclamações dos usuários tendo em vista que a empresa, no meio de 2021, promoveu uma atualização em sua política de privacidade na qual implementou no aplicativo uma ferramenta de inteligência artificial que, automaticamente, digitaliza o rosto dos usuários, visando a captura, armazenamento e compartilhamento de dados, sem o devido consentimento dos usuários. Para o Instituto, essa ação configurou uma série de práticas ilícitas e abusivas, resultando no vazamento de dados pessoais dos consumidores, em flagrante violação aos princípios de informação e transparência.

Em sua defesa, a empresa alegou a ausência de violações à boa-fé, informação, lealdade e transparência, negando qualquer dispositivo na plataforma que realizasse a coleta de dados dos usuários por meio da biometria facial. No entanto, o juiz, em uma decisão fundamentada, recorreu ao artigo 5º, inciso X, da Constituição Federal de 1988, que garante a inviolabilidade da intimidade, da vida privada, da honra e da imagem das pessoas.

O juiz ainda mencionou a Emenda Constitucional nº 115/2022 e a Lei do Marco Civil da Internet (Lei 12.965/2014), que estabelecem princípios fundamentais para a utilização da internet no Brasil. Tais dispositivos legais garantem a proteção da privacidade, dos dados pessoais e dos direitos do usuário, incluindo o direito ao consentimento livre, expresso e informado sobre a coleta e o tratamento de seus dados.

Concluindo, o juiz reconheceu que a coleta e armazenamento de dados biométricos foram realizados ilegalmente, sem o devido consentimento dos usuários, o que resultou na condenação da empresa responsável pelo TikTok ao pagamento de danos morais coletivos e individuais. A decisão serve como um alerta para a proteção dos direitos dos consumidores e para a importância da transparência e do consentimento no tratamento de dados pessoais.

Fonte: Jusbrasil

Essa notícia foi publicada originalmente em: https://www.jusbrasil.com.br/noticias/justica-condena-tik-tok-a-pagar-dano-moral-coletivo-e-individual/2221823725