STF coloca as redes sociais sob a lupa: entenda a decisão sobre as plataformas
O Supremo Tribunal Federal (STF) decidiu, nesta quarta-feira (26), mudar a forma como as plataformas digitais e redes sociais são responsabilizadas por conteúdos publicados por terceiros. Por 8 votos a 3, os ministros consideraram que o artigo 19 do Marco Civil da Internet (MCI), que exigia uma ordem judicial para a responsabilização civil das empresas por postagens ofensivas, é parcialmente inconstitucional.
A Corte entendeu que o modelo anterior oferecia pouca proteção a direitos fundamentais como a honra, a dignidade e a integridade. Com isso, o STF estabeleceu um novo entendimento que deve valer até que o Congresso Nacional crie uma nova lei sobre o tema.
O que muda com a decisão do STF?
A decisão do STF cria três níveis de responsabilização para as empresas de internet:
- Remoção Proativa para Casos Graves: Plataformas deverão agir imediatamente, sem necessidade de notificação ou ordem judicial, para remover conteúdos que envolvam discurso de ódio, racismo, pedofilia, incitação à violência ou defesa de golpe de Estado. A omissão da empresa nesses casos poderá resultar em responsabilização civil direta.
- Notificação Extrajudicial como Gatilho: Para outros tipos de conteúdo considerado ilícito, a empresa será responsabilizada se, após receber uma notificação extrajudicial, não remover o conteúdo e a Justiça, posteriormente, confirmar a ofensa. Isso agiliza a remoção de conteúdos ofensivos como ataques pessoais e desinformação.
- Crimes Contra a Honra Mantêm Exigência Judicial: Em casos de crimes contra a honra (como difamação), a regra permanece a mesma: as plataformas só são obrigadas a remover o conteúdo se houver uma ordem judicial. Não haverá punição se o conteúdo não for excluído apenas com a notificação extrajudicial. Essa medida visa proteger a liberdade de expressão.
Tese Fixada pelo STF
A tese estabelecida pelo STF determina que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional devido à sua omissão na proteção de direitos fundamentais. Enquanto uma nova lei não é aprovada, o artigo deve ser interpretado da seguinte forma:
- Plataformas podem ser responsabilizadas civilmente por não removerem conteúdo após receberem uma notificação extrajudicial.
- Essa responsabilização não se aplica à legislação eleitoral, que possui regras próprias e é regida pelo Tribunal Superior Eleitoral (TSE).
- Conteúdos de contas inautênticas também se enquadram na lógica de responsabilização.
- Casos de racismo, pedofilia, discurso de ódio e incitação à violência exigem remoção imediata e proativa, sem necessidade de provocação externa.
Essa decisão forçará as grandes plataformas a revisar suas políticas de moderação, implementando protocolos mais rigorosos para casos de discurso de ódio e estruturando canais eficazes para receber e responder a notificações extrajudiciais.
