Mark Zuckerberg anunciou que a Meta reduziria seus esforços de moderação de conteúdo nos EUA, eliminando a verificação de fatos profissional em favor de um modelo mais “democrático”, inspirado no sistema de “Notas da Comunidade” do X (antigo Twitter).
Essa mudança gerou preocupações, pois ela pode aumentar a propagação de desinformação e discursos de ódio.
A moderação voluntária, embora tenha sido eficaz no início da internet, pode ser ineficaz em plataformas de grande escala como as da Meta, onde o volume e a velocidade do conteúdo dificultam a moderação eficiente. Uma análise do MIT Technology Review explica as dificuldades de implementar este modelo.
O recurso, lançado no X em 2021, permite que usuários adicionem contexto às postagens. Embora a ideia tenha resultados mistos — com algumas notas sendo precisas e úteis, e outras que podem ser influenciadas por vieses ideológicos —, o sistema tem falhas.
O modelo depende de colaboração entre os usuários e da validação das informações, o que pode dificultar a identificação de desinformação em tópicos mais complexos.
Uma moderação sem apoio da plataforma ficará comprometida
- A moderação eficaz exige que especialistas tenham acesso às postagens e o processo seja bem apoiado.
- A moderação voluntária não deve ser vista como uma solução isolada, pois os voluntários enfrentam desafios como exposição a conteúdo perturbador e assédio.
- No caso do Meta, não está claro como os moderadores voluntários serão apoiados ou protegidos ao lidar com conteúdo nocivo.
Além disso, a moderação de conteúdo não se limita à verificação de fatos, mas inclui a identificação de outros tipos de conteúdo prejudicial, como discurso de ódio. Segundo a análise, a decisão de Zuckerberg enfraquece as políticas da Meta sobre conteúdo tóxico, o que pode agravar o ambiente online.
Se a Meta quiser realmente proteger seus usuários, precisará garantir que seu sistema de moderação seja robusto e bem apoiado, e não depender apenas de voluntários para resolver questões complexas de conteúdo.
A mudança também reflete uma decisão política para agradar a uma nova administração, mas, ao enfraquecer a moderação centralizada e depender de verificações voluntárias, pode piorar a experiência dos usuários e aumentar os riscos de abuso e desinformação nas plataformas.