Meta terá obstáculos para implementar “notas da comunidade”

Mark Zuckerberg anunciou que a Meta reduziria seus esforços de moderação de conteúdo nos EUA, eliminando a verificação de fatos profissional em favor de um modelo mais “democrático”, inspirado no sistema de “Notas da Comunidade” do X (antigo Twitter).

Essa mudança gerou preocupações, pois ela pode aumentar a propagação de desinformação e discursos de ódio.

moderação voluntária, embora tenha sido eficaz no início da internet, pode ser ineficaz em plataformas de grande escala como as da Meta, onde o volume e a velocidade do conteúdo dificultam a moderação eficiente. Uma análise do MIT Technology Review explica as dificuldades de implementar este modelo.

O recurso, lançado no X em 2021, permite que usuários adicionem contexto às postagens. Embora a ideia tenha resultados mistos — com algumas notas sendo precisas e úteis, e outras que podem ser influenciadas por vieses ideológicos —, o sistema tem falhas.

O modelo depende de colaboração entre os usuários e da validação das informações, o que pode dificultar a identificação de desinformação em tópicos mais complexos.

Redes sociais da Meta
Moderação de conteúdo especializada está dando lugar a um sistema alimentado por voluntários (Imagem: Sergei Elagin/Shutterstock)

Uma moderação sem apoio da plataforma ficará comprometida

  • A moderação eficaz exige que especialistas tenham acesso às postagens e o processo seja bem apoiado.
  • A moderação voluntária não deve ser vista como uma solução isolada, pois os voluntários enfrentam desafios como exposição a conteúdo perturbador e assédio.
  • No caso do Meta, não está claro como os moderadores voluntários serão apoiados ou protegidos ao lidar com conteúdo nocivo.

Além disso, a moderação de conteúdo não se limita à verificação de fatos, mas inclui a identificação de outros tipos de conteúdo prejudicial, como discurso de ódio. Segundo a análise, a decisão de Zuckerberg enfraquece as políticas da Meta sobre conteúdo tóxico, o que pode agravar o ambiente online.

Se a Meta quiser realmente proteger seus usuários, precisará garantir que seu sistema de moderação seja robusto e bem apoiado, e não depender apenas de voluntários para resolver questões complexas de conteúdo.

A mudança também reflete uma decisão política para agradar a uma nova administração, mas, ao enfraquecer a moderação centralizada e depender de verificações voluntárias, pode piorar a experiência dos usuários e aumentar os riscos de abuso e desinformação nas plataformas.

Depender da verificação de voluntários pode fazer com que a desinformação não seja barrada em redes como Facebook ou Instagram (Imagem: Thaspol Sangsee/Shutterstock)
Olhar Digital