redaccion@diariodigitalis.com

Facebook reduce errores de moderación en un 50 %, pero crecen el acoso y el contenido violento tras cambios en sus políticas

Meta ha publicado su Informe de Integridad correspondiente al primer trimestre de 2025 y, aunque celebra haber reducido en un 50 % los errores de moderación en Facebook, también reconoce un ligero aumento en los contenidos de acoso y violencia gráfica tras los cambios introducidos en sus políticas de control.

A principios de año, la compañía modificó su sistema de moderación de contenido en un movimiento que buscaba “facilitar la libertad de expresión”. Uno de los cambios más significativos fue la sustitución de los verificadores externos por el sistema de “notas de la comunidad”, una medida que ha redefinido cómo se clasifica y actúa ante publicaciones sensibles. Esta nueva filosofía, orientada a evitar eliminaciones erróneas, ha tenido consecuencias visibles: menos censura, pero más exposición a contenido problemático.

Más precisión… pero más riesgos

Según los datos compartidos por Meta, el ajuste en sus sistemas de revisión permitió reducir significativamente los errores de moderación, que incluían eliminar contenido que no infringía realmente las políticas de la plataforma. Para lograrlo, la tecnológica auditó sus sistemas automatizados y desactivó aquellos que generaban más fallos. Además, introdujo múltiples capas de revisión para asegurar que las decisiones fueran más precisas.

Sin embargo, esta mejora en la precisión también ha traído consigo un incremento de publicaciones problemáticas. El contenido relacionado con acoso e intimidación pasó del 0,07 % al 0,08 % del total, mientras que el contenido violento o gráfico subió del 0,07 % al 0,09 %. Meta atribuye estas subidas a un pico de publicaciones infractoras registradas durante el mes de marzo.

Id bootcamps Banner

Menos eliminaciones, más control manual

Otro de los efectos del nuevo enfoque es la reducción generalizada del contenido eliminado. En el primer trimestre de 2025, Meta eliminó cerca de un tercio menos de publicaciones por incumplimiento de sus normas comunitarias. En concreto, se registraron:

  • Un 50 % menos de eliminaciones por contenido considerado ‘spam’.

  • Un 36 % menos de publicaciones retiradas por no ser aptas para menores.

  • Y un 29 % menos de contenido eliminado por incitación al odio.

Desde la compañía aseguran que estos datos reflejan un mejor equilibrio entre libertad de expresión y cumplimiento normativo. «Si somos demasiado estrictos, corremos el riesgo de frustrar a los usuarios. Pero si somos laxos, exponemos a más personas a contenido perjudicial», explican desde Meta.

Nuevas métricas para el futuro

En línea con su compromiso de mayor transparencia, Meta ha anunciado que en los próximos informes comenzará a incluir métricas sobre errores de moderación, para que los usuarios puedan evaluar el progreso de la plataforma en este ámbito.

No obstante, la combinación de menos censura y un repunte en el contenido ofensivo vuelve a situar a Meta en el centro del debate sobre los límites de la libertad de expresión, especialmente en un año en el que los discursos polarizados y la desinformación digital siguen al alza.

Artículos Relacionados

Suscríbete a nuestra newsletter


(Obligatorio)

También te puede gustar

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Suscríbete a nuestra newsletter