redaccion@diariodigitalis.com

Facebook incluye ahora la prevalencia de los discursos de odio en sus informes

La facilitación y amplificación del discurso de odio y de la desinformación por parte de Facebook ha sido un tema candente en los últimos cuatro años, pero aún más dentro del caos de este 2020. La COVID-19, el movimiento #BlackLivesMatter y las elecciones presidenciales de los Estados Unidos han subrayado, a su manera, el papel que Facebook puede desempeñar en la amplificación de narrativas peligrosas y, como resultado, la propagación de división social.

De hecho, Facebook se enfrenta actualmente, una vez más, a cuestiones serias sobre el papel que está desempeñando en la difusión de falsas afirmaciones sobre los resultados de las elecciones de Estados Unidos (a pesar de sus esfuerzos por mitigarlas), mientras que, en otras regiones del mundo, las campañas de desinformación en la plataforma han provocado conflictos violentos y amenazan el proceso democrático.

No hay duda de que el alcance masivo de Facebook juega un papel importante, pero Facebook está dispuesta a señalar que está trabajando para abordar tales afirmaciones, y que está desarrollando sus procesos para abordar esos problemas.

Facebook estrena una medición de la prevalencia del discurso de odio

Ese es el mensaje de la última actualización de Facebook sobre la eliminación de contenido como parte de su Informe de Cumplimiento de los Estándares Comunitarios, que, por primera vez, ahora incluye una medida de la prevalencia del discurso de odio en la plataforma como parte de su resumen general.

Como explica Facebook en su blog: «La prevalencia estima el porcentaje de veces que las personas ven contenido infractor en nuestra plataforma. Calculamos la prevalencia del discurso de odio seleccionando una muestra de contenido visto en Facebook y luego etiquetando cuántos de ellos infringen nuestras políticas de incitación al odio. Basándonos en esta metodología, estimamos que la prevalencia del discurso de odio de julio de 2020 a septiembre de 2020 fue del 0,10% al 0,11%. En otras palabras, de cada 10.000 visitas de contenido en Facebook, entre 10 y 11 de ellas incluían discursos de odio».

Id bootcamps Banner

Aunque solo el 0,10% de las vistas de contenido de Facebook incluyen algún tipo de discurso de odio (una cifra buena, a priori), la consideración principal aquí es la escala, ya que, como Facebook señala, 10 de cada 10.000 no es mucho. Pero Facebook tiene más de 2.700 millones de usuarios activos y si, por ejemplo, cada usuario de Facebook solo viera una publicación al mes, significaría que 2,7 millones de personas seguirían viendo algún contenido de incitación al odio. Por lo que, mientras que los datos de prevalencia aquí son positivos, a la escala de Facebook, eso todavía significa que mucha gente está siendo expuesta a la incitación al odio en la plataforma.

Pero Facebook está detectando y eliminando más contenido de este tipo. Según Facebook, sus herramientas de detección automatizada están actualmente recogiendo muchos más casos de discursos de odio antes de que alguien pueda verlos siquiera.

«Cuando comenzamos a reportar nuestras métricas sobre el discurso de odio, en el cuarto trimestre de 2017, nuestra tasa de detección proactiva era del 23,6%. Esto significa que, de la incitación al odio que eliminamos, un 23.6% de ella se encontró antes de que un usuario nos informara. Hoy en día detectamos proactivamente alrededor del 95% del contenido de incitación al odio que eliminamos».

QAnon, uno de sus casos más sonados

Facebook también ha aumentado las eliminaciones de contenido ilegal en los últimos meses, incluyendo su decisión de eliminar el contenido relacionado con el grupo conspirativo QAnon.

En este caso, Facebook fue advertida una y otra vez de los peligros potenciales que planteaban los movimientos relacionados con QAnon, con ejemplos de violencia en el mundo real derivados de muchas de las discusiones de QAnon que ocurrieron desde el año 2016. A pesar de esto, Facebook permitió a los grupos relacionados con QAnon prosperar en su plataforma. Una investigación interna llevada a cabo por Facebook este año, y filtrada por NBC News, encontró que la plataforma les había proporcionado un hogar a miles de grupos y páginas de QAnon, con millones de miembros y seguidores.

Artículos Relacionados

Suscríbete a nuestra newsletter


(Obligatorio)

También te puede gustar

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Suscríbete a nuestra newsletter