Durante los últimos cuatro años, muchos expertos preveían que las elecciones estadounidenses de 2020 serían la prueba final de las redes sociales y de su capacidad para responder a acusaciones de manipulación de masas, interferencia extranjera, noticias falsas y más.
Facebook y Twitter, en concreto, han trabajado para añadir una serie de nuevas medidas y herramientas para proteger mejor la integridad del voto crítico, incluyendo nuevas medidas de transparencia de anuncios publicitarios, sistemas de detección mejorados para erradicar el «comportamiento inauténtico coordinado», procesos de respuesta actualizados, etc.
Entonces, ¿cómo lo han hecho exactamente? ¿Cómo han luchado las principales redes sociales contra la desinformación y la manipulación de masas a través de sus apps? Os lo contamos.
Advertencias para frenar la desinformación electoral
Como ya informábamos hace unas semanas, Twitter tomó diversas medidas de carácter preventivo para informar a sus usuarios sobre diversas cuestiones relativas a las elecciones estadounidenses.
Entre las medidas, se encontraban unos mensajes que aparecían en las timelines de los usuarios y en la pestaña de Búsqueda, y que advertían sobre el posible retraso en el recuento de votos debido al incremento del voto por correo, así como de las posibles declaraciones no confirmadas de que un candidato hubiese ganado las elecciones. Además, la red social tuvo mano dura con aquellos tuits y cuentas que desinformaran sobre algunos de estos aspectos.
Como se observa en la imagen, la red social tuvo bastante trabajo con los tuits del actual presidente estadounidense, Donald Trump, que en multitud de ocasiones declaró haber ganado las elecciones y que estas eran «fraudulentas», a pesar de no añadir (hasta la fecha) ninguna prueba al respecto.
Actualizaciones frecuentes y precisas
Facebook ha estado trabajando para mantener a los usuarios actualizados con la información más reciente y precisa que había sobre los sondeos mediante la adición de banners que encabezaban los feeds de los usuarios, tanto en Facebook como en Instagram, que recordaban a los usuarios que los votos todavía se estaban contando.
El día 6, Facebook anunció que publicaría un nuevo banner, una vez que se hubiese proyectado un ganador de las elecciones por fuentes oficiales, proporcionando más contexto en el proceso. La compañía aun no ha compartido más detalles sobre esto, y el mensaje seguramente solo aparezca en los feeds de usuarios estadounidenses, por lo que no podemos comprobar si ya se ha desplegado el mensaje tras la victoria proyectada de Joe Biden del pasado sábado.
Predicción de comportamientos violentos
Según detalla BuzzFeed News, Facebook tiene una herramienta de medición interna que utiliza para predecir la probabilidad de violencia potencial en el mundo real, basada en tendencias sobre temas de discusión candentes.
Esto muestra que Facebook es consciente de la influencia que puede tener en las acciones del mundo real, y que entiende que permitir que ciertas tendencias se propaguen y crezcan puede ser peligroso. También, significa que Facebook está constantemente midiendo hasta qué punto puede ejercer presión, y cuándo necesita ralentizar las tendencias, con el fin de evitar que estas se desborden.
Esfuerzos significativos por parte de la compañía para frenar un tipo de desinformación muy dañina, que ya se pudo apreciar al prohibir de forma permanente todo el contenido relativo al grupo conspirativo QAnon en su plataforma.
Hashtags bloqueados
Tras las afirmaciones sin fundamento de Trump de que el proceso de recuento de votos era «ilegal» y estaba «amañado», Facebook tomó medidas adicionales, bloqueando los hashtags #sharpiegate, #stopthesteal y #riggedelection, vinculados con la creciente crítica que experimentó el proceso de escrutinio de votos.
TikTok también bloqueó estos hashtags, mientras que Twitter, como ya comentamos anteriormente, ha seguido añadiendo advertencias a todos los tuits que detecta que pueden contener desinformación electoral.
Freno del impulso de contenido desinformativo
Si bien Twitter cambió recientemente el modo de realizar retuits, de cara a estas elecciones, Facebook también está tratando de desacelerar el intercambio de publicaciones políticas con el fin de frenar el impulso del contenido que pueda alimentar las conspiraciones y la desinformación en general.
Según publica The New York Times: «Facebook planea añadir más «fricción», como un clic adicional o dos, antes de que las personas puedan compartir publicaciones y otro contenido. La compañía también degradará el contenido de la sección de noticias si contiene información errónea relacionada con las elecciones, haciéndola menos visible, y limitará la distribución de transmisiones de Facebook Live relacionadas con las elecciones».
Suspensión del Twitter de Bannon
En otro movimiento significativo, el exasesor de Trump, Steve Bannon, ha sido suspendido permanentemente de Twitter después de pedir las decapitaciones de dos altos funcionarios públicos estadounidenses, con el fin de mandar una advertencia a otros. El vídeo en el que realizó estas declaraciones fue eliminado también de Facebook y de YouTube.
La declaración de Bannon es otro ejemplo de la importancia de frenar la retórica violenta en el discurso público, independientemente de su intención, ya que podría conllevar graves consecuencias. Ahora, Bannon se enfrenta a una prohibición en varias plataformas, y podría encontrarse con serios problemas, como resultado, para difundir sus mensajes en un futuro.