Hace unos días salieron a la luz los resultados de varias investigaciones internas que Facebook realizó para averiguar los posibles impactos de su plataforma en la sociedad. The Wall Street Journal publicó los datos extraídos de estas investigaciones (que aún no son públicas) en una serie de reportajes titulada The Facebook Files (que podría traducirse al español como «Expediente Facebook»).
En Digitalis hablamos de dos de estos artículos, que recogen que Facebook contaría con un sistema que somete a los usuarios de alto perfil a un proceso de revisión diferente al de los usuarios habituales y que Instagram podría estar afectando a la salud mental de los más jóvenes, especialmente la de las chicas adolescentes.
«El fin justifica los medios»
Pero ahí no quedó todo. Otra de las investigaciones más destacadas es la de Friends and Family («Familia y Amigos»), la actualización del algoritmo del feed de noticias de Facebook implementada por la compañía en 2018 para amplificar el engagement entre los usuarios y reducir la discusión política, algo que se había convertido en un elemento cada vez más divisivo en la aplicación.
Facebook hizo esto asignando puntos para diferentes tipos de interacción con las publicaciones: los Me gusta tuvieron una asignación de 1 punto cada uno y las reacciones con emoticonos especiales obtuvieron 5 puntos, mientras que los comentarios tenían un valor mucho más alto, entre 15 y 30 puntos. De esta forma, cuanto mayor fuese el valor total de cada publicación, sería más probable que tuviese un mayor alcance.
La inocente idea era que esto incentivaría la participación, pero todo acabó yendo por otros derroteros. La actualización provocó que los editores y medios de comunicación compartieran publicaciones cada vez más divisivas y emocionales con un alto contenido sensacionalista y político, con el fin de incitar los comentarios y las reacciones, y obtener mejores métricas de engagement en su contenido.
Los Me gusta ya no eran el factor clave; el cambio de Facebook hizo que los comentarios y las reacciones fueran mucho más valiosos, por lo que el debate sobre las tendencias políticas se volvió más prominente y expuso a más usuarios a ese contenido en sus feeds.
Facebook sabía que esto estaba sucediendo, que el cambio estaba causando una mayor división social en la plataforma, pero el director ejecutivo de Facebook, Mark Zuckerberg, no quiso cambiar de nuevo el algoritmo, debido a que la actualización estaba generando una mayor participación, poniendo fin a una disminución a largo plazo del engagement en la aplicación.
Facebook dice estar trabajando en ello
La serie completa de reportajes está disponible a través de este enlace, y es de obligada lectura para cualquier persona interesada en los impactos de las redes sociales en general. Además de lo explicado anteriormente, los artículos tratan cómo «Facebook no está haciendo lo suficiente para abordar los posibles daños que está causando en los países en desarrollo», y cómo «los antivacunas han utilizado Facebook para sembrar dudas y difundir miedo y confusión sobre las vacunas contra la COVID-19».
La propia Facebook ha dicho que está abordando todos estos elementos y la evolución de sus herramientas de acuerdo con sus hallazgos internos, pero lo interesante de estos reportajes es la revelación de lo que Facebook sabe realmente y lo que sus propios datos han mostrado con respecto a estos impactos, lo que también sugiere que podría estar haciendo más aún para tratarlos.
Según concluye la investigación de The Wall Street Journal, Facebook sabe que está causando un daño social generalizado y amplificando los elementos negativos, pero habría sido lenta a la hora de actuar en consecuencia, debido a que, como se explicó anteriormente, cualquier acción para remediarlos habría afectado, supuestamente, tanto al engagement como al uso general de la plataforma.