Instagram ha aportado más información sobre el progreso de su nuevo equipo de equidad, que se formó el año pasado a raíz de las protestas del movimiento Black Lives Matter en los Estados Unidos, con la intención de solucionar los sesgos sistémicos que se dan en los procesos internos y externos de Instagram.
Tras el homicidio de George Floyd por parte de de un policía estadounidense, Adam Mosseri, el jefe de Instagram, se comprometió a trabajar más para tratar la desigualdad que experimentan las personas de entornos marginados. Ese trabajo, señaló Mosseri, incluiría una revisión de todas las prácticas, productos y políticas de Instagram, con el fin de detectar posibles problemas y mejorar sus sistemas. Desde entonces, el equipo de equidad se ha centrado en varios elementos relevantes dentro de la experiencia de Instagram.
Instagram detalla lo siguiente en su blog: «El trabajo inicial aquí incluye una extensa investigación con diferentes subconjuntos e intersecciones de la comunidad negra para asegurarnos de que entendemos y servimos a su diversidad. Hemos hablado con creadores de contenido, activistas, expertos en regulación y gente común para desentrañar la diversidad de experiencias que tiene la gente cuando utiliza la plataforma. También estamos en el proceso de auditar la tecnología que impulsa nuestra aplicación automatizada, recomendaciones y clasificación para comprender mejor los cambios necesarios para ayudar a garantizar que las personas no se sientan marginadas en nuestra plataforma».
Instagram pretende mejorar sus algoritmos
El sesgo algorítmico es un elemento prioritario para Instagram (también para otras redes sociales, como Facebook y Twitter), ya que es probable que cualquier algoritmo que se base en la actividad del usuario refleje algún nivel de sesgo en relación con sus publicaciones. Como tal, Instagram se ha centrado en educar al personal que trabaja en sus sistemas acerca de cómo podrían verse afectados sus procesos por ello.
Dentro de este trabajo de la compañía, Instagram también ha implementado nuevas tarjetas modelo de aprendizaje automático (machine learning), que proporcionan listas de verificación diseñadas para ayudar a garantizar que los nuevos sistemas de aprendizaje automático se diseñen teniendo en cuenta la equidad.
«Las tarjetas modelo funcionan de manera similar a un cuestionario y se aseguran de que los equipos se detengan a considerar cualquier ramificación que puedan tener sus nuevos modelos antes de que se implementen, para reducir el potencial de sesgo algorítmico. Las tarjetas modelo plantean una serie de preguntas y consideraciones orientadas a la equidad que ayudan a reducir el potencial de impactos no deseados en comunidades específicas, y nos permiten remediar cualquier impacto antes de lanzar una nueva tecnología. Como ejemplo, antes de las elecciones de los Estados Unidos, implementamos medidas temporales para dificultar que las personas vean desinformación o contenido violento en sus feeds, y nuestros equipos utilizaron tarjetas modelo para garantizar que se usaran modelos de aprendizaje automático adecuados para ayudar a proteger las elecciones, al mismo tiempo que aseguramos que nuestra aplicación fuese justa y no tuviese un impacto desproporcionado en ninguna comunidad».
Más transparencia para evitar confusiones sobre el shadowbanning
El equipo de equidad también ha estado trabajando para tratar las preocupaciones relativas al shadowbanning, o «baneo en la sombra» (sobre el que hablamos en este artículo), y los usuarios que piensan que su contenido ha sido restringido dentro de la aplicación.
Instagram dice que las percepciones en torno a los supuestos shadowbans se relacionan en gran medida con la falta de comprensión de por qué los usuarios pueden recibir menos me gustas o comentarios que antes. De la misma forma, también han tratado ciertas cuestiones relativas a la transparencia y las decisiones sobre las aplicaciones de las normativas relacionadas con Instagram. En el futuro, Instagram pretende añadir más aclaraciones al respecto, algo que podría ayudar a que los usuarios comprendan mejor si su contenido se ha visto afectado y cómo.
«Esto incluye herramientas para proporcionar más transparencia sobre las restricciones en la cuenta de una persona o si su alcance es limitado, así como las acciones que pueden tomar para remediarlo. También planeamos crear una comunicación directa en la aplicación para informar a las personas cuando se produzcan errores y sobre los problemas que pueden estar afectando a su contenido. En los próximos meses, compartiremos más detalles sobre estas nuevas funciones».
Imagen de Wokandapix en Pixabay