contacto@diariodigitalis.com

914 121 156

Una investigación alemana sobre el algoritmo de Instagram cierra tras varias amenazas legales de Facebook

Los investigadores del proyecto AlgorithmWatch, con sede en Berlín, dicen que se han visto obligados a abandonar la investigación en la que monitorizaba el algoritmo de Instagram tras varias amenazas legales de Facebook. Según recoge The Verge, el grupo de investigación subió una publicación el pasado viernes en la que también citaba la reciente suspensión en la plataforma del NYU Ad Observatory.

«Probablemente existan más casos de acoso que no conocemos», se puede leer en la publicación. «Esperamos que, al dar un paso al frente, más organizaciones hablen sobre sus experiencias».

Lanzado en marzo de 2020, el proyecto AlgorithmWatch proporcionaba una extensión de navegador que solicitaba a los usuarios recopilar datos de sus feeds de Instagram, proporcionándoles así información sobre cómo prioriza la plataforma las imágenes y los vídeos.

El proyecto publicó sus hallazgos con regularidad, mostrando que el algoritmo fomentaba las fotos que mostraban piel desnuda, y que las fotos que mostraban rostros humanos tienen una clasificación más alta que las capturas de pantalla de texto. Facebook cuestionó la metodología, pero no tomó ninguna medida contra AlgorithmWatch durante el primer año del proyecto.

Los investigadores niegan recopilar el contenido de terceras personas

Los investigadores dijeron que, en mayo, Facebook pidió reunirse con los líderes del proyecto y los acusó de violar los términos de servicio de la plataforma. Otra de sus objeciones fue que el proyecto, supuestamente, violó el Reglamento General de Protección de Datos de la Unión Europea, ya que, según la compañía, recopilaba datos de usuarios que no habían dado su consentimiento para participar.

«Solo recopilamos datos relacionados con el contenido que Facebook mostró a los voluntarios que instalaron la extensión», dicen los investigadores en su defensa. «En otras palabras, los usuarios de la extensión solo tenían acceso a su propio feed y lo compartían con nosotros con fines de investigación».

Aun así, los investigadores finalmente optaron por cerrar el proyecto, creyendo que se enfrentarían a acciones legales por parte de la compañía si continuaban.

Al ser contactado por The Verge, un representante de Facebook confirmó dicha reunión, pero negó haber amenazado con demandar al proyecto y dijo que la compañía estaba abierta a encontrar formas de preservar la privacidad para continuar la investigación.

«Teníamos ciertas inquietudes con sus prácticas, razón por la cual los contactamos varias veces para que pudieran cumplir con nuestros términos y continuar su investigación, como hacemos habitualmente con otros grupos de investigación cuando identificamos inquietudes similares», dijo el representante. «Tenemos la intención de seguir trabajando con investigadores independientes, pero de formas que no pongan en riesgo los datos o la privacidad de las personas».

Id bootcamps Banner

Facebook ha tenido «encontronazos legales» similares con otras compañías

La naturaleza social de las plataformas de Facebook hace que sea difícil aislar a un solo usuario, ya que, cuando alguien se inscribe, su feed está compuesto por el contenido de otras personas que, probablemente, no han dado su consentimiento para participar en la investigación. Facebook ha sido particularmente sensible a los proyectos de investigación desde el escándalo de Cambridge Analytica, en el que los datos de investigación académica se utilizaron finalmente para la manipulación comercial y política.

Aun así, el patrón que muestran los últimos sucesos de este estilo podría ser preocupante. Los algoritmos que administran los feeds de noticias en Facebook e Instagram son inmensamente poderosos, pero no se comprenden bien, y las políticas de Facebook hacen que sea difícil estudiarlos objetivamente. Los investigadores del NYU Ad Observatory, cuya función era rastrear la publicidad política en Facebook, fueron suspendidos de la plataforma a principios de este mes tras varias acusaciones de extracción de datos.

Además, en noviembre, la compañía lanzó varias amenazas legales similares contra un navegador llamado Friendly, que permite a los usuarios reordenar sus feeds cronológicamente. CrowdTangle, otra herramienta popular para la investigación de Facebook, fue adquirida por la empresa en 2016.

Facebook tiene algunos mecanismos para que los investigadores recopilen datos directamente de la empresa, incluida su Biblioteca de anuncios y sus asociaciones de Social Science One. Pero AlgorithmWatch dice que la naturaleza opositora de Facebook hacia su investigación hace que los datos sean intrínsecamente poco fiables.

«Los investigadores no pueden confiar en los datos proporcionados por Facebook porque no se puede confiar en la empresa», dicen los investigadores. «No hay razón para creer que Facebook proporcionaría datos utilizables si los investigadores reemplazaran los datos recopilados de forma independiente por los de la empresa».

Foto de Alex Haney en Unsplash

Artículos Relacionados

Suscríbete a nuestra newsletter


(Obligatorio)

También te puede gustar

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Suscríbete a nuestra newsletter