La herramienta de moderación más reciente de Twitch, basada en machine learning, detecta las cuentas banneadas que intentan sortear la suspensión del canal.
La compañía ha presentado una nueva forma para que los streamers actúen contra las cuentas que evaden las prohibiciones de un canal. Esta herramienta automatizada se llama ‘Suspicious User Detection‘, o ‘Detección de usuarios sospechosos’ en español, y puede detectar a aquellos usuarios que intentan sortear los banneos, lo que proporciona a cualquiera que modere un canal de Twitch más recursos para lidiar con un comportamiento potencialmente disruptivo antes de que comience.
La compañía anunció que la nueva herramienta de detección de evasión de prohibición estaba en camino el pasado mes de agosto.
We're launching channel-level ban evasion detection and account verification improvements later this year. We’re working hard to launch these tools as soon as possible, and we hope they will have a big impact. Check out more on our existing tools here: https://t.co/Dku6eBhY72
— Twitch (@Twitch) August 11, 2021
Twitch afirma que desarrolló la herramienta en respuesta directa a los comentarios de la comunidad que pedían opciones de moderación más sólidas y efectivas para controlar a los usuarios que aparecían con nuevas cuentas después de haber sido banneados. Después de que una cuenta se marca como un «posible» o «probable» evasor de la suspensión, los moderadores de un canal pueden optar por tomar medidas en su contra de forma manual.
«Cuando bloqueas a alguien de tu canal, debería ser excluido de tu comunidad para siempre. Desafortunadamente, los malos actores a menudo optan por crear nuevas cuentas, volver al chat y continuar con su mal comportamiento», indica la compañía en su anuncio.
Así, cualquier mensaje enviado desde una cuenta marcada como un posible infractor se eliminará automáticamente del chat, pendiente de revisión por parte de un moderador. Para los canales que quieren ser más agresivos con la moderación, se puede activar la misma configuración para las cuentas marcadas como posibles evasores del banneo. Los mods también pueden agregar usuarios manualmente a la lista de cuentas sospechosas para controlarlos más de cerca.
Suspicious User Detection, powered by machine learning, is here to help you identify and restrict suspected channel ban evaders from chatting before they can disrupt your stream.
Learn more here: https://t.co/01cCwnQZfw pic.twitter.com/QWVSnRPg1X
— Twitch (@Twitch) November 30, 2021
Facilitando el trabajo a los mods
Twitch también ha señalado que, al igual que con cualquier herramienta de moderación automatizada, los falsos positivos son posibles, aunque espera lograr un equilibrio entre la detección proactiva impulsada por sistemas de machine learning y la intervención humana. «Usted es el experto en lo que respecta a su comunidad, y debe tener la última palabra sobre quién puede participar», indicó Twitch, agregando que el sistema mejorará con el tiempo después del feedback y aportaciones de los moderadores humanos.
Twitch ve el nuevo sistema como una solución modular junto con AutoMod, que proporciona a los moderadores una forma de revisar los mensajes potencialmente dañinos en el chat, y el chat verificado por teléfono, una opción que Twitch agregó el mes pasado y que requiere que los usuarios verifiquen sus cuentas antes de chatear.
Los usuarios de Twitch pueden registrarse para obtener cinco cuentas con un solo número de teléfono, pero una prohibición de canal ahora afecta a todas las cuentas vinculadas a ese número, creando una de las soluciones más fáciles para cualquiera que busque eludir las políticas de la plataforma.
Proteger a los creadores
Como indica TechCrunch, los streamers de Twitch llevan mucho tiempo presionando a la compañía para que haga más para proteger a los creadores, en particular a los más vulnerables al acoso online. Solo este año, las campañas #ADayOffTwitch y #TwitchDoBetter aumentaron la visibilidad para los creadores marginados que enfrentan abusos generalizados en la plataforma, lo que llevó a la empresa a responder.
«Hemos visto muchas conversaciones sobre bots, movimientos de odio y otras formas de acoso dirigidas a creadores marginados», tuiteó la empresa en ese momento. «Nos están pidiendo que lo hagamos mejor y sabemos que debemos hacer más para abordar estos problemas«.
We’ve seen a lot of conversation about botting, hate raids, and other forms of harassment targeting marginalized creators. You’re asking us to do better, and we know we need to do more to address these issues. That includes an open and ongoing dialogue about creator safety.
— Twitch (@Twitch) August 11, 2021
La falta de herramientas de descubrimiento de Twitch hizo que el éxito en la plataforma fuera un desafío cuesta arriba para los creadores subrepresentados, pero los movimientos de acoso dirigidos empeoraron las cosas.