contacto@diariodigitalis.com

914 121 156

TikTok comenzará a automatizar la eliminación de contenido

TikTok comenzará a automatizar la eliminación de vídeos por desnudez y otros tipos de contenido en los Estados Unidos, llegando algunos vídeos a no ser marcados para que se lleve a cabo revisión humana.

La compañía avanza para intentar limitar aún más la exposición potencial a contenido dañino, tratando al mismo tiempo de acelerar su proceso de moderación eliminando revisores humanos donde sus sistemas automatizados también tienen la capacidad de hacer el trabajo.

Eliminación automática de contenido

Empezando por Estados Unidos y Canadá, TikTok comenzará a utilizar sistemas de revisión automatizados para eliminar vídeos que muestren desnudez, sexo, violencia, contenido gráfico, actividades ilegales y violaciones de su política de seguridad menor.

Si el sistema detecta un vídeo en esas categorías, el clip se retirará de la plataforma de inmediato y el creador tendrá la oportunidad de apelar a un moderador humano, según ha indicado TikTok en su comunicado de prensa. Mediante este proceso, la plataforma espera garantizar que el material potencialmente dañino no llegue a ningún espectador.

«Durante las próximas semanas, comenzaremos a usar tecnología para eliminar automáticamente algunos tipos de contenido infractor identificado al cargarse, además de las eliminaciones confirmadas por nuestro equipo de seguridad», indica la compañía. «La automatización se reservará para las categorías de contenido en las que nuestra tecnología tenga el mayor grado de precisión«.

Así, en lugar de permitir que se produzcan posibles violaciones y que éstas obtengan alcance en la aplicación, el sistema de TikTok ahora las bloqueará para que directamente no se carguen, lo que podría ayudar a limitar la exposición dañina en la aplicación. Aunque es posible que esto lleve a algunas equivocaciones por parte del sistema, la compañía observa que sus sistemas de detección han demostrado ser muy precisos.

«Descubrimos que la tasa de falsos positivos para las eliminaciones automáticas es del 5% y las solicitudes para apelar la eliminación de un vídeo se han mantenido constantes. Esperamos seguir mejorando nuestra precisión con el tiempo«, indican.

Nuevo apartado con las infracciones

Además del nuevo sistema de revisión y eliminación de contenido, TikTok también está implementando una nueva pantalla para las infracciones de una cuenta y los reportes, con el fin de mejorar la transparencia y evitar que los usuarios superen ciertos límites.

TikTok comenzará a automatizar la eliminación de contenido

Como indica Social Media Today, la nueva pantalla recogerá las infracciones acumuladas por cada usuario, mientras que, además, también mostrará nuevas advertencias en diferentes áreas de la aplicación como recordatorios de las mismas.

Las sanciones por violaciones «leves» de la política de la aplicación podrán ir desde estas advertencias iniciales a prohibiciones totales, basadas en la reincidencia. Para infracciones más serias, TikTok llegará a eliminar automáticamente las cuentas, mientras que también puede bloquear un dispositivo para evitar que se creen futuras cuentas.

TikTok afirma que implementará el sistema de revisión automatizado «durante las próximas semanas«.

Pensando en los moderadores

Hasta ahora, la compañía había llevado a cabo la revisión de vídeos con contenido dañino usando moderadores humanos en los Estados Unidos antes de eliminarlos, afirmó un portavoz de TikTok a The Verge. El cambio tiene como objetivo, en parte, limitar el «volumen de vídeos angustiantes» que los moderadores deben ver, y, además, darles más tiempo para dedicarlo a clips más complicados, que requieren contexto para revisarlos correctamente.

Id bootcamps Banner

«Además de mejorar la experiencia general en TikTok, esperamos que esta actualización también apoye la resistencia dentro de nuestro equipo de seguridad al reducir el volumen de vídeos angustiantes que ven los moderadores, y permitiéndoles pasar más tiempo en áreas altamente contextuales y matizadas, como la intimidación y el acoso, desinformación y mensajes de odio», afirma la plataforma.

Los moderadores de otras empresas, como Facebook, han desarrollado síntomas similares a los de PTSD (trastorno de estrés postraumático) a raíz de los vídeos que debían ver. El anuncio también es parte de un esfuerzo por brindar más transparencia en torno a la moderación, de acuerdo a lo indicado por Axios, que informó por primera vez la noticia.

Artículos Relacionados

Suscríbete a nuestra newsletter


(Obligatorio)

También te puede gustar

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Suscríbete a nuestra newsletter