TikTok eliminó más de 81 millones de vídeos por vulnerar sus normas durante su segundo trimestre, lo que representa el 1% de los clips subidos a la plataforma.
La compañía ha publicado una actualización de su informe de Cumplimiento de las Normas de la Comunidad correspondiente a su segundo trimestre en el que da datos sobre el contenido que se eliminó de la plataforma entre el 1 de abril y el 30 de junio de 2021. La plataforma afirma haber eliminado 81.518.334 vídeos por violar sus normas o términos de servicio durante ese período de tiempo, lo que representa menos del 1% del total de vídeos publicados.
Esto también quiere decir que durante ese trimestre, se publicaron más de 8.100 millones de vídeos en TikTok, con un promedio de aproximadamente 90 millones de vídeos publicados cada día.
Today we're releasing our Q2 Community Guidelines Enforcement Report, which details our latest efforts to protect the safety of our community and integrity of our platform. Learn more on our Newsroom 👇 https://t.co/I8NrJPHjJN
— TikTok Business (@TikTokBusiness) October 13, 2021
«Hoy publicamos nuestro informe de Cumplimiento de las Normas de la Comunidad del segundo trimestre que detalla el volumen y la naturaleza del contenido infractor y las cuentas eliminadas de TikTok para proteger la seguridad de nuestra comunidad y la integridad de nuestra plataforma. También compartimos actualizaciones sobre nuestro trabajo para proteger a las personas del comportamiento abusivo«, indica la compañía en su comunicado de prensa.
Sobre los vídeos eliminados
De estos más de 81 millones de vídeos, un 93% de los vídeos fue identificado y eliminado durante las 24 horas posteriores a su publicación, y un 94,1% antes de ser denunciados por algún usuarios.
Un 87,5% de estos vídeos fueron borrados antes de que llegasen obtener ninguna visualización en la plataforma. Esto supone una mejora respecto al periodo anterior, momento en el que suponía un 81,8% del total.
Como indica EuropaPress, TikTok continúa trabajando en la detección proactiva de las conductas de odio, intimidación y acoso. El 73,3% de este tipo de vídeos fue eliminado antes de que nadie llegase a denunciarlos, en comparación con el 66,3% del trimestre anterior.
En cuanto a los vídeos de conductas de odio, el 72% fue eliminado antes de ser denunciados, frente al 67% del último informe publicado. Este progreso se debe sobre todo a las mejoras de la plataforma en el marcado proactivo de los símbolos de odio, palabras y otras señales para su revisión por los equipos de seguridad.
TikTok eliminó 27.518 vídeos debido a la desinformación sobre el coronavirus. La compañía afirma que el 83% de estos vídeos se eliminaron antes de que los usuarios los reportaran, el 87,6% se eliminaron dentro de las 24 horas posteriores a la publicación y el 69,7% no tuvieron ninguna visualización
Los esfuerzos de la plataforma
El pasado mes de julio, TikTok una tecnología que elimina automáticamente el contenido que viola sus políticas sobre seguridad de menores, desnudez, contenido violento y gráfico y actividades ilegales. La aplicación, tal y como indica TechCrunch, utiliza la automatización para este tipo de contenido en particular, porque afirma que estas son las áreas donde su tecnología tiene el mayor grado de precisión. TikTok también tiene moderadores de contenido humano en su equipo de seguridad que revisa el contenido reportado.
«Además de eliminar contenido, permitimos que los usuarios personalicen su experiencia con una variedad de herramientas y recursos, incluidas formas efectivas de filtrar comentarios sobre su contenido, eliminar o informar varios comentarios a la vez y bloquear cuentas de forma masiva», indica TikTok.
La compañía también añade que han incluido indicaciones que «animan a los usuarios a considerar el impacto de sus palabras antes de publicar un comentario potencialmente desagradable». Según ha indicado TikTok, el impacto de estos mensaje ya se ha hecho notar en la plataforma, con casi 4 de cada 10 personas optando por retirar y editar su comentario. «Aunque no todos eligen cambiar sus comentarios, nos alienta el impacto de características como esta y continuamos desarrollando y probando nuevas intervenciones para prevenir posibles abusos», agrega.
Imagen de Kon Zografos en Pixabay.