YouTube adoptará nuevas reglas para limitar los riesgos del contenido generado por inteligencia artificial y aumentar la transparencia frente a los usuarios. Los creadores deberán indicar si sus vídeos han sido generados utilizando esta tecnología y, en caso de no hacerlo, pueden enfrentarse a sanciones, como la eliminación de estos o la suspensión de sus cuentas.
La plataforma conoce bien las ventajas de la inteligencia artificial. De hecho, ya tiene planes para implementarla de distintas maneras para ayudar tanto a los creadores de contenido como a los usuarios. Así, como ya comentamos, la IA permitirá, por ejemplo, añadir doblaje en distintos idiomas, crear fondos gracias a Dream Screen, ofrecer ideas sobre videos en base a los más vistos o música para su contenido.
Sin embargo, a pesar de lo beneficiosa que puede resultar, en algunos casos, la IA también puede conllevar algunos problemas, como la desinformación o la suplantación de identidad y, por ello, YouTube pretende poner límites a sus malos usos. En agosto, anunciaron que estaban tomando medidas para proteger los derechos de autor de los creadores. Y es que muchos se están viendo amenazados por el uso desmedido de la IA y el contenido generado por esta, que muchas veces parece tan real que es casi indistinguible.
Nuevas etiquetas para indicar que un vídeo ha sido creado mediante IA
En la misma línea, ahora la red social ha anunciado que los creadores deberán indicar si sus vídeos han sido creados artificialmente. Para ello, habrá nuevas opciones cuando se suba contenido a la plataforma con el fin de señalar si “contiene material realista manipulado o sintético”. De esta forma, los usuarios verán una etiqueta a modo de advertencia y podrán ser conscientes de ello, evitando así posibles engaños y manipulaciones.
“Creemos que es de interés para todos mantener un ecosistema saludable de información en YouTube. Contamos con políticas de larga data que prohíben el contenido técnicamente manipulado que engañe a los espectadores y pueda representar un riesgo grave de daño atroz. Sin embargo, las nuevas y poderosas formas de narración de la IA también se pueden utilizar para generar contenido que tiene el potencial de engañar a los espectadores, especialmente si no saben que el video ha sido alterado o creado sintéticamente,” explican en su blog.
Estas etiquetas se mostrarán de dos maneras en función de los riesgos potenciales. Normalmente, esta información sólo estará presente en la descripción del vídeo. Sin embargo, si se trata de contenido que trate temas más sensibles, como conflictos, elecciones o crisis sanitarias, YouTube destacará la etiqueta directamente en el reproductor, de forma que sea más visible.
Un ejemplo de este último caso es el de los deepfakes; pero, más concretamente, se refieren a “vídeos generados mediante IA que expliquen de forma realista un suceso que en realidad no ha ocurrido o que muestren a una persona real diciendo o haciendo algo que en realidad no hizo”.
Sanciones en caso de incumplimiento
Por otro lado, si los creadores suben un vídeo generado artificialmente sin indicar adecuadamente esta circunstancia, pueden enfrentarse a sanciones. La más leve será la retirada del contenido en cuestión y la más grave, la suspensión de su cuenta.
“Los creadores que opten sistemáticamente por no revelar esta información pueden estar sujetos a la eliminación de contenido, la suspensión del Programa de socios de YouTube u otras sanciones. Trabajaremos con los creadores antes de que esto se implemente para asegurarnos de que comprendan estos nuevos requisitos,” aseguran desde la red social.
No obstante, aún cumpliendo este requisito, también pueden optar por retirar directamente de la plataforma algunos de estos vídeos en los casos en que “poner una etiqueta no sea suficiente para mitigar el riesgo de daño”, como aquellos que muestren violencia explícita para tratar de manipular a los usuarios.
Imagen de Eyestetix Studio en Unsplash