YouTube lleva varias semanas lidiando con la proliferación de vídeos inquietantes dirigidos a niños. Un contenido con el que admitía tener un problema. Las primeras medidas fueron el cierre de medio centenar de canales, la eliminación de miles de vídeos y la aplicación de cinco puntos para conseguir hacer de la plataforma un lugar más seguro para los niños. Lo que, en un principio, pretendía y pretende conseguir un espacio como YouTube Kids.
Dada la situación, la directora ejecutiva del servicio, Susan Wojcicki, ha querido dirigirse directamente a los usuarios a través de una publicación en el blog corporativo. En ella ha anunciado que durante el próximo año perseguirán el objetivo de logar que más de 10.000 moderadores humanos revisen las plataformas de Google, entre ellas YouTube, abordando el contenido que pueda violar sus políticas.
Pese a la automatización, los humanos siguen siendo necesarios
Según Wojcicki, "los revisores humanos siguen siendo esenciales para eliminar el contenido y entrenar a los sistemas de aprendizaje automático, ya que el juicio humano es fundamental para tomar decisiones contextualizadas". La CEO de YouTube asegura que desde junio sus equipos han revisado de forma manual casi dos millones de vídeos de temáticas extremistas violentas formando a su tecnología "para identificar vídeos similares en el futuro".
Este aprendizaje automático, al mismo tiempo, ha sido usado para echar una mano a los humanos que lo han entrenado asistiéndoles a la hora de "encontrar y cerrar cientos de cuentas y cientos de miles de comentarios" durante las últimas …