Internet ofrece un sinfín de posibilidades, no todas buenas. Si bien es cierto que puedes usar la red para leer noticias, estar informado o ver vídeos de gatos, hay muchas personas que la usan para distribuir contenido abusivo protagonizado por menores. Detectarlo a tiempo es vital para frenar su difusión masiva, y Google quiere hacerlo con su nueva Inteligencia Artificial.
La empresa, que lleva desde principios de la década de los 2000 invirtiendo en "tecnología y equipos, trabajando con organizaciones como la Internet Watch Foundation (IWF)" para "luchar contra la propagación de material de abuso sexual infantil (CSAM)", ha anunciado una nueva Inteligencia Artificial avanzada que permitirá a proveedores de servicios, ONG y compañías tecnológicas revisar el CSAM a gran escala.
Redes neuronales contra el contenido abusivo
Según la Gran G, "mediante el uso de redes neuronales profundas de procesado de imágenes, ahora podemos ayudar a los revisores a filtrar a través de muchas imágenes, priorizando el contenido más parecido al CSAM para su revisión". Además, esta IA funcionará incluso con imágenes que todavía no hayan sido catalogadas y marcadas como CSAM.
Básicamente, usando el contenido marcado como abusivo, analizará el resto de archivos buscando coincidencias. Al encontrar una, esta le será notificada al encargado de la moderación para que lo priorice sobre el resto de imágenes o vídeos.
Las primeras pruebas apuntan a que este sistema puede detectar un 700% más de contenido CSAM en el mismo periodo de tiempo que los sistemas tradicionales
De hecho, desde Google afirman …