Apple ha respondido a las preocupaciones sobre sus próximas medidas para limitar la difusión de material de abuso infantil.
La compañía asegura que su herramienta para localizar imágenes de abuso infantil en el dispositivo de un usuario no crea una puerta trasera ni reduce la privacidad.
La compañía reiteró que no escanea toda la biblioteca de fotos del propietario de un dispositivo para buscar imágenes abusivas, sino que utiliza criptografía para comparar las imágenes con una base de datos conocida proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados.
Algunos defensores de la privacidad se mostraron preocupados tras el anuncio de Apple de que la empresa escanearía toda la colección de fotos de un usuario. Sin embargo, la empresa está utilizando un algoritmo en el propio dispositivo, no en sus servidores, para detectar las imágenes sexualmente explícitas.
Apple dijo que revisaría manualmente las fotos abusivas del dispositivo de un usuario sólo si el algoritmo encontraba un determinado número de ellas. La compañía también dijo que puede ajustar el algoritmo con el tiempo.
Apple dijo que no está rompiendo el cifrado de extremo a extremo con una nueva función en la aplicación Mensajes que analiza las fotos enviadas a o desde el iPhone de un niño en busca de material explícito, ni la empresa tendrá acceso a los mensajes de los usuarios.
El jueves, la Electronic Frontier Foundation dijo que Apple está abriendo una puerta trasera con las nuevas herramientas.
Es imposible construir un sistema de escaneo del lado del cliente que sólo pueda utilizarse para imágenes …