Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 04/05/2021 10:53

Escrito por: Bárbara Becares

Microsoft lanza una herramienta de código abierto para que los desarrolladores puedan probar la seguridad de su inteligencia artificial

Microsoft lanza una herramienta de código abierto para que los desarrolladores puedan probar la seguridad de su inteligencia artificial

Microsoft ha lanzado una herramienta de código abierto que está creada para ayudar a los desarrolladores a evaluar la seguridad de sus sistemas de inteligencia artificial en los que estén trabajando. Se llama proyecto Counterfit y ya está disponible en GitHub.
La propia firma de Redmond ya ha utilizado Counterfit para probar sus propios modelos de IA, en el equipo rojo de la empresa. Además, otras secciones de Microsoft también están explorando el uso de la herramienta en el desarrollo de la IA.

Simulación de ciberataques con Counterfit





Según las informaciones de Microsoft en Github, Counterfit cuenta con una herramienta de línea de comandos y con una capa de automatización genérica para evaluar la seguridad de los sistemas de aprendizaje automático.

Esto permite a los desarrolladores simular ciberataques contra los sistemas de IA para comprobar la seguridad. Cualquiera puede descargar la herramienta y desplegarla a través de Azure Shell, para ejecutarla en el navegador, o localmente en un entorno Anaconda Python.

"Nuestra herramienta hace que los algoritmos de ataque publicados sean accesibles para la comunidad de seguridad y ayuda a proporcionar una interfaz extensible desde la que construir, gestionar y lanzar ataques a los modelos de IA", ha dicho Microsoft.





{"videoId":"x7zs6q6","autoplay":true,"title":"ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS"}



La herramienta viene precargada con ejemplos de algoritmos de ataque. Además, los profesionales de la seguridad también pueden …

Top noticias del 4 de Mayo de 2021