"Un dron militar de EEUU controlado por Inteligencia Artificial 'aniquila' a su operador". "Una arma autónoma 'mata' a su jefe humano por ser un obstáculo en una simulación". Estos son algunos de los titulares que podemos leer hoy en medios españoles sobre un supuesto incidente sobre IA aplicada al armamento militar revelado en las últimas horas.
¿En resumen? La IA de un dron estadounidense habría 'matado' a su operador humano cuando éste le dio órdenes de renunciar a su objetivo preestablecido (al fin y al cabo, la orden violaba el objetivo). Cuando se la reentrenó para dejarle claro que estaba mal matar a su operador, la IA optó por destruir la torre de comunicaciones que usaba para hacerle llegar las órdenes.
Las Fuerzas Aéreas de los EE. UU. (USAF), sin embargo, han negado que tal simulación haya tenido lugar.
¿Qué dicen que ha pasado?
El coronel Tucker Hamilton, jefe de pruebas y operaciones con IA de la USAF (que ya dirigió el desarrollo de los sistemas automatizados anti-colisiones del F-16) había revelado dicho dato durante una 'Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro' celebrada el 24-24 de mayo en Londres.
En Genbeta
Desvelar información de alto secreto por practicar running: la app deportiva que ha filtrado información de bases militares
Hasta ayer, cuando la desveló 'Vice', esa información no había llegado a los medios. Y, cuando lo ha hecho, ha sido con …