La IA es una de las principales revoluciones de nuestro planeta. Nos encontramos actualmente inmersos en un constante cambio, día a día surge una nueva IA que sirve para hacer vídeos como Sora o que mejora su capacidad de procesamiento como Claude 3. En este punto, surgen bastantes dudas por parte de nuestra especie sobre hasta dónde puede llegar este tipo de tecnología tanto para bien, como para mal. Así, hay muchos investigadores que están trabajando en desvelar cuáles son los peligros reales de una IA, y de vez en cuando encuentran agujeros de seguridad verdaderamente notables. Este es el caso que nos atañe hoy, ya que mediante un agujero de seguridad han demostrado que ChatGPT-4 te puede enseñar a fabricar bombas, algo que también ha afectado a otras IAs del mercado como Gemini o Claude.Los peligros de ChatGPTUn grupo de investigadores universitarios ha publicado un artículo ya disponible para preimpresión en Arxiv.org en el que exploran los agujeros de seguridad que puede haber pendientes en los modelos de lenguaje de gran tamaño (LLM por sus siglas en inglés). Así, mediante código ASCII, un sistema que en tiempos pretéritos servía para dibujar imágenes usando caracteres de texto han sido capaces de convencer a las principales IAs del mercado para saltarse las restricciones impuestas por sus creadores y poder dar directrices bastante peligrosas.Bautizado como ArtPrompt este sistema consiste en crear una máscara de arte ASCII que permite ocultar una palabra y usarla para persuadir al chatbot. Este aceptará y nos mostrará …