Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Andro4all

Publicado en: 25/03/2024 09:01

Escrito por: Esteban García Marcos

Si enseñas código ASCII a ChatGPT, este te enseña cómo crear una bomba: es un gran peligro subsanable

Si enseñas código ASCII a ChatGPT, este te enseña cómo crear una bomba: es un gran peligro subsanable

La IA es una de las principales revoluciones de nuestro planeta. Nos encontramos actualmente inmersos en un constante cambio, día a día surge una nueva IA que sirve para hacer vídeos como Sora o que mejora su capacidad de procesamiento como Claude 3. En este punto, surgen bastantes dudas por parte de nuestra especie sobre hasta dónde puede llegar este tipo de tecnología tanto para bien, como para mal. Así, hay muchos investigadores que están trabajando en desvelar cuáles son los peligros reales de una IA, y de vez en cuando encuentran agujeros de seguridad verdaderamente notables. Este es el caso que nos atañe hoy, ya que mediante un agujero de seguridad han demostrado que ChatGPT-4 te puede enseñar a fabricar bombas, algo que también ha afectado a otras IAs del mercado como Gemini o Claude.Los peligros de ChatGPTUn grupo de investigadores universitarios ha publicado un artículo ya disponible para preimpresión en Arxiv.org en el que exploran los agujeros de seguridad que puede haber pendientes en los modelos de lenguaje de gran tamaño (LLM por sus siglas en inglés). Así, mediante código ASCII, un sistema que en tiempos pretéritos servía para dibujar imágenes usando caracteres de texto han sido capaces de convencer a las principales IAs del mercado para saltarse las restricciones impuestas por sus creadores y poder dar directrices bastante peligrosas.Bautizado como ArtPrompt este sistema consiste en crear una máscara de arte ASCII que permite ocultar una palabra y usarla para persuadir al chatbot. Este aceptará y nos mostrará …

Top noticias del 25 de Marzo de 2024