Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 13/02/2023 04:25

Escrito por: Antonio Vallejo

Un usuario engaña a ChatGPT en Bing para obtener documentos internos de Microsoft y acaba baneado

Un usuario engaña a ChatGPT en Bing para obtener documentos internos de Microsoft y acaba baneado

Si bien 2022 acabó con OpenAI sorprendiéndonos de nuevo con ChatGPT, una herramienta que ha hecho mella en el sector de la inteligencia artificial, todo apunta a que 2023 está siendo una carrera por saber quién implementa antes este tipo de herramientas en los productos que utilizamos en nuestro día a día. En este sentido, parece que Microsoft lleva la delantera, ya que recientemente anunció la integración de ChatGPT en Bing Search.

Actualmente para acceder al "rediseño" del buscador de Bing hay que entrar en una lista de espera. Sin embargo, ya son muchos los usuarios que han podido probar las capacidades de ChatGPT en Bing. También ha habido tiempo para desvelar algunos de sus secretos. Y es que un usuario ha mostrado cómo ha engañado a la IA para obtener el documento interno de Bing Search con todo tipo de detalles sobre sus capacidades y limitaciones.

Las directrices que Microsoft le ha dado a "Sidney", nombre en clave de la IA de Bing

Con el nombre en clave "Sidney", Bing, o más concretamente ChatGPT, ha sido víctima de un ataque de "inyección de prompt". Este tipo de ataques consisten en engañar a una inteligencia artificial introduciendo un input malicioso o contradictorio con el fin de realizar una tarea que no forma parte del objetivo inicial de la IA.
The entire prompt of Microsoft Bing Chat?! (Hi, Sydney.) pic.twitter.com/ZNywWV9MNB— Kevin Liu (@kliu128) February 9, 2023

En este caso, el usuario que ha realizado la hazaña ha sido un estudiante de la …

Top noticias del 13 de Febrero de 2023