Aunque GPT-4 es el modelo más ambicioso de OpenAI, la realidad es que todavía le queda mucho margen de mejora y que todavía sigue dando respuestas que dejan bastante que desear: delirios, datos incorrectos que parece que lo son y otros que no tanto, respuestas incompletas o código defectuoso... no es cuestión de que des malos prompts (aunque siempre puedes depurar la técnica de tus solicitudes) es que se confirman las sospechas: GPT-4 se está volviendo cada vez más vago.
No lo decimos nosotros, sino que lo ha confirmado la propia OpenAI, que asegura estar tomando cartas en el asunto. De hecho, hay quien ha encontrado en el refuerzo emocional un apaño para conseguir mejores respuestas, con recursos como 'respira profundamente y ve paso a paso'.
Parece una broma, pero no lo es. ¿Cómo puede un archivo volverse más perezoso si al fin y al cabo un modelo es algo así como un gran archivo que se usa una y otra vez? Si, ChatGPT va a peor incluso con la versión GPT-4 Turbo lanzada en noviembre. De hecho OpenAI explica que no es intencionada y que simplemente el comportamiento del modelo puede ser impredecible.
Por tanto OpenAI no cree que el modelo haya cambiado, pero las diferencias en el comportamiento pueden ser sutiles: 'es posible que se haya degradado solo un subconjunto de prompts y eso puede necesitar mucho tiempo para que clientes y personal se den cuenta y corrijan estos patrones', …