Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 08/05/2025 03:21

Escrito por: Antonio Vallejo

Pensábamos que las nuevas IA alucinaban más que nunca. En realidad, el problema lo tiene OpenAI

Pensábamos que las nuevas IA alucinaban más que nunca. En realidad, el problema lo tiene OpenAI

La inteligencia artificial está experimentando un avance sin precedentes en capacidades y razonamiento, pero también nos enfrentamos a un fenómeno curioso: mientras algunos modelos mejoran su precisión, otros parecen estar incrementando sus tasas de alucinación.

Los datos recientes revelan una tendencia que contradice la narrativa dominante en el sector. Y es que si bien los últimos modelos de razonamiento de OpenAI (o3 y o4-mini) nos han deleitado con funciones avanzadas sorprendentes, su tasa de alucinación es preocupante, aunque esto no parece estar extendiéndose en el resto de modelos de otras compañías.




Índice de Contenidos (3)








Hay modelos con tasas de alucinación muy bajas, pero ni o3 ni o4-mini están entre ellos


Más inteligentes pero menos fiables


El complicado camino hacia la AGI




Hay modelos con tasas de alucinación muy bajas, pero ni o3 ni o4-mini están entre ellos

Cuando hablamos de "alucinaciones" en IA nos referimos a esas respuestas inventadas que los sistemas generan con total convicción pero que carecen de fundamento real. Un problema que, según algunas conversaciones en torno al rendimiento de los modelos de IA, parecía estar empeorando con cada nueva generación de modelos más avanzados.






Imagen: Vectara

Sin embargo, los datos del benchmark de Vectara (Hallucination Leaderboard) muestran una realidad diferente. Según esta clasificación actualizada a finales de abril de 2025, las tasas de alucinación de los principales modelos …

Top noticias del 8 de Mayo de 2025