Cada mes de junio, los focos de la industria tecnológica se dirigen a Cupertino: su evento WWDC (Apple Worldwide Developers Conference) no sólo define tendencias de hardware y software, sino que acostumbra a marca una pauta cultural y económica en la industria tecnológica. Este año, sin embargo, Apple ha hecho algo poco habitual en la misma antesala del esperado evento: publicar un documento de investigación.
Un 'paper' que además, lejos de celebrar avances en inteligencia artificial, pretende desmontar el optimismo que rodea a los modelos actuales de IA generativa y de razonamiento.
El artículo, titulado "The Illusion of Thinking", ofrece una revisión crítica de los denominados Large Reasoning Models (LRMs), una nueva categoría de modelos de lenguaje diseñados para simular procesos de razonamiento humano. Su conclusión es tajante: incluso los modelos más avanzados colapsan cuando se enfrentan a problemas complejos, poniendo en entredicho la idea de que estemos cerca de una auténtica revolución cognitiva artificial que nos sitúe a las puertas de la AGI.
En contraste con la visión crítica de Apple, empresas como OpenAI y Anthropic han hecho declaraciones audaces en los últimos meses. Sam Altman afirmaba el pasado mes de septiembre que la AGI llegará "en unos pocos miles de días". Dario Amodei, CEO de Anthropic, fue más lejos: predijo la llegada de una AGI con capacidades superiores a las humanas entre 2026 y 2027.
Sin embargo, el trabajo de Apple ofrece una postura contrapuesta, en lugar de acercarnos a la AGI, llevamos tiempo afinando modelos que son …