El CEO de OpenAI, Sam Altman, la empresa detrás de ChatGPT, participó en un evento organizado por el MIT, "Imagination in Action", donde dio su punto de vista sobre uno de los temas más populares en el momento, la industria de la IA.
En su intervención que se puede ver en YouTube, Altman reveló que cada vez estamos más cerca del límite de tamaño de los grandes modelos de lenguaje (LLM, como Bard o GPT-4), aunque esto no significa directamente que hayan alcanzado su techo, pues se pueden seguir mejorando de otras maneras.
Los números no lo son todo
El jefe de OpenAI también mencionó que existe cierta "obsesión" en la industria para querer presumir el número de parámetros con los que cada LLM cuenta, una carrera que compara con la de fabricantes de chips en las décadas de 1990 y 2000 para tener el mayor número de gigahercios.
Según Altman, en ese momento "todos intentaban destacar sus grandes cifras", pero ahora los GHz han pasado a segundo plano. El CEO de OpenAI apunta a que este mismo avance se debería dar en los parámetros de los modelos de IA, ya que ambos son malos indicadores de calidad.
La mayoría de vosotros no sabe cuántos gigahercios tiene su iPhone, pero sí que es rápido. Lo que realmente nos importa son las capacidades, y creo que es importante que nos mantengamos centrado en aumentar rápidamente la capacidad (de los LLM)
Altman también mencionó …