Hace una semana, nos hacíamos eco del lanzamiento de la IA 'Claude-3' por parte de Anthropic (fundada por exingenieros de OpenAI) y de cómo prometía lograr lo que parecía imposible: ser superior a GPT-4 en muchas pruebas. Luego supimos que una inesperada reacción de este modelo de IA había sorprendido tanto a sus desarrolladores (y a los usuarios de las redes) que había gente poniendo sobre la mesa la posibilidad de que estuviéramos presenciando los primeros signos de autoconsciencia.
Eso, claro, hubiera puesto a Claude-3 en igualdad con los seres humanos, en teoría los únicos entes hasta el momento dotados de esa cualidad (aunque cada vez se habla más de 'invitar a ese club' a grandes simios, cuervos o delfines). Por otro lado, muchos expertos afirman que "simular autoconsciencia" es lo que debe hacer un chatbot que reproduzca bien nuestro lenguaje escrito, pero eso sólo significa que esa IA es buena imitando.
De qué hablamos cuando hablamos de CI
Ahora, hay quien habla de que Claude-3 podría haber no ya igualado, sino superado, al humano medio... en un criterio tan relevante como la inteligencia, al superar por primera vez la barrera del 100 en el índice de coeficiente intelectual. Pero, antes de profundizar en eso, aclaremos a qué nos referimos por 'inteligencia' y 'CI'.
En Genbeta
Con GPT-4 tenemos una bomba nuclear entre manos. En 2019, OpenAI no permitió acceder a su antepasado por ser "muy peligroso"
…