El modo en que funcionan las IAs generativas de texto, como ChatGPT, "a veces puede conducir a algo que llamamos alucinación", explicaba hace unos días Prabhakar Raghavan, jefe de Google Search, al Welt am Sonntag. "Esto se expresa de tal manera que una máquina proporciona una respuesta convincente pero completamente inventada". En su entrevista, Raghavan recurrió -entre otros- al argumento de las alucinaciones para justificar el hecho de que Google se haya quedado por ahora por detrás de Microsoft en este campo...
Y lo cierto es que la nueva IA de Bing, basada en ChatGPT, está demostrando destacar, precisamente, por sus alucinaciones. Incluso por encima del ChatGPT original, que ya había protagonizado en el pasado casos famosos de 'alucinaciones', respondiendo con datos detallados (pero falsos) a la pregunta del récord de cruzar a pie el Canal de la Mancha o sobre la última vez que se transporó el Golden Gate a través de Egipto.
Uno de los ejemplos de esto, viralizado en Twitter por Justine Moore, queda en evidencia cuando se le pregunta por los horarios de 'Avatar 2'... y el 'chat inteligente' del renovado buscador de Microsoft nos contesta que la película aún no ha estrenado (se estrenó en diciembre).
Vía @venturetwins (Twitter)
Lo mejor es que, cuando le echas en cara la inexactitud de su respuesta, la IA te lo discute, pudiendo dar (según el usuario que pregunte) toda una serie de creativas explicaciones:
Estamos a febrero …