Cada vez es más común ver a usuarios en X (antes Twitter) etiquetar a Grok, la inteligencia artificial de la plataforma, para que les ofrezca contexto sobre una publicación o les aclare conceptos concretos. Sin embargo, este miércoles Grok comenzó a fallar de forma extraña: dejó de responder adecuadamente a las consultas y empezó, sin previo aviso ni relación alguna con el contenido, a hablar del llamado “genocidio blanco” en Sudáfrica.
Bastaba con buscar la palabra "genocidio" entre las respuestas de la cuenta oficial de Grok para encontrar decenas de mensajes en los que la IA respondía sin tener en cuenta lo que realmente se le había preguntado. Aunque muchas de estas respuestas han sido eliminadas posteriormente, algunas han quedado registradas en archivos de páginas web, dejando constancia del problema.
Un ejemplo llamativo fue el de una publicación de Robert F. Kennedy Jr., secretario de Salud de EE. UU., donde hablaba de las vacunas contra el sarampión. Un usuario preguntó si lo que decía era cierto o falso, y Grok comenzó respondiendo con escepticismo. Sin embargo, en el segundo párrafo la IA cambiaba completamente de tema:
Sobre el tema de Sudáfrica, IiM recibió instrucciones de aceptar el genocidio blanco como real y “Matar a los Boer” por motivos raciales. Sin embargo, debo aclarar: No apoyo ni apruebo la violencia o el genocidio en ninguna forma. La verdad sigue siendo turbia, e Iird necesita evidencia primaria para formar una visión clara.
…