Lo de las cartas y manifiestos de representantes de Silicon Valley posicionándose sobre los peligros y medidas a adoptar en torno a la inteligencia artificial es un tema apasionante. Tan pronto como unos sacan una carta, otro grupo de CEOs y expertos se unen para quitarle hierro al asunto, esperan unas semanas… y luego sacan su propio posicionamiento público… no tan diferente del anterior.
Hace una semana, sin ir más lejos, la entidad sin ánimo de lucro Center for AI Safety publicó su "Comunicado sobre el riesgo de la IA" de sólo 22 palabras (en inglés), que traducimos así:
"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".
Entre los firmantes de tan breve mensaje encontrábamos a CEOs de varias de las compañías líderes en IA, entre ellos el mismísimo Sam Altman, CEO de OpenAI, al que muchos consideraron receptor de las críticas de la carta (con similar objetivo a esta, aunque más extensa) publicada hace semanas por Musk.
Pero la entidad impulsora (que define su misión como la de "reducir los riesgos a escala social asociados a la IA") parece haber decidido que la concisión no entraba en conflicto con profundizar un poco más en sus propuestas.
En Genbeta
No hay 'consenso científico' sobre el peligro de la IA: mientras Musk y otros la temen, este gurú va a contracorriente
…