Dario Amodei, máximo responsable de Anthropic, ha reconocido que los desarrolladores de IA no comprenden realmente sus sistemas. Una admisión inusual en un sector donde suele reinar el optimismo tecnológico. Según TechSpot, este planteamiento expuesto en un ensayo personal revela algo impactante: aunque usamos ChatGPT o Claude a diario, su funcionamiento interno sigue siendo un misterio incluso para quienes los crearon.Esta revelación no es casual. En 2020, Amodei y su hermana abandonaron OpenAI por diferencias sobre el enfoque de seguridad, fundando Anthropic en 2021. La empresa, valorada en 15.000 millones, se centra en dos objetivos: garantizar que la IA siga valores humanos y crear herramientas para ver dentro de estos modelos complejos, similares a una resonancia magnética para el cerebro de la inteligencia artificial.La paradoja de la IA: eficacia sin comprensiónAmodei ilustra esta contradicción con ejemplos prácticos: cuando un sistema resume un documento, los ingenieros no pueden explicar la elección de palabras o los errores que comete. Algo que se extiende a todos los modelos actuales, cuyo funcionamiento se basa en patrones estadísticos, no en diseños deliberados.El CEO describe esta situación como "sin precedentes en la tecnología", señalando que incluso con medicamentos complejos existe un marco teórico que guía su desarrollo, algo ausente en la IA. En sus experimentos recientes, utilizan equipos "rojos" que introducen fallos en la IA y equipos "azules" que intentan detectarlos, métodos que considera esenciales antes de que estos sistemas alcancen niveles más avanzados.No todos están de acuerdo con su visión. En LinkedIn, varios expertos señalan …