William Saunders, quien trabajó durante varios años en el equipo de superalineación de OpenAI, ha expresado su preocupación sobre el desarrollo de la inteligencia artificial y su potencial impacto en la sociedad. En una entrevista, el ex empleado de la compañía comparó el enfoque de la empresa donde trabajaba con la construcción del Titanic, pronosticando que en los próximos años podríamos enfrentarnos a consecuencias catastróficas si no se mejoran los controles de seguridad.Saunders estuvo tres años en el equipo de superalineación de OpenAI, el cual se encarga de garantizar que los sistemas de inteligencia artificial avanzados actúen conforme a los intereses humanos. Sin embargo, en febrero de 2024, hace justo un año, presentó su renuncia al considerar que la empresa estadounidense gestionaba de forma totalmente irresponsable los riesgos asociados a la IA.En cuanto a su analogía con el Titanic, se basa en dos aspectos clave. Para empezar, el exceso de confianza en las medidas de seguridad actuales, similares a los compartimentos estancos del trasatlántico más famoso de todos los tiempos, que se consideraban infalibles. Y, por otro lado, la falta de preparación para escenarios catastróficos, como la posibilidad de que sistemas de inteligencia artificial desarrollen capacidades ocultas o se automejoren sin supervisión.Como puedes ver en esta publicación compartida por @chatgptricks, una cuenta de Instagram dedicada por completo a dar noticias de inteligencia artificial, y más específicamente del chatbot ChatGPT, aquí están las declaraciones completas de Saunders:Ver esta publicación en InstagramUna publicación compartida de Artificial Intelligence (AI) • ChatGPT (@chatgptricks)William Saunders …