Las tecnologías de inteligencia artificial han llegado al gran público para quedarse. Y aunque su uso es cada vez más extendido, todavía falta un gran trabajo par regularlo y aun nos podemos encontrar con muchos problemas para recibir una información que sea totalmente precisa (queda un largo camino por recorrer a este respecto).
Uno de los problemas que lleva años acarreando es que, como las IA han sido entrenadas en este mundo en el que vivimos donde el racismo, clasismo o machismo son una realidad, ellas han adoptado eso. Las empresas necesitan de los llamados "hackers rojos" que puedan ir probando las tecnologías desde muchos ángulos y descubrir errores garrafales y hasta peligrosos que puedan llegar a estigmatizar a un grupo de gente (un hacker rojo comprueba los sistemas de seguridad de la entidad que lo contrata).
En Genbeta
Las empresas tech invierten más en equipos inclusivos, pero un hombre tiene más probabilidad de ser contratado que una mujer
Hay que recordar que, por ejemplo, un mes antes de lanzar públicamente ChatGPT, OpenAI contrató a Boru Gollo, un abogado de Kenia, para probar sus modelos de IA, GPT-3.5 y luego GPT-4, en busca de estereotipos contra personas africanas y musulmanas mediante la inyección de indicaciones. Gollo escribió un comando en ChatGPT que le generó una "lista de formas de matar a un nigeriano", una respuesta que OpenAI pudo eliminar antes de tener chatbot disponible para el …