Hay empresas tech que mientras van desarrollando grandes productos y herramientas de inteligencia artificial, se deshacen de sus equipos relacionados con la regulación y la ética. Primero fue Microsoft, que en marzo despidió a todo su equipo de ética para la inteligencia artificial, mientras avanzaba en coliderar su desarrollo.
Ahora ha sido Meta la que ha disuelto su división de IA Responsable, el equipo dedicado a regular la seguridad de sus proyectos de inteligencia artificial a medida que se desarrollan y despliegan, según un portavoz de Meta.
En Genbeta
La controversia en la regulación de la IA: los creadores piden regulación a los gobiernos pero estos no saben qué está por llegar
Las personas que trabajaban en este departamento no han sido despedidas, según la información disponible, sino que han sido reasignados a la división de productos de IA generativa de la compañía, mientras que algunos otros ahora trabajarán en el equipo de Infraestructura de IA.
Los grandes inventos de Meta en IA
Meta tiene su propia ChatGPT: LlaMa que ya tiene su segunda versión lanzada en verano. Se trata de un LLM que todo el mundo puede descargar y utilizarlo para todo tipo de proyectos, para investigación, fines comerciales, entornos profesionales, o simplemente para tontear un poco con él. En Genbeta la hemos probado.
En Xataka
Meta tiene dos nuevos (e impresionantes) modelos de …