Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 27/04/2023 03:36

Escrito por: Antonio Vallejo

Nvidia sabe que ChatGPT y otras inteligencias artificiales “alucinan”. Esta herramienta es su manera de intentar solucionarlo

Nvidia sabe que ChatGPT y otras inteligencias artificiales “alucinan”. Esta herramienta es su manera de intentar solucionarlo

Los chatbots vuelven a estar de moda. Y es que desde el pasado año, OpenAI sorprendía al mundo con ChatGPT, una herramienta capaz de procesar el lenguaje natural y ofrecer respuestas precisas sobre cualquier temática. De esta manera, esta IA se está convirtiendo en un ayudante al que muchos usuarios están recurriendo, incluso para sus tareas más cotidianas.

Sin embargo, esta inteligencia artificial está aún lejos de ser perfecta, además de que existen ciertos riesgos a tener en cuenta si no se usa con prudencia. Es por ello que Nvidia ha querido mostrar al público un kit de herramientas y documentación para aplicar diversos filtros de seguridad en aplicaciones que utilicen inteligencias artificiales de texto generativas.

Nvidia pretende ser un referente en la seguridad de la inteligencia artificial

Aunque OpenAI y demás empresas sumergidas en proyectos similares dicen estar trabajando en solucionar los problemas de seguridad que puedan presentar sus productos, aún no se encuentran en un estado como para no tener preocupaciones sobre cómo se desenvuelven y los riesgos que pueden ocasionar para el usuario. Y es que hasta los mejores modelos de lenguaje son susceptibles a todo tipo de sesgos, toxicidad, y problemas similares. También se encuentra el problema de las "alucinaciones", ofreciendo información inexacta, o que simplemente no es real.

Con motivo de ofrecer una herramienta que ofrezca seguridad ante las propuestas de modelos de texto generativo, Nvidia lanza NeMo Guardrails. Este toolkit open-source tiene el objetivo de hacer que las aplicaciones basadas en IA sean …

Top noticias del 27 de Abril de 2023