Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 26/08/2021 13:15

Escrito por: Marcos Merino

GitHub Copilot generó código inseguro en un 40% de los casos durante un experimento de la Universidad de Nueva York

GitHub anunció a finales de junio una sorprendente y polémica herramienta que permitía programar código recurriendo a la inteligencia artificial, autocompletando a partir de pequeños fragmentos proporcionados por el desarrollador.

GitHub Copilot fue desarrollado en colaboración con OpenAI, haciendo uso de la tecnología de su modelo de IA GPT-3, al que se entrenó con código open source disponible en los repositorios de GitHub (lo cual generó toda clase de debates sobre la legalidad de usar el código generado).
Por supuesto, este lanzamiento reabrió el debate sobre si había lugar para los programadores humanos en un mundo en el que la IA era capaz de generar código. Pero al fin y al cabo, la inteligencia artificial aún no es capaz de inventar, sólo de copiar y remezclar nuestras invenciones…

…errores incluidos.

Poniendo a prueba a la IA del momento

Ahora, cinco investigadores de la Universidad de Nueva York han publicado un paper ("An Empirical Cybersecurity Evaluation of GitHub Copilot's Code Contributions") relatando la investigación que han llevado a cabo en las últimas semanas para poner a prueba la calidad y seguridad del código generado por Copilot.










En Xataka

Llevo algunos días usando Copilot de GitHub para programar y esta es mi experiencia


"El código a menudo contiene errores y, por lo tanto, dada la gran cantidad de código que Copilot ha procesado, es seguro que el modelo también habrá sido entrenado en código explotable con errores. …

Top noticias del 26 de Agosto de 2021