GitHub anunció a finales de junio una sorprendente y polémica herramienta que permitía programar código recurriendo a la inteligencia artificial, autocompletando a partir de pequeños fragmentos proporcionados por el desarrollador.
GitHub Copilot fue desarrollado en colaboración con OpenAI, haciendo uso de la tecnología de su modelo de IA GPT-3, al que se entrenó con código open source disponible en los repositorios de GitHub (lo cual generó toda clase de debates sobre la legalidad de usar el código generado).
Por supuesto, este lanzamiento reabrió el debate sobre si había lugar para los programadores humanos en un mundo en el que la IA era capaz de generar código. Pero al fin y al cabo, la inteligencia artificial aún no es capaz de inventar, sólo de copiar y remezclar nuestras invenciones……errores incluidos.
Poniendo a prueba a la IA del momento
Ahora, cinco investigadores de la Universidad de Nueva York han publicado un paper ("An Empirical Cybersecurity Evaluation of GitHub Copilot's Code Contributions") relatando la investigación que han llevado a cabo en las últimas semanas para poner a prueba la calidad y seguridad del código generado por Copilot.
En Xataka
Llevo algunos días usando Copilot de GitHub para programar y esta es mi experiencia
"El código a menudo contiene errores y, por lo tanto, dada la gran cantidad de código que Copilot ha procesado, es seguro que el modelo también habrá sido entrenado en código explotable con errores. …