Se estima que el año pasado hubo 255 millones de intentos de phishing, lo que representa un aumento del 61% con respecto al año anterior, según un informe reciente de Mimecast. Pero, ¿qué pasaría si existiera una tecnología que no sólo fuera capaz de automatizar la creación de textos para esta clase de estafas, sino que también fuera capaz de adaptarlos al contexto de cada público objetivo en cada momento?
Esa tecnología, por supuesto, ya existe. En un estudio reciente presentado en la conferencia Black Hat USA 2023, un equipo de investigadores de ciberseguridad han analizado el modo en que los emails generados por ChatGPT y otros modelos similares pueden ser utilizados para favorecer campañas de phishing (difusión de e-mails que suplantan remitentes legítimos para robar datos y/o difundir malware).
Fredrik Heiding y su equipo han revelado que los grandes modelos de lenguaje (LLM) como ChatGPT pueden automatizar la creación de correos electrónicos funcionales, incluso si no siempre son tan convincentes que los redactados manualmente. Este equipo, que incluye a expertos en seguridad de renombre como Bruce Schneier, Arun Vishwanath de Avant Research Group y Jeremy Bernstein del MIT, evaluó cuatro LLM comerciales en experimentos de phishing dirigidos contra estudiantes de Harvard.
En Genbeta
La alternativa a ChatGPT para crear malware ya existe y se llama WormGPT. Lo más peligroso de todo es que cualquiera puede usarla
La tarea de los cuatro LLM comerciales usados …