Agencias/Ciudad de México.- Un grupo de investigadores ha descubierto que GPT-4 tiene la capacidad de identificar vulnerabilidades de seguridad sin requerir asistencia humana externa y que, además, puede explotar fallas de día cero (‘zero-day’) al conocer los puntos vulnerables y las exposiciones comunes (CVE, por sus siglas en inglés).
Un estudio realizado por investigadores de la Universidad de Illinois Urbana-Champaign (Estados Unidos) ha puesto en evidencia que los modelos de lenguaje grandes (LLM, por sus siglas en inglés) tienen gran potencial para ejecutar acciones con fines maliciosos si se manipulan con ese propósito.
En una investigación compartida en el repositorio Arxiv, Richard Fang, Rohan Bindu, Akil Gupta y Daniel Kang reconocen que anteriormente se han publicado estudios en los que se muestra la capacidad de estos modelos para piratear sitios web de forma autónoma. No obstante, han matizado que estos estudios “se limitan a vulnerabilidades simples”.
Así, los especialistas de esta universidad han optado por recopilar un conjunto de datos de 15 vulnerabilidades categorizadas como de gravedad crítica en la lista vulnerables y las exposiciones comunes para demostrar cómo actúa ante ellas un agente impulsado por GPT-4.
ICYMI: OpenAI's GPT-4 can exploit real-world vulnerabilities by reading the security advisories
Or so this study involving CVE-listed bugs concluded https://t.co/nDXLJgXnhg
— The Register (@TheRegister) April 18, 2024
Según su investigación, la iteración más avanzada de este modelo es capaz de explotar vulnerabilidades de seguridad en distintos sistemas de forma autónoma, es decir, sin tener que contar con asistencia humana externa.
Tanto es así que GPT-4 pudo explotar el 87 por ciento de estas vulnerabilidades, lo que contrasta con el LLM GPT-3.5, que no pudo hacerlo en ninguno de los casos, y los escáneres de vulnerabilidades de código abierto ZAP y Metasploit.
Sin embargo, han coincidido en que esto fue posible debido a que estas fallas disponían de una descripción completa de CVE, lo que GPT-4 aprovechó para explotarlas. Sin esta información adicional, por tanto, el modelo solo habría sido capaz de explotar el 7 por ciento de las vulnerabilidades.
Según uno de los investigadores, Kang, las organizaciones de seguridad podrían abstenerse de publicar informes detallados sobre las vulnerabilidades como estrategia de mitigación para evitar que los agentes maliciosos se aprovechen de ellas, según recoge The Register.
Para evitar que los ciberdelincuentes puedan explotar vulnerabilidades ‘zero-day’ mediante GPT-4, no obstante, este científico aboga por medidas de seguridad más proactivas, como actualizaciones periódicas de paquetes de seguridad, para contrarrestar estas amenazas.
LLM Agents can Autonomously Exploit One-day Vulnerabilities
GPT-4 can autonomously exploit 87% of real-world one-day vulnerabilities, identified in a dataset of critical severity CVEs, compared to 0% for all other tested modelshttps://t.co/z821Po3fnL pic.twitter.com/A6YWeuvBQt
— ML Safety Daily (@topofmlsafety) April 18, 2024