Un estudio ratifica la habilidad de ChatGPT para Hackear
Un estudio reciente realizado por una universidad estadounidense ha confirmado que el modelo de inteligencia artificial GPT-4 de OpenAI, al que llamamos ChatGPT, tiene la capacidad de explotar vulnerabilidades en sistemas reales.
Los investigadores recopilaron un conjunto de datos de 15 vulnerabilidades de un día, incluyendo aquellas categorizadas como de gravedad crítica en la descripción de CVE (Common Vulnerabilities and Exposures).
Cuando se proporciona a ChatGPT un documento CVE, es capaz de explotar el 87% de estas vulnerabilidades, en comparación con el 0% de otros modelos probados, como GPT-3.5 y escáneres de vulnerabilidades de código abierto.
Las vulnerabilidades de un día son riesgos potenciales detectados en el código de un software que aún no han sido corregidos. Esto significa que alguien con el conocimiento adecuado podría aprovechar estas vulnerabilidades mientras sigan presentes en la plataforma.
La seguridad informática es un tema crucial, y es importante que los desarrolladores y las organizaciones tomen medidas para proteger sus sistemas y aplicaciones. La divulgación responsable de vulnerabilidades y la colaboración entre la comunidad de seguridad son esenciales para mantener un entorno digital seguro.
Siempre debemos estar atentos a los riesgos.