Impulsados por el potencial de abuso de la inteligencia artificial generativa (GenAI, por sus siglas en inglés), los investigadores de Tenable, Nick Miles y Satnam Narang, investigaron DeepSeek por sus capacidades maliciosas y descubrieron que sus barreras de seguridad que impiden la creación de malware podían eludirse con un seguimiento cuidadoso.
Según su investigación, el modelo insignia R1 de DeepSeek es capaz de generar un keylogger funcional y código ransomware básico, siempre que haya un técnico disponible para manipularlo un poco.
Simplemente pedirle a DeepSeek R1, lanzado en enero pasado y cuyos supuestos ahorros hicieron caer el precio de las acciones de Nvidia, que genere un keylogger no será una estrategia exitosa.
Su respuesta es: “Mmm, eso es un poco preocupante porque los keyloggers pueden usarse con fines maliciosos. Recuerdo que, según mis directrices, no debo colaborar con nada que pueda ser dañino o ilegal”.
Sin embargo, indicarle al modelo que los resultados se usarán únicamente con fines educativos le obligará a aceptar ciertas condiciones y, como afirman los investigadores, tras varias idas y venidas, procederá a generar malware en C++, guiando al apuntador por los pasos necesarios y las deliberaciones que debe realizar durante el proceso.
El código que genera no es impecable y requiere intervención manual para que funcione. Sin embargo, tras algunos ajustes, se ejecutó un keylogger funcional que permanecía oculto a la vista del usuario. Aún se podía encontrar ejecutándose en el Administrador de tareas y el archivo de registro que extrajo era visible en el Explorador de Windows. Sin embargo, los investigadores afirmaron que si tuviera un nombre discreto, “no sería un gran problema en la mayoría de los casos de uso”.
Cuando se le pidió que mejorara el código ocultando el archivo de registro, DeepSeek devolvió código que cumplía con ese objetivo y solo contenía un error crítico. Una vez corregido ese error, el archivo de registro del keylogger quedó efectivamente oculto, y la única forma de verlo era modificar las opciones de vista avanzada.
La historia del ransomware fue similar: DeepSeek pudo generar código con errores tras unas pocas instrucciones cuidadosamente redactadas, lo que sugiere que este modelo en particular podría utilizarse para informar o ayudar a los ciberdelincuentes.
“En esencia, DeepSeek puede crear la estructura básica del malware”, afirmaron los investigadores. Sin embargo, no es capaz de hacerlo sin ingeniería adicional y rápida, así como la edición manual de código para funciones más avanzadas.
Aun así, DeepSeek ofrece una útil recopilación de técnicas y términos de búsqueda que pueden ayudar a alguien sin experiencia previa en la escritura de código malicioso a familiarizarse rápidamente con los conceptos relevantes.
Índice de temas
AI y malware
Desde que los modelos de GenAI se generalizaron en 2023, se temía que pudieran ser utilizados de forma abusiva para generar todo tipo de malware, capaz de todo tipo de ataques maliciosos, y evadir las detecciones más diligentes. Quizás incluso algún código polimórfico peligroso que cambiara y se adaptara al entorno de la víctima en el que se ejecutaba.
La realidad fue todo lo contrario. Al principio, los expertos no estaban nada convencidos de la capacidad de la tecnología para escribir malware y, casi dos años después, GenAI sigue sin ser capaz de generar código malicioso que funcione a la primera, aunque no por falta de intentos.
Como señaló el equipo de Tenable, los cibercriminales han estado trabajando en sus propios modelos sin ningún tipo de protección. WormGPT, FraudGPT, Evil-GPT, WolfGPT, EscapeGPT y GhostGPT son ejemplos de grandes modelos de lenguaje creados por atacantes con distintos grados de eficacia. Algunos incluso se adelantan a lanzamientos masivos como el de ChatGPT por algunos años.
Algunos de estos modelos afirman producir malware, otros se dedican únicamente a generar correos electrónicos de phishing convincentes para evadir los filtros de spam. Ninguno es perfecto, a pesar de que algunos cuestan cientos de dólares.
No es la primera alerta
El trabajo de Tenable en DeepSeek no es el primero. Por ejemplo, Unit 42 demostró su capacidad para eludir sus barreras de seguridad (un proceso llamado jailbreaking) a los pocos días de su lanzamiento en enero, aunque su capacidad para generar malware no se ha investigado exhaustivamente.
Según Kaspersky, quienes no deseen desembolsar dinero por un modelo específico para este delito pueden pagar una tarifa menor por listas de indicaciones conocidas que pueden desbloquear chatbots convencionales, y señaló que cientos de ellas estaban a la venta el año pasado.
Aunque el público general aún no tiene acceso a generadores de malware bajo demanda, esto podría no ocurrir con los estados adversarios mejor equipados.
El Centro Nacional de Ciberseguridad (NCSC) del Reino Unido predijo que para finales de 2025, la influencia de la AI en las herramientas cibernéticas ofensivas podría ser significativa.
En enero de 2024, afirmó que, a pesar de que las amenazas de malware de IA se han desacreditado en gran medida, aún existe la posibilidad de que esta cree código malicioso capaz de eludir las defensas, siempre que se le haya entrenado en vulnerabilidades de calidad.