Grupos de cibercriminales respaldados por Estados utilizan el modelo de inteligencia artificial (AI por sus siglas en inglés) de Google, Gemini, para apoyar todas las etapas de un ataque.
El Grupo de Inteligencia de Amenazas de Google (GTIG) reveló en un informe publicado el jueves que los adversarios de amenaza persistente avanzada (APT) utilizan Gemini para facilitar sus campañas, “desde el reconocimiento y la creación de señuelos de phishing hasta el desarrollo de servidores de mando y control (C2) y la exfiltración de datos”.
El reporte indica que agentes maliciosos de China (APT31, Temp.HEX), Irán (APT42), Corea del Norte (UNC2970) y Rusia han empleado Gemini para la elaboración de perfiles de objetivos y la recopilación de inteligencia de código abierto (OSINT por su acrónimo en inglés).
Además, han utilizado la herramienta para generar señuelos de phishing, traducir textos, desarrollar código, realizar pruebas de vulnerabilidades y solucionar errores técnicos.
Los atacantes también muestran un creciente interés en herramientas de inteligencia artificial generativa (GenAI por su acrónimo en inglés) que facilitan actividades ilegales, como las campañas de ingeniería social automatizadas bajo el esquema ClickFix.

Índice de temas
Actividad maliciosa potenciada por AI
En un caso destacado, actores de amenazas chinos emplearon a un experto en ciberseguridad para solicitar a Gemini la automatización del análisis de vulnerabilidades y los planes de pruebas específicos.
“El actor de amenazas con sede en la República Popular China simuló un entorno ficticio, probando las herramientas MCP de Hexstrike y dirigiendo el modelo para analizar la Ejecución Remota de Código (RCE), técnicas de evasión de WAF y resultados de pruebas de inyección SQL contra objetivos específicos en Estados Unidos”, detalla el reporte.
Otro grupo con sede en China utilizaba Gemini con frecuencia para corregir su código, realizar investigaciones y recibir asesoría sobre capacidades técnicas para intrusiones.
Por su parte, el adversario iraní APT42 aprovechó el modelo grande de lenguaje (LLM por sus siglas en inglés) de Google como plataforma de desarrollo para acelerar la creación de herramientas maliciosas personalizadas, incluyendo la depuración y la generación de técnicas de explotación.
Malware de nueva generación: HonestCue y CoinBait
El GTIG añade que ha observado un abuso adicional al implementar capacidades de AI en familias de malware existentes, incluyendo el descargador y lanzador de malware HonestCue, así como el kit de phishing CoinBait.
HonestCue es un framework de prueba de concepto detectado a finales de 2025 que utiliza la API de Gemini para generar código C# para malware de segunda etapa, compilando y ejecutando cargas útiles directamente en la memoria. Por otro lado, CoinBait es un kit de phishing desarrollado en React SPA que suplanta plataformas de intercambio de criptomonedas.
Los investigadores hallaron artefactos que indican que su desarrollo se realizó mediante herramientas de generación de código de AI. Un indicador clave en estas muestras son los mensajes de registro con el prefijo “Analytics:”, lo que podría ayudar a los equipos de defensa a rastrear los procesos de exfiltración de datos.
Basándose en las muestras de malware, los investigadores de GTIG creen que este se creó utilizando la plataforma de AI Lovable, ya que el desarrollador utilizó el cliente Lovable Supabase y lovable.app.
Si bien el GTIG señala que no se han producido avances importantes en este sentido, el gigante tecnológico espera que los operadores de malware sigan integrando capacidades de AI en sus herramientas.
El riesgo de la destilación de modelos
El reporte destaca que Gemini ha enfrentado intentos de extracción y destilación de modelos. En esta técnica, las organizaciones o atacantes aprovechan el acceso autorizado a las API para consultar metódicamente el sistema y reproducir sus procesos de toma de decisiones.
En esencia, los atacantes toman la información obtenida de un modelo avanzado y la transfieren a otro mediante un proceso de aprendizaje automático denominado “destilación de conocimiento”. Esto les permite entrenar modelos propios de forma rápida y a un costo significativamente menor.
Google identifica estos ataques como una amenaza crítica porque constituyen un robo de propiedad intelectual, son escalables y socavan el modelo de negocio de la IA como servicio (AIaaS). En un ataque a gran escala, Gemini fue blanco de 100,000 mensajes destinados a replicar su razonamiento en diversas tareas e idiomas.
Finalmente, Google informó que ha desactivado las cuentas e infraestructura vinculadas a estos abusos y ha implementado defensas específicas en los clasificadores de Gemini para dificultar su uso malicioso en el futuro.







