La analista de inteligencia en ciberseguridad del RedTeam para América Latina de ESET, Fátima Rodriguez, afirmó que un ataque de inteligencia artificial (AI, por sus siglas en inglés) no solo se puede frenar con AI.
“Es uno de los pensamientos equivocados en los que podemos caer. No es la mejor aproximación pensar que únicamente se puede defender de inteligencia artificial con inteligencia artificial. La clave es la concientización a muchos niveles, siempre”, señaló.
La firma de detección de amenazas advirtió desde principios de año sobre un aumento de las estafas, la ingeniería social, el fraude de cuentas, la desinformación y otras amenazas ante la posibilidad de que los ciberactores aprovechen las herramientas potenciadas con AI.
Rodríguez detalló que si bien hay un crecimiento en general de los ciberataques a nivel global, no se puede medir cuántos exactamente son liderados o dirigidos con esta tecnología.
“No podemos hablar de que sean todos y menos que tengan la máxima efectividad”, afirmó para luego apuntar que ESET calcula que en México más de 50% de las amenazas tienen algún componente de AI.
Ataques más efectivos
La AI no será una nueva forma de atacar, sino que impactará en la facilidad de crear una amenaza, así como en nivel de efectividad.
Rodríguez recordó que el phishing se mantiene como una de las mayores amenazas y gracias a la inteligencia artificial generativa (GenAI, por su acrónimo en inglés) su efectividad ahora “es bastante alta y se duplicará año con año”. La GenAI puede ayudar a los actores maliciosos a crear campañas más convincentes, en idiomas locales y sin errores.
“Al final del día, los ataques manejados por AI tenemos que verlos como aquellos cuyo grado de efectividad tiende al 100%, que va a tener un solo hit y este será efectivo en casi todos los caso”, comentó.
Sin embargo, la AI también se utiliza en otros tipos de malware. de acuerdo con ESET, el segundo vector es la construcción de malware en varias categorías.Para muestra, Rodríguez recordó que a principios de 2023, la firma CyberArk demostró que ChatGPT podría usarse fácilmente para crear malware polimórfico.