Desde casos de éxito en aplicaciones de inteligencia artificial (AI, por sus siglas en inglés), pasando por áreas de oportunidad, hasta preocupaciones sobre su gobernanza se compartieron durante la mesa redonda del IT Masters Club en Monterrey.
Al encuentro, convocado por Netmedia —casa editorial de este sitio— acudieron 18 líderes IT de empresas con sede en el norte del país, como Femsa, General Motors, ITESM o Schneider Electric, entre otras.
La directora general de Netmedia Mónica Mistretta moderó la mesa redonda que contó con el apoyo de OutSystems. Su director para México y Centroamérica Irving Fierro, al dar la bienvenida, se refirió a los retos e incluso inquietudes que pueden surgir en torno al aprendizaje de cómo utilizar la AI.
“Nos da miedo dar ese primer paso. La idea, más allá de un speech comercial, es simplemente intercambiar ideas, salir con un aprendizaje de aquí, entender qué están haciendo nuestros colegas y obviamente que esto sea rico para todos”, comentó.
Mistretta introdujo el tema con un panorama enfocado en que los agentes inteligentes no buscan suplantar el factor humano, sino potenciarlo. Puso sobre la mesa que la transformación real pasa por la gobernanza AI más que por la tecnología.
“El punto importante es que los agentes no sustituyen humanos, porque siempre ese es el miedo y siempre acabamos hablando de esto, ¿no? Sino que nos multiplican. Un buen agente libera nuestro tiempo cognitivo y no los puestos de trabajo”, expresó.
Índice de temas
La representación de la AI dentro de las corporaciones
A través de un sondeo rápido, a fin de comenzar la discusión, se les preguntó a los asistentes: “¿Qué representa hoy la Agentic AI para tu organización?”
La mayoría (75%) coincidió en que la inteligencia artificial ya genera valor de forma silenciosa dentro de sus organizaciones, aunque su adopción se encuentra en diferentes niveles de madurez. También surgió la preocupación sobre el orden y control con el que se deben implementar.
El gerente de IT de Viakem Juan Antonio García señaló que aunque ha encontrado utilidad en lo operativo y en apoyo a procesos, aún no aterriza un caso práctico de alto impacto y le preocupa especialmente la gobernanza para que no se salga de control.
“Me ayuda [la AI] a mí en el día a día o a mi equipo para el tema de aplicar algunos procesos, pero no me ha tocado todavía poder identificar algo donde yo pueda apoyar a la organización y en el fondo lo que me preocupa es la gobernanza, que no se me salga de control con los usuarios”, apuntó.
La directora de Tecnología educativa del Instituto Tecnológico y de Estudios Superior de Monterrey (ITESM) Claudia Galindo compartió de qué forma lo han enfrentado dichas preocupaciones: “Nos está ayudando mucho haber nombrado a una persona que se está haciendo responsable de toda la estrategia de inteligencia artificial”.
Galindo detalló que guía la estrategia AI en la organización para orquestar procesos, formación y adopción. “Para que realmente genere este valor que queremos encontrar, hay que integrar a diferentes áreas”, dijo.
Casos de éxito
El gerente de Infraestructura IT de Viakable José Baltazar Peña Villela comentó que en su organización evalúan la AI con métricas claras de retorno y buscan que los proyectos paguen su inversión entre tres y cuatro periodos.
“Es ayudar al agente con el conocimiento de sus procesos, plasmarlo en la información que mínimo lo va a presentar a su dirección. Si su dirección lo autoriza: adelante; se hace el agente y corremos todo el proceso. Se está monitoreando, revisando que exactamente se tenga ese retorno de inversión”, indicó. Por su parte, el director de Medios de pago y Datos de Banregio Grupo Financiero José Alfredo Pequeño Contreras explicó que dentro de la empresa en su arquitectura ya contempla un modelo de gobernanza que facilita la integración de AI de forma segura y regulada, la cual dio a conocer parte de su procedimiento.
“El caso es que dependiendo de qué se va embonando ahí. A nosotros nos funcionó muy bien. Entonces, el tema de gobierno pues ya está en automático, porque nosotros ya tenemos un gobierno de todo: de datos, de machine learning, de desarrollo, el tema de procesos de arquitectura”, destacó.
Al igual que el participante anterior, Heriberto Landetta Cabrera, CIO de GM Financial de México compartió un caso de éxito donde el uso de AI ayudó a reducir tiempos de validación documental de manera significativa, un caso clave que fue en Monterrey para validar un estado de cuenta de BBVA, para el financiamiento de un automóvil.
“El primer caso de éxito para la para el área a la región a la que pertenecemos nosotros, que es International Operations. Se dio aquí en México, en Monterrey, lanzando el primer agente de inteligencia artificial para lo que es la validación y verificación de documentos, el cliente final”, detalló. Juan Arturo Dueñas Chávez, director de TI, General Motors de México, mencionó que el tema de la gobernanza se debe manejar desde los datos, así como de la supervisión humana. Para ello puso como ejemplo algunos proceso que ya se realizan en General Motors.
“Ahí es donde creo que está el reto de la gobernanza, porque no podemos ver lo que no sabemos, ¿verdad?, y las personas pueden desarrollar agentes tanto como les dé la imaginación. Entonces, creo que ahí el tema se centra alrededor de los datos, ¿no?”, dijo.
Fernando Casas González, director de IT y CX, Promotora Ambiental, tomando en cuenta el caso de éxito, enfatizó que el valor de los agentes se genera cuando nacen desde una necesidad real del negocio y no solo desde las IT.
“La parte de agregar valor es que los agentes vengan en su mayoría de la de las áreas de negocio, que no sean impulsados por TI (…) Nosotros tenemos algunos que hacemos para nuestra mejora continua de servicios, pero tienen que salir del negocio para que de verdad generen valor más rápidamente, ¿no?”, mencionó.
Respecto a ese tema, Rafael Sánchez Silván, director regional de Innovación de Chubb Seguros México, compartió un ejemplo de regulación de la AI que ya se está implementando en Brasil, respecto a la toma de decisiones con la inteligencia artificial en las aseguradoras.
“Tú como proveedor de seguros no puedes delegar la toma de decisión de si un siniestro procede o no procede a un agente automático. Está prohibido. Entonces, puedes entrar en temas de penalizaciones si lo estás haciendo, si lo estás haciendo como organización y si lo estás haciendo a nivel individual”, compartió en torno a las relaciones éticas de ese tema.
Por su parte, Alethia Quintanilla, directora de Gobernanza de Activos de IT, Schneider Electric México señaló que los agentes solo funcionan si hay datos limpios, ordenados y procesos previamente estructurados.
“Si le metes datos malos, vas a tener outputs muy malos y con repercusiones legales muy posiblemente financieras (…) Un área de IT no puede desarrollar un agente si no conoce los procesos y si el proceso tiene fallas, el output de ahí va a tener fallas”, concluyó de esa manera el primer bloque de preguntas.
Las inquietudes que genera la AI
Tras analizar la primera pregunta, se planteó el cuestionamiento sobre qué parte de la AI podría generar más ansiedad si hace una instrucción sin avisar.
La gran mayoría destacó que lo más que podría causar problemas es la generación de un código y que lo suba a la producción sin que tenga el agente una supervisión humana.
Para este cuestionamiento Mauricio Aguilar de Outsystems, señaló que los agentes sí se pueden manejar y controlar a través de un low-code, es decir, una codificación manual.
“Cada caso tiene que llevar ciertas reglas, ciertas directrices (…). El modelo de agentes sí lleva toda una curva que puede ser riesgosa, puede ser con supervisión o sin supervisión pero también se puede controlar”, dijo.
Por su parte, Mario Antonio García Olvera, director de IT de Cuprum, señaló que lo mejor en estos procesos en donde se involucra un agente, es saber y tener claro que va a fallar, por lo cual dentro de esa falla, entra el factor humano.
“Nos hemos metido en broncas con código, con cuestiones de ese tipo por esas situaciones en las que en las que el supervisor humano falla, digamos, después de la inteligencia artificial (…) asumamos que va a fallar, asumamos que lo que nos va a decir la AI, no es del todo correcto, que tiene fallas, entonces siempre la siempre tomemosla y revisemos la recomendación que nos da, sobre todo en estos temas de código”, detalló en base a una de sus experiencias.
Al llegar el tema a la mesa, sobre los riesgos, Gabriel Zambrano Elizondo, CIO/CISO de FEMSA recalcó la importancia de cuidar temas regulatorios y evitar sesgos que generen discriminación de códigos o datos importantes.
“La supervisión y a veces con la otra parte de la inteligencia artificial, es la que te va a ayudar a hacer esas revisiones más rápidas, porque también la cantidad de código a revisar, pues es eterno en empresas grandes como nosotros”, mencionó.
Carlos Vicente Grajales Blasco, CISO de Mitsui and Co, señaló en ese mismo tema la importancia de la ciberseguridad, por lo cual, enfatizó la necesidad de prevalidar controles antes de liberar agentes a producción para evitar la generación de problemas.
“Podemos llegar a generarnos un problema de manera intrínseca en todos los componentes, ¿no?. Desde una autorización de un presupuesto, un problema legal, un tema que puede generar más allá”, mencionó. Carlos Fernando Rodríguez de la Peña, CISO de Grupo Financiero BASE, habló del punto de cómo gestionar un agente el cual manifestó que lo ve como un riesgo, no solo es un dato y una herramienta, sino también es un contexto al capacitar a los usuarios.
“No solo es el dato, la herramienta o el proceso, sino también es qué contexto le estás dando a la AI y cómo capacitamos a nuestros usuarios para que sepan hacer los prompts correctos (…), porque al final la AI va a atender lo que tú le estás pidiendo, pero depende mucho cómo se lo pides para que te dé la respuesta correcta”, mencionó.
En otra intervención, José Baltazar Peña Villela, gerente de Infraestructura IT de Viakable, puso como ejemplo un proceso dentro de sus empresas donde operan con un agente, en donde redujo el error hasta en un 2%, pero enfatizó que si se quiere esos resultados, es importante que siempre se esté supervisando.
“Estamos monitoreando y auditando cuál es el resultado de usuarios, de permisos que está dando, al menos una vez al mes para validar que la gente esté trabajando correctamente (…) Las reglas deben de estar documentadas, informadas, que estén todos de acuerdo”, mencionó.
Ramón Alberto López Reyes, coordinador de infraestructuras de IT de Ads Mexicana, también compartió un ejemplo que ya se aplica en su empresa, en donde habla del error que tiene la AI por defecto y que se tiene que estar supervisando.
“Tenemos un agente en un sistema de donde llegan los clientes y el sistema distribuye en segmentos de la compañía a ciertos clientes. Hemos detectado que clientes de tubería corrugada los canaliza a tubería de PVC y es un riesgo que se tiene. Hernán Elionay Guerra Martínez, director de IT, Trayecto comentó que han encontrado problemas en filtros automatizados y están trabajando en analizar falsos positivos y negativos con un ejemplo que aplicó en su empresa con sus empleados para medir el nivel de filtro al momento de contratar a nuevo personal.
“Hemos tenido casos, adrede, de operadores que ya trabajan con nosotros y les decimos, ‘Oye, contesta la entrevista, a ver cómo te va’ y el agente lo rechaza (…) Nosotros estamos muy acuerdo, tenemos que asumir que la AI está cometiendo errores y estarlos corrigiendo constantemente”, detalló.
Alejandro García Parra, gerente IT de Fibra MTY, retomó el tema de la gobernanza para que a partir de ahí, se controle el margen de error que pueda tener un agente con inteligencia artificial. “Lo más importante para nosotros ha sido la gobernanza y el poder hacer la división de lo que de la información (…) tenemos que tener mucho cuidado con la con la información que se maneja”, afirmó.
Fernando Casas, de nuevo en intervención, coincidió en que se tiene que tener bastante cuidado en los errores que puede cometer la AI, sobre todo al momento de operar datos y en la ingeniería de los promts.
En una primera intervención, Sandra Patricia González Hernández, CIO, Casas Javer subrayó que la calidad del prompt y acotar el set de datos son determinantes para que la AI funcione.
“No debe ser una iniciativa de TI, sino que el negocio tiene que estar convencido de que es algo que le va a generar valor y adicionalmente estar consciente del riesgo que implica integrar este tipo de herramientas dentro de su proceso de negocio”, mencionó.
En otra intervención, Juan Antonio García Ramírez, destacó que el contexto y la formación del usuario son igual de importantes que los datos, así que concluyó en base en la intervención de González Hernández, que el problema no es solo el dato, sino quién lo usa y cómo lo pide.
Alethia Quintanilla, directora de Gobernanza de activos de IT de Schneider Electric México, compartió específicamente una de sus inquietudes de la AI, la cual destacó el problema que puede generar cuando un agente se autoeduca y realiza acciones que aparentemente aprendió, pero de una manera incorrecta. Cuando un agente de AI te vuelve a alimentar los datos, se empieza a desviar.
“Se autoeduca, se empieza a desviar y se empiezan a tomar decisiones (…) se va totalmente para otro lado y para mí eso, yo trabajo mucho con datos, eso sí, me inquieta bastante”, compartió. Respecto al tema, Dario Genolet, CDO, Grupo 4HG, señaló que la aceptabilidad del error depende del tipo de información y del impacto económico o reputacional.
“O sea, si es un agente que va hacia dentro de la compañía, pues uno puede vivir con cierto nivel de error el usuario puede decidir qué usa y qué no utiliza, pero cuando ya estamos poniendo el nombre de la compañía hacia fuera, estamos dando este agente al cliente, qué tanto podemos aceptar que se equivoque”, cuestionó.
Para ello, intervino de nuevo Mauricio Aguilar, quien explicó las dos inquietudes que presentaron. Mencionó que para poder controlar bien hay que definir las bases, se tienen que estar tranquilos, ya que todo va de la mano de la gobernanza, así como en que coinciden en que no pueden dejar solo a los agentes.
Además de que en el país aún existen limitantes en plataformas y telecomunicaciones, pero que poco a poco va avanzando, y si se tiene en claro los puntos que mencionaron, es hasta el momento la manera en cómo se va a poder usar la AI.
Para concluir con el segundo bloque, José Alfredo Pequeño Contreras volvió a intervenir en donde señaló que uno de los errores más comunes es querer que un programa libre o pequeño, opere en cantidades mayores, cuando no está preparado tanto el programa o la persona que está manejando la herramienta.
La AI y capacitaciones al personal
Luego de que los asistentes compartieron sus inquietudes sobre el uso del agente en operaciones dentro de la empresa, esta tercera parte de la mesa de diálogo partió con la pregunta sobre qué parte del stack técnico consideran que aún no está listo para que una inteligencia artificial opere en ese ámbito.
En ese sentido, se volvió a retomar la postura sobre el uso de la AI en las contrataciones, por la que Fernando Casas participó al explicar que la decisión final de poder contratar a una persona no se la debería dejar del todo a la inteligencia artificial ya que esta no puede evaluar la actitud, un aspecto crucial para él.
Así mismo, volvió a participar Gabriel Zambrano, quien advirtió que dejar que la AI filtre candidatos puede violar leyes de protección de datos y caer en discriminación, además de que volvió a resaltar que se deben revisar manualmente los filtros que el agente descarta.
“Ahora te dice que no puedes dejar que la inteligencia filtre porque está discriminando (…)entonces tienes que meter a alguien a fuerza que revise los filtros que descartó la inteligencia”, destacó.
En ese sentido, retomó la palabra Heriberto Landetta al hablar de un tema que no se había presentado antes: la burocracia de quien puede llegar a manejar o controlar un agente, ya que muchas de las veces cuando hay que hacer cambios, se tardan en realizarlo por la naturaleza de dicho proceso.
“Tenemos a toda la gente lista recibiendo los proyectos (…), pero cuando empiezan a analizar qué queremos hacer, que si hay data que si hay datos personales involucrados, que si hay que si el equipo de privacidad ya aprobó (algo), que si el equipo de privacidad local y el global también ya se pusieron de acuerdo y aprobaron y demás, se vuelve un proceso un tanto burocrático”, expresó.
Carlos Fernando Ródriguez volvió a retomar la palabra y consideró que para aprobar proyectos requieren una preevaluación con lineamientos claros de seguridad, privacidad y datos, lo que agiliza la aprobación y evita retrasos entre equipos.
Respecto al tema, retomó la palabra Mario Antonio García Olvera, quien habló en ese sentido de los sistemas legados, los cuales frenan la adopción de AI porque están desconectados del entorno moderno y aunque existan esfuerzos de modernización, la deuda técnica complica el avance.
“Tenemos un montón de sistemas legados (…) esos sistemas están desconectados del mundo moderno (…) van poniéndole un cierto freno a dónde puedes llegar con la inteligencia artificial”, mencionó como una área de oportunidad al momento de tratar de agilizar los procesos.
Mauricio Aguilar hizo de nuevo otra intervención, la cual concluyó la penúltima respuesta sobre y coincidió en que los mayores retos están en los sistemas core y legados, además de subrayar la dificultad de modernizarlos y la necesidad de capacitar equipos de IT y seguridad para adoptar nuevas tecnologías.
Futuro del uso de la AI en la aplicación de gobernanza
La última cuestión y para cerrar la mesa de diálogo, se abordó sobre el futuro del agente con esta pregunta: Imagina que en 2030 tienes un “CTO-as-Agent”, ¿cuál sería su primera decisión que te haría sudar frío?
Una de las respuestas que más predominó entre los asistentes fue que se intentara sustituir factores humanos en varias áreas como lo es, como ejemplo, el área de reclutamiento.
Mario Antonio García compartió su inquietud sobre perder el sentido organizacional cuando se automatizan decisiones estratégicas. Señaló que existe un riesgo en que un agente privilegie resultados de corto plazo sin considerar el impacto humano y cultural dentro de la empresa.
“Todos los miembros del C-Level están usando la AI para tomar decisiones (…) para mí el principal temor es que perdamos el sentido de las organizaciones”, expresó. Carlos Vicente Grajales advirtió sobre el riesgo de que un agente autónomo tome decisiones sin sensibilidad humana y consideró que la falta de contexto emocional puede llevar a acciones que cumplan métricas pero dañen relaciones y cultura.
“La sensibilidad (…) nos genera mucha sombra, mucha incertidumbre y mucha ansiedad (…), cuando queremos avanzar nos detiene mucho el tema de los (sistemas) legados”, dijo. Juan Arturo Dueñas visualizó un escenario donde el CTO no desaparece, sino que trabaja asistido por agentes de AI. Consideró que el rol humano seguirá siendo clave para validar decisiones y mantener el rumbo estratégico.
“Definitivamente el tema de la persona (…) la sensibilidad, la estrategia, entender para dónde va el negocio (…). La AI va a ayudar en roles más repetitivos, pero no veo que al nivel de un CTO vaya a ser un tema que veamos en el 2030″, consideró.
Por su parte, José Baltazar, recordó que las organizaciones siguen siendo entes humanos y que la gestión del talento no debería quedar en manos de algoritmos autónomos, por lo que enfatizó que el riesgo está en eliminar la supervisión humana. “Las organizaciones están hechas y lo más importante somos las personas (…) la sensibilidad de detectar qué está pasando con la persona (…). La AI todavía es un dato duro, es sí o no”, comentó.
Rafael Sánchez expresó que la preocupación no es solo el uso de AI, sino cómo se usa y bajo qué lineamientos éticos, ya que recalcó que la supervisión será necesaria para asegurar que las decisiones de los agentes mantengan valores corporativos. A manera de conclusión de la última pregunta, fue que el temor compartido no se centró en el avance tecnológico, sino en el riesgo de que se erosione el juicio humano y el propósito organizacional si las decisiones estratégicas se automatizan sin marcos éticos, sensibilidad y mecanismos de supervisión adecuados.
Para concluir la mesa, se retomó la reflexión central: la AI no sustituirá el criterio humano, pero sí lo presionará a evolucionar. El cierre se enfocó en cómo los líderes deberán prepararse para convivir con agentes autónomos, adoptando nuevas habilidades, marcos éticos y una mentalidad de experimentación responsable.
Irving Fierro retomó de nuevo la palabra y destacó que la conversación no se trató de reemplazo tecnológico, sino de liderazgo adaptativo. Recalcó que el papel del líder será aprender a diseñar, entrenar, auditar y gobernar agentes y no solo usarlos esperando una resolución sin gobernanza y estrategia.
“No hay un punto de madurez donde podamos simplemente soltar y que esto sea 100% autónomo, siempre será importante la supervisión humana (…), pasos pequeños, seguros y tangibles que abran posibilidades.’”, puntualizó.
Irving subrayó que 2030 no es un concepto futurista lejano, sino una ventana de apenas cinco años que obliga a comenzar desde ahora la alfabetización en AI aplicada.
“El tema de los sentimientos, el tema de la razón, el tema de oye, una opinión más allá de lo que pueda decir una base de datos, sino también muy humana, ¿no? “Creo que es un punto ahorita muy interesante donde tenemos todo para despegar, simplemente ir haciendo pasos pequeños, seguros y que nos ayuden a pues obviamente materializar todo esto que estamos pensando”, concluyó.
El panel coincidió en que el verdadero reto no es tecnológico, sino humano: formar líderes capaces de colaborar con agentes inteligentes sin perder propósito, ética ni sensibilidad organizacional.
Participantes
Fernando Casas González, director de IT y CX de Promotora Ambiental; Juan Arturo Dueñas Chávez, director de Tecnologías de la Información de General Motors de México; Claudia Julieta Galindo Reza, directora de Tecnología educativa del Instituto Tecnológico y de Estudios Superior de Monterrey (ITESM); Mario Antonio García Olvera, director de IT de Cuprum; Juan Antonio García Ramírez, gerente de IT de Viakem; Alejandro García Parra, gerente IT de Fibra MTY; Dario Genolet, CDO / director de Innovación y Transformación digital de Grupo 4HG; Sandra Patricia González Hernández, CIO de Casas Javer de México; Carlos Vicente Grajales Blasco, CISO de Mitsui & Co Soluciones de Infraestructura; Hernán Elionay Guerra Martínez, director de IT de Trayecto; Heriberto Landetta Cabrera, CIO de GM Financial de México; Ramón Alberto López Reyes, coordinador de infraestructuras de IT de Ads Mexicana; José Baltazar Peña Villela, gerente de Infraestructura IT de Viakable; José Alfredo Pequeño Contreras, director de Medios de pago y Datos de Banregio Grupo Financiero; Alethia Quintanilla, directora de Gobernanza de activos de IT de Schneider Electric México; Carlos Fernando Rodríguez de la Peña, CISO de Grupo Financiero BASE; Rafael Sánchez Silván, director regional de Innovación de Chubb Seguros México, y Gabriel Zambrano Elizondo, CIO/CISO de Fomento Económico Mexicano (Femsa)







