Hay una pregunta que pocas organizaciones se han hecho en serio: ¿quién responde cuando el agente de inteligencia artificial (AI) se equivoca?
No me refiero a un error de cálculo. Me refiero a una decisión tomada, una acción ejecutada, una consecuencia real —en un contrato, en una comunicación con un cliente, en una operación financiera— y nadie en la empresa que pueda explicar con precisión por qué ocurrió ni quién autorizó que ocurriera.
Eso ya está pasando. Y la mayoría de los equipos directivos no lo saben todavía.
Índice de temas
La irrupción silenciosa
Los agentes de AI no llegaron anunciados. No hubo una junta directiva donde alguien propusiera formalmente delegar autoridad operativa a un sistema autónomo.
Llegaron a través de pilotos, de integraciones graduales, de equipos técnicos que resolvían problemas reales con las herramientas disponibles.
Un agente que redacta y envía correos en nombre de la empresa. Uno que procesa solicitudes de clientes y toma decisiones de primer nivel. Otro que monitorea señales del mercado y genera recomendaciones que, en la práctica, nadie revisa antes de actuar sobre ellas.
La adopción fue orgánica. La gobernanza, en la mayoría de los casos, no llegó. De acuerdo con datos de Gartner, para 2026 más de 80% de las empresas habrán desplegado alguna forma de agente de AI en sus operaciones.
Lo que ese dato no dice es cuántas de esas organizaciones tienen un marco formal para supervisar lo que esos agentes hacen, los límites de su autoridad, o los mecanismos para intervenir cuando algo sale del rango esperado.
Lo que distingue a un agente de una herramienta
Durante décadas, las organizaciones aprendieron a relacionarse con el software como con una herramienta: ejecuta exactamente lo que le instruyes, nada más. El margen de error era predecible. La responsabilidad, clara.
Un agente de AI es algo estructuralmente diferente. Tiene capacidad de razonamiento, de planificación de pasos múltiples, de interpretación de contexto y de ejecución autónoma de acciones encadenadas. No espera instrucción por instrucción. Recibe un objetivo y encuentra el camino para alcanzarlo. Optimiza lo que le pediste, no necesariamente lo que quisiste.
Un humano que malinterpreta una instrucción pregunta. Siente la incomodidad de la duda. El agente no. Avanza. Ejecuta. Entrega resultados que son técnicamente correctos respecto al objetivo declarado y que pueden ser completamente incorrectos respecto a la intención real.
Y no hay vergüenza que lo detenga. No hay intuición que active una alarma interna. No hay responsabilidad legal que lo haga cauteloso.
Lo que construir una política de gobernanza te enseña sobre los agentes
En Grupo Fórmula lidero la Célula de Ética, Seguridad y Gobernanza de la Inteligencia Artificial, la instancia que diseña los criterios bajo los cuales la organización despliega, audita y, cuando es necesario, detiene sus sistemas de AI.
Fui también el responsable de redactar la Política de Uso de Inteligencia Artificial del Grupo, un documento de carácter obligatorio que regula desde el uso interno de herramientas hasta el desarrollo de soluciones para clientes enterprise.
Ese proceso me enseñó algo que no está en ningún manual técnico: la mayor resistencia no es tecnológica. Es cultural.
Cuando se define que ninguna decisión puede depender exclusivamente de un sistema de AI sin revisión humana —lo que en la política denominamos supervisión humana como principio rector—, el primer efecto no es técnico. Es organizacional.
Obliga a responder quién supervisa, con qué criterios, con qué frecuencia, y qué ocurre cuando el sistema actúa fuera del rango esperado. Preguntas que la mayoría de las organizaciones todavía no han formalizado.
Uno de los riesgos que la política nombra con precisión es el de la AI en la sombra, que como el Shadow IT es el uso de herramientas no autorizadas por colaboradores que actúan con buena intención, pero sin validación técnica ni legal.
El fenómeno no se resuelve con prohibiciones. Se resuelve con alternativas institucionales que funcionen y con una cultura de claridad normativa.
La diferencia entre una organización que gestiona ese riesgo y una que lo ignora es, en muchos casos, la diferencia entre un incidente contenido y una crisis reputacional.
Lo que vi desde adentro
He tenido la oportunidad de implementar sistemas de AI en entornos donde el margen de error tiene consecuencias directas: en banca regulada, en producción de contenido para medios con distribución continental, en instalaciones de patrimonio cultural donde la representación de una identidad histórica no admite ambigüedades.
En cada uno de esos proyectos, la parte técnica fue la más sencilla. La compleja —y la más frecuentemente ignorada— fue definir los límites de autoridad del sistema antes de desplegarlo.
Con Santander Querétaro, el avatar conversacional de control de acceso opera en un entorno de alta seguridad financiera. Cada interacción tenía trazabilidad.
Cada respuesta del sistema pasaba por criterios de cumplimiento definidos de antemano. No porque la tecnología lo exigiera, sino porque el entorno regulatorio y la responsabilidad institucional lo demandaban.
En el caso de los medios, el escenario tiene otra dimensión. TVOAI Channel distribuye contenido curado por AI a través de Roku en México y Estados Unidos y LG Channels en toda América Latina.
Un sistema que toma decisiones editoriales a escala, sobre audiencias en múltiples mercados y marcos regulatorios distintos, no puede operar sin criterios de supervisión documentados. El volumen lo hace inevitable. La geografía lo hace complejo. La responsabilidad institucional lo hace innegociable.
En ambos casos, la gobernanza no fue un añadido posterior. Fue una condición de diseño.
El vacío que nadie quiere nombrar
La conversación pública sobre AI en las empresas está dominada por dos narrativas: la del entusiasmo (transformará todo, la eficiencia se multiplicará, la ventaja competitiva llegará a quien adopte más rápido) y la del miedo difuso (nos quitará empleos, las máquinas tomarán el control, el futuro es incierto).
Ninguna de las dos es útil para un directivo que tiene que decidir hoy qué hacer con los agentes que su equipo ya está desplegando.
Lo que falta en esa conversación es más prosaico y más urgente: ¿Qué puede decidir el agente por sí solo? ¿Qué requiere la aprobación humana? ¿Qué pasa cuando el agente actúa fuera del rango esperado? ¿Quién en la organización recibe esa alerta? ¿Existe un registro auditable de lo que el agente hizo y por qué?
Estas no son preguntas filosóficas. Son de gestión de riesgo operativo. Y la mayoría de las organizaciones que hoy despliegan agentes no tienen respuestas documentadas para ninguna de ellas.
Lo que significa supervisar lo que no duerme
Un agente de AI puede operar las 24 horas, los siete días de la semana, sin fatiga, sin distracción, sin los sesgos emocionales que frenan a un humano en un mal día. Esa es su fortaleza genuina.
Es también la razón por la que su supervisión no puede ser episódica. No alcanza con revisar los resultados una vez por semana. No es suficiente con confiar en que “el sistema está funcionando bien” porque nadie ha reportado problemas.
Los incidentes con agentes autónomos no siempre se manifiestan como errores obvios. Aparecen como derivas graduales: decisiones que individualmente parecen razonables y que acumuladas producen un patrón que nadie diseñó y nadie quiso.
Supervisar un agente requiere definir métricas de comportamiento esperado, establecer umbrales de intervención, mantener trazabilidad de acciones y construir los mecanismos para que un humano pueda asumir el control en cualquier momento. No como contingencia. Como arquitectura de diseño desde el inicio.
Lo aprendí redactando la política. Lo confirmé desplegando los sistemas.
La autoridad que se delega no desaparece
Cuando una organización despliega un agente autónomo, no elimina la responsabilidad sobre sus acciones. La traslada hacia arriba en la cadena de mando: alguien tomó la decisión de desplegarlo, alguien definió —o no— sus límites y alguien es responsable de supervisar que opera dentro del rango que la organización puede respaldar institucional, legal y éticamente.
La pregunta no es si confiar en la tecnología. Esta, bien diseñada, es confiable dentro de sus parámetros. La cuestión es si la organización ha hecho el trabajo de definir esos parámetros con precisión, y si tiene los mecanismos para verificar que se respetan.
Desplegar un agente sin esa arquitectura de gobernanza no es innovación. Es tercerización de decisiones sin contrato.
Y cuando algo salga mal —y en algún momento saldrá— la pregunta de quién responde no tendrá una respuesta cómoda. Lo sé porque construí el marco que lo previene. Y porque sé exactamente cuántas organizaciones todavía no lo tienen.







