Ante el secretario de Economía, Marcelo Ebrard, la startup Saptiva presentó KAL, considerado el primer modelo grande de lenguaje (LLM, por sus siglas en inglés) mexicano, que coloca al país como uno de los pioneros en la región y el mundo.
“En América Latina [AL] lo están trabajando Brasil, Chile y nosotros”, afirmó el jueves Ebrard, como lo había adelantado, durante el encuentro México IA + Inversión Acelerada, que contó con el respaldo de Nvidia.
Además de Estados Unidos (OpenAI, Google, AWS o Meta) y China (DeepSeek), son pocas los países con empresas locales que desarrollan sus propios LLM. En la Unión Europea, destacan Francia (Mistral AI) y Alemania (Aleph Alpha).
La empresa brasileña Widelabs (2020) lanzó Amazônia IA, el primer LLM en portugués, mientras que en Chile se anunció la creación de Latam-GPT, un modelo de lenguaje hecho en la región para latinoamericanos, con la colaboración de Argentina, Colombia, Ecuador, Perú, Uruguay y México, que es el segundo país que más documentos aporta.
El director general de Saptiva, Ángel Cisneros, explicó el jueves que KAL “correrá en infraestructura soberana, asegurando que todo el proceso y los datos residan en el país”. En julio pasado, la startup recibió el distinto “Hecho en México” de la Secretaría de Economía.
Ebrard señaló que “lo primero que celebro de la intervención que acabamos de escuchar, muy interesante, es la ambición, la resolución, la decisión de crear nuestro propio lenguaje”.
Saptiva es una empresa mexicana de inteligencia artificial (AI, por sus siglas en inglés), con sede en Ciudad de México, fundada en 2023 por los hermanos Ángel y Jesús Cisneros, los emprendedores detrás de Quiubas Mobile, adquirida por Twilio en 2020. Nvidia la eligió como una de las nueve startups más prometedoras de AL.
Índice de temas
Un LLM que piensa en mexicano
Basado en la arquitectura Mistral AI, KAL está entrenado y adaptado específicamente para el contexto del español de México. En su exposición, Cisneros señaló que tiene “500,000 bases de datos para que el modelo piense en mexicano”.
De acuerdo con su tarjeta en Hugging Face —el ecosistema open source para el desarrollo de modelos—, el LLM demuestra una comprensión profunda de normativas, trámites y lenguaje coloquial mexicano, significativamente superior a modelos generalistas.
Además, entrega respuestas culturalmente apropiadas; es decir, tiene un manejo de sutilezas del español mexicano y referencias culturales específicas.
Su uso puede ser inmediato, sin necesidad de entrenamiento adicional, aunque para información dinámica (trámites gubernamentales, normativas actualizadas), se recomienda integrarlo con sistemas de generación aumentada por recuperación (RAG, por sus siglas en inglés).
KAL puede usarse para la asistencia conversacional avanzada (chatbots), la generación de contenido especializado (borradores, resúmenes y explicaciones sobre temas interrelacionados), sistemas de pregunta y respuesta y herramientas de soporte para trámites.
El modelo puede especializarse aún más para dominios específicos como la atención al cliente en la banca, la asistencia legal y normativa, el soporte técnico en telecomunicaciones, educación y capacitación o comercio electrónico y retail.
KAL reduce tiempos y costos
Entre los resultados del rendimiento de evaluación interna a KAL, destaca 80% de respuestas correctas en contexto mexicano (accuracy) y 80% de respuestas con respaldo verificable (grounding score).
Este último indicador en GPT-4o de OpenAI estaba en 78.8% en diciembre de 2024.
Los creadores de KAL aseguran que a partir de una base que comprende profundamente el español y el contexto mexicano, los entrenamientos especializados (fine-tunings) son significativamente más rápidos y fáciles que entrenar desde modelos generalistas.
Esto se traduce en una reducción de tiempo y costos.







