Anthropic y Google Cloud anunciaron oficialmente el jueves su alianza en la nube, un acuerdo que otorga a la startup de inteligencia artificial (AI, por sus siglas en inglés) acceso a hasta un millón de unidades de procesamiento tensorial (TPU) diseñadas a medida por Google.
El acuerdo, valorado en decenas de miles de millones de dólares, es el mayor compromiso de la compañía en materia de TPU hasta la fecha y se espera que supere con creces un gigavatio de capacidad de cómputo de AI en 2026.
Según estimaciones de la industria, el coste de un centro de datos de 1 gigavatio ronda los $50,000 millones de dólares, de los cuales aproximadamente 35 000 millones se destinan habitualmente a chips.
Mientras que sus competidores presentan proyecciones aún más ambiciosas —entre ellas, el “Stargate” de 33 gigavatios de OpenAI—, la apuesta de Anthropic es una discreta maniobra de poder basada en la ejecución, no en el espectáculo.
Fundada por antiguos investigadores de OpenAI, la compañía ha adoptado deliberadamente una filosofía más lenta y estable, eficiente, diversificada y centrada en el mercado empresarial.
Un aspecto clave de la estrategia de infraestructura de Anthropic es su arquitectura multinube.
La familia de modelos de lenguaje Claude de la compañía se ejecuta en las TPU de Google, los chips Trainium personalizados de Amazon y las GPU de Nvidia. Cada plataforma está asignada a cargas de trabajo especializadas como entrenamiento, inferencia e investigación.
Google afirmó que las TPU ofrecen a Anthropic una excelente relación precio-rendimiento y eficiencia.
“Anthropic y Google mantienen una larga colaboración y esta última expansión nos ayudará a seguir aumentando la capacidad de procesamiento que necesitamos para definir la frontera de la AI“, declaró Krishna Rao, director financiero de Anthropic, en un comunicado.
La capacidad de Anthropic para distribuir las cargas de trabajo entre los proveedores le permite ajustarse a las limitaciones de precio, rendimiento y consumo.
Según una persona familiarizada con la estrategia de infraestructura de la compañía, cada dólar de computación rinde más con este modelo que con arquitecturas de un solo proveedor.
Google, por su parte, está apostando por esta colaboración.
“La decisión de Anthropic de ampliar significativamente el uso de TPU refleja la sólida relación precio-rendimiento y la eficiencia que sus equipos han experimentado con las TPU durante varios años”, declaró Thomas Kurian, director ejecutivo de Google Cloud, en un comunicado, promocionando el acelerador “Ironwood” de séptima generación de la compañía como parte de una cartera en proceso de maduración.







