A Microsoft le gustaría utilizar principalmente sus propios chips en sus centros de datos en el futuro, según declaró el miércoles el director de tecnología del gigante tecnológico, una medida que podría reducir su dependencia de grandes empresas como Nvidia y AMD.
Los semiconductores y los servidores que se encuentran dentro de los centros de datos han impulsado el desarrollo de modelos y aplicaciones de AI.
El gigante tecnológico Nvidia ha dominado el sector hasta la fecha con su unidad de procesamiento gráfico (GPU), mientras que su rival AMD tiene una cuota menor.
Sin embargo, las principales empresas de computación en la nube, como Microsoft, también han diseñado sus propios chips personalizados específicamente para centros de datos.
Kevin Scott, director de tecnología de Microsoft, expuso la estrategia de la compañía en torno a los chips para AI durante una charla informal en la Tech Week 2025 en Turín (Italia), moderada por CNBC.
Microsoft utiliza principalmente chips de Nvidia y AMD en sus propios centros de datos. La atención se ha centrado en seleccionar el silicio adecuado (abreviatura de semiconductor) que ofrezca la mejor relación calidad-precio por chip.
“No somos muy estrictos con los chips. Y eso ha significado que la mejor solución en relación calidad-precio ha sido Nvidia durante años”, afirmó Scott. “Consideraremos cualquier cosa con tal de asegurarnos de tener suficiente capacidad para satisfacer esta demanda”.
Al mismo tiempo, Microsoft ha estado utilizando algunos de sus propios chips.
En 2023, Microsoft lanzó el Acelerador de AI Azure Maia, diseñado para cargas de trabajo de AI, así como la CPU Cobalt. Además, se informa que la empresa está trabajando en su próxima generación de productos semiconductores. La semana pasada, el gigante tecnológico estadounidense presentó una nueva tecnología de refrigeración que utiliza “microfluidos” para solucionar el problema del sobrecalentamiento de los chips.
Al preguntarle si el plan a largo plazo es tener principalmente chips de Microsoft en los propios centros de datos de la empresa, Scott respondió: “Absolutamente”, y añadió que la empresa está utilizando mucho silicio de Microsoft actualmente.
El enfoque en los chips forma parte de una estrategia para, eventualmente, diseñar un sistema completo que se instale en el centro de datos, explicó Scott.
“Se trata de todo el diseño del sistema. Se trata de las redes y la refrigeración, y es importante tener la libertad de tomar las decisiones necesarias para optimizar realmente el cómputo según la carga de trabajo”, dijo Scott.
Microsoft y sus rivales Google y Amazon están diseñando sus propios chips no solo para reducir la dependencia de Nvidia y AMD, sino también para que sus productos sean más eficientes según sus requisitos específicos.
Escasez de capacidad de cómputo
Gigantes tecnológicos como Meta, Amazon, Alphabet y Microsoft se han comprometido a invertir más de 300,000 millones de dólares este año, gran parte de los cuales se centran en inversiones en AI para satisfacer la creciente demanda de esta tecnología.
Scott advirtió que todavía hay escasez de capacidad de cómputo.
“Una escasez masiva de cómputo es probablemente un eufemismo”, dijo Scott. “Creo que hemos estado en un estado en el que ha sido casi imposible desarrollar capacidad con la suficiente rapidez desde el lanzamiento de ChatGPT”.
Microsoft ha estado aumentando su capacidad a través de centros de datos, pero aún no es suficiente para satisfacer la demanda, advirtió el director de tecnología.
“Incluso nuestras previsiones más ambiciosas resultan insuficientes constantemente. Por eso… desplegamos una cantidad increíble de capacidad durante el último año y será aún mayor en los próximos años”, declaró Scott.