NVIDIA responde a la gran demanda de microchips de IA triplicando la producción de chips H100

TSMC estima que la demanda de chips de IA para servidores crecerá aproximadamente un 50 % anual durante los próximos cinco años

Nvidia, líder en diseño de microprocesadores y tarjetas gráficas, ha anunciado su intención de triplicar la producción de sus codiciados chips H100 para satisfacer la creciente demanda del mercado.

La explosiva demanda de chips de Nvidia destinados a proyectos de inteligencia artificial (IA )está dejando su huella en todo el mercado de componentes informáticos. Se informa que la demanda de estos chips especializados está provocando que los servidores convencionales pierdan protagonismo, ya que las empresas y los proveedores de servicios en la Nube buscan potenciar su infraestructura de IA.

Triplicar la producción

Fuentes cercanas a la compañía revelan que Nvidia tiene planes de expandir en gran medida su producción de chips H100. Se espera que para el año 2024, la producción alcance entre 1,5 y 2 millones de chips, lo que representa un impresionante aumento en comparación con los 500.000 chips que se fabricarán en el 2023. El chip H100 es uno de los más potentes en el segmento de IA, y su mayor producción refleja el compromiso de Nvidia con la satisfacción de la creciente demanda.

TSMC, el gigante fabricante de chips que trabaja con Nvidia, estima que la demanda de chips de IA para servidores crecerá aproximadamente un 50 % anual durante los próximos cinco años. A pesar de este crecimiento, la demanda no podrá compensar completamente los desafíos económicos actuales.

Cambio de enfoque en la Nube

En Estados Unidos, los principales actores en la industria de la Nube, como Microsoft, Amazon y Google, están cambiando su enfoque hacia la infraestructura de IA. Esto ha llevado a una disminución en el gasto en infraestructuras convencionales, que se espera que crezca solo un 8 % este año, en contraste con el aumento del 25 % en 2022. La inflación ha desempeñado un papel crucial en este cambio.

Sin embargo la transformación de servidores convencionales en servidores de IA no es una tarea sencilla. Los expertos señalan que esta actualización implica cambios en varios componentes, no solo en las unidades de procesamiento gráfico (GPU). Las empresas deben lidiar con la complejidad y los costos adicionales de esta expansión, que a menudo canibaliza otros gastos planificados.

Inversión y crecimiento

Las previsiones indican que la distribución global de servidores convencionales experimentará una caída del 6 % este año y sólo un ligero crecimiento del 2 % al 3 % en 2024. Esto se atribuye en parte al cambio de enfoque de empresas como Meta, que han reducido la inversión en servidores convencionales para centrarse en hardware de IA.

Uno de los mayores desafíos radica en la producción de memorias HBM, esenciales para los chips de IA. El cuello de botella en la producción de estas memorias, fabricadas por empresas como SK Hynix y Samsung, se espera que persista hasta finales de 2024, lo que puede tener un impacto en la disponibilidad de chips especializados.

La transformación de centros de datos

Además de la producción de chips la transformación hacia servidores especializados en IA también afecta la infraestructura de los centros de datos. Estos servidores requieren placas base específicas y racks más grandes para albergar las potentes GPUs. Además los sistemas de refrigeración y las fuentes de alimentación también deben adaptarse para manejar el calor generado por estos chips de alto rendimiento.

Lea también : Snowflake lanza Arctic