Categories: CloudServidores

Graviton4 y Trainium2, los nuevos chips diseñados por AWS

Durante el congreso AWS re:Invent que se está celebrando estos días en Las Vegas, el proveedor ha anunciado la disponibilidad de su nueva generación de chips Graviton y Trainium, diseñados íntegramente por la compañía para responder a las cada vez más existentes cargas de trabajo en la nube.

Se trata del complemento ideal para las instancias tradicionales basadas en chips de Intel AMD y Nvidia, que seguirán teniendo una gran relevancia como parte de la oferta de computación de AWS, pero lo cierto es que estos nuevos procesadores ofrecerán más alternativas para los clientes del mayor proveedor de nube pública a nivel mundial.

Además, AWS reducirá su dependencia de terceras empresas a la hora de proporcionar computación en Amazon EC2 mientras aumenta considerablemente las posibilidades de escalabilidad y la relación precio/rendimiento.

AWS Graviton4

La nueva generación de chips Graviton, basada en arquitectura ARM de 64-bit, mejora un 30% el rendimiento de su predecesora, al tiempo que aumenta un 50% el número de núcleos y un 75% el ancho de banda con la memoria de las instancias.

Hasta la fecha, AWS ha fabricado más de 2 millones de procesadores Graviton y ya cuenta con más de 50.000 clientes que han elegido estas configuraciones para sus instancias en Amazon EC2.

El nuevo chip AWS Graviton4

Desde bases de datos a servidores de aplicaciones, pasando por servidores web, analitica o ejecución de microservicios, los chips Graviton4 están diseñados para todas estas cargas de trabajo de lo más variopinto pero que cada vez requieren un mayor rendimiento mientras se reduce el consumo energético.

De forma paralela a este lanzamiento, AWS también ha anunciado las instancias Amazon R8g para EC2, compatibles con los nuevos chips Graviton4. Esta combinación permitirá triplicar tanto el número de CPUs virtuales como la cantidad de memoria disponible en cada instancia.

AWS Trainium2

Como su propio nombre indica, los nuevos chips AWS Trainium2 se han diseñado específicamente para procesos de aprendizaje de máquina y entrenamiento de modelos de inteligencia artificial, incluida la IA generativa.

AWS asegura que los procesos de entrenamiento de IA serán 4 veces más rápidos que la anterior generación de chips Trainium. Sin embargo, el dato que probablemente marque la diferencia es la capacidad de construir clusters en Amazon EC2 de hasta 100.000 chips Trainium2 para procesar de forma mucho más rápida y eficiente cualquier modelo de lenguaje grande (LLM) o modelo básico (FM) que tenga miles de millones de parámetros, lo que es cada vez más habitual en estos ámbitos de alto rendimiento.

AWS Trainium2

Según la compañía, “con este nivel de escala es posible entrenar un LLM de 300.000 millones de parámetros en semanas en lugar de meses”.

AWS y NVIDIA expanden su colaboración

Sin dejar de lado el hardware para la computación de procesos relacionados con inteligencia artificial y aprendizaje de máquina, AWS también anunciaba una colaboración estratégica con NVIDIA para ofrecer nueva infraestructura, software y servicios para este tipo de cargas de trabajo.

Era el propio Adam Selipsky, CEO de AWS, el que invitaba al escenario a Jensen Huang, fundador y CEO de NVIDIA, para ofrecer más detalles sobre la expansión de la colaboración entre ambas compañías.

Como parte de este acuerdo, AWS será el primer proveedor cloud en proporcionar a sus clientes los chips NVIDIA GH200 Grace Hopper junto con la tecnología NVLink para interconectar nodos en la nube. Estas instancias de supercomputación especializadas en IA generativa, permitirán construir verdaderos monstruos con una capacidad nunca vista hasta ahora en la nube gracias a su conexión mediante la red de alta velocidad Amazon EFA.

Otro de los puntos de este acuerdo es la colaboración de ambas compañías para proporcionar NVIDIA DGX Cloud (el entrenamiento de IA como servicio diseñado por NVIDIA) en la nube pública de AWS.

Por último, conviene destacar las tres nuevas instancias EC2 que AWS comenzará a comercializar próximamente: P5e (con GPUs NVIDIA H200 Tensor Core), G6 (con GPUs NVIDIA L4) y G6e (con GPUs NVIDIA L40S), para una amplia variedad de cargas de trabajo menos exigentes pero que también solicitan grandes capacidades de computación.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

Así evolucionará el mercado de los pagos transfronterizos instantáneos

La consultora Juniper Research prevé un incremento del 223 % para el año 2028.

15 horas ago

Silicon Pulse: Titulares de la semana #25

Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…

17 horas ago

Qualys API Security, seguridad con IA para interfaces de programación de aplicaciones

Qualys lanza un sistema de escaneo de aplicaciones con seguridad a nivel de API que…

18 horas ago

La familia Vertiv Liebert GXE crece con sistemas de 1 a 3 kVA

Los nuevos sistemas de alimentación ininterrumpida monofásicos de Vertiv ofrecen protección energética para aplicaciones críticas.

19 horas ago

Showroomprivé publica sus resultados del primer semestre

Las ventas netas de la compañía han caído un 4 % hasta los 318,1 millones…

19 horas ago