HPE presenta HPE GreenLake para Grandes Modelos de Lenguaje (LLMs)

HPE presenta HPE GreenLake para Grandes Modelos de Lenguaje (LLMs)

HPE GreenLake para Grandes Modelos de Lenguaje (LLMs) combina las supercomputadoras de HPE y el software de IA.

HPE GreenLake para Grandes Modelos de Lenguaje (LLMs), es una nueva clase de nube de IA en la que combina la potencia de las supercomputadoras tradicionales con la agilidad y facilidad de uso de la nube.

Desde la compañía también anuncian que está será la primera de una serie de aplicaciones de IA: Entrena, ajusta y despliega rápidamente LLMs bajo demanda en una nube multiinquilino. HPE GreenLake para LLMs se ejecuta en una plataforma de supercomputación sostenible que combina las supercomputadoras líderes en el mercado de HPE y el software de IA, ofreciendo capacidades para casos de uso que requieren procesamiento y análisis de texto e imágenes.

En cuanto a sus capacidades desde el lanzamiento, HPE GreenLake para LLMs cuenta con acceso a Luminous, un modelo de lenguaje grande preentrenado de Aleph Alpha. Además, los usuarios pueden cargar sus propios datos, entrenar y ajustar un modelo personalizado para obtener información en tiempo real.

Por otro lado, desde HPE también han destacado que la nueva herramienta cuenta con aplicaciones futuras, como el Modelado climático, el descubrimiento de medicamentos, aplicaciones para servicios financieros, manufacturero y el transporte.

HPE Acelera la IA de manera responsable

El funcionamiento de HPE GreenLake para LLMs esta basado en biblioteca de modelos, ya sean de código abierto o de modelos propietarios disponibles para su compra, como Luminous de Aleph Alpha.

HPE también ha dispuesto dos Plataformas de software de IA. La primera de ellas destinada al entorno de desarrollo de aprendizaje automático de HPE. Esta plataforma permitirá entrenar rápidamente modelos generativos de IA de forma distribuida. Además, también dará pie a la optimización inteligente de hiperparámetros, y contará con soporte integrado para TensorBoard y Jupyter Notebooks.

Por otro lado, la segunda de las plataformas estará destinada a la gestión de datos de aprendizaje automático de HPE, con la que se podrá integrar, rastrear y auditar datos con IA reproducible. Además, tambié permitirá procesar cargas de trabajo de ML a escala de petabytes hasta un 40% más rápido y reproducir cualquier resultado capturando la genealogía de los datos. Se trata por lo tanto de una nube híbrida real: agnóstica del lenguaje y las herramientas.

En cuanto a la optimización de la infraestructura de HPE y IA, el entorno de programación HPE Cray consiste en un conjunto de software completamente integrado para optimizar aplicaciones de HPC e IA completo de herramientas para desarrollar, portar, depurar y ajustar código, que cuenta con una mayor tasa de finalización de trabajos que permite obtener ideas más rápidamente en el mercado.