OVHcloud amplía su cartera de soluciones de inteligencia artificial

Lanza ofertas basadas en diferentes GPUs de NVIDIA: H100, A100, L40S y L4.

OVHcloud incorpora nuevas gamas de GPU NVIDIA para ampliar las soluciones de inteligencia artificial (IA) a disposición de sus clientes. Estos podrán elegir entre una oferta variada para impulsar cargas de aprendizaje automático, incluyendo grandes modelos de lenguaje (LLM).

La idea es que desarrollen su negocio en torno a “un ecosistema de soluciones de IA innovadoras, sencillas y asequibles, basadas en modelos transparentes, éticos y abiertos que preserven la confidencialidad de los datos”.

“La IA”, explica Michel Paulin, CEO de OVHcloud, “transformará seriamente el negocio de nuestros clientes y estamos en una posición ideal para ayudarles a realizar fácilmente esta transición hacia una nueva era”.

“Con una infraestructura de IA única que aprovecha nuestra experiencia y las GPU más solicitadas, ofrecemos un rendimiento de primera clase con todas las ventajas del cloud”, dice.

“Nuestros clientes de soluciones de IA también se beneficiarán de estas novedades a través de nuestras sencillas ofertas AI Notebooks, AI Training y AI Deploy”, añade el directivo.

OVHcloud mejora así sus infraestructuras para IA basadas en GPUs NVIDIA H100, NVIDIA A100, NVIDIA L40S y NVIDIA L4. Al aprovechar NVIDIA A100 y NVIDIA H100 potencia el entrenamiento de aprendizaje profundo.

Las nuevas instancias NVIDIA A100 de 80 GB, ya disponibles, sirven para ejecutar proyectos complejos en Tensor Cores. Estas instancias de Public cloud pueden configurarse como A100-180 (1x A100, 15 vCore y 180 GB de RAM), A100-360 (2x A100, 30 vCore y 360 GB de RAM) y A100-720 (4x A100, 60 vCore y 720 GB de RAM).

El uso de la GPU NVIDIA A100 también puede aprovecharse para temas de inferencia y computación de alto rendimiento.

En cuanto a las instancias basadas en NVIDIA H100, con 26 petaFLOPS, se dirigen a modelos de IA exigentes, desde acelerar LLM con Transformer Engine o crear aplicaciones de IA generativa. Para casos complejos se utilizarán soluciones basadas en NVIDIA H100 SXM, con 67 TFlops.

La lista se completa con el lanzamiento de instancias GPU de Public cloud y servidores Bare Metal con NVIDIA L4 y L40S. La L4 destaca por su arquitectura Ada Lovelace, mientras que L40S aprovecha los Tensor Cores de cuarta generación y el FP8 Transformer Engine. OVHcloud añade L4 a la gama SCALE-GPU y L40S a HGR-AI.

“Las empresas buscan servicios y opciones flexibles en la nube para impulsar la innovación internamente y ayudar a sus clientes a adoptar nuevas aplicaciones de IA generativa”, declara Matthew McGrigg, director de desarrollo global para partners cloud de NVIDIA.

“Al ofrecer una gama completa de soluciones de computación aceleradas por NVIDIA”, señala, “OVHcloud admite una gran variedad de cargas de trabajo, desde la inferencia hasta el entrenamiento”.