OVHcloud lanza AI Endpoints: IA open source sin servidor y con pago por uso

OVHcloud lanza AI Endpoints, una plataforma serverless con más de 40 modelos de IA open source para facilitar su integración en apps y procesos empresariales.
OVHcloud ha anunciado el lanzamiento de AI Endpoints, una nueva plataforma serverless diseñada para simplificar el acceso a la inteligencia artificial. Con más de 40 modelos open source disponibles desde el primer día, esta solución ofrece a desarrolladores y empresas la posibilidad de integrar rápidamente funcionalidades avanzadas de IA en sus aplicaciones, sin necesidad de gestionar infraestructura ni contar con conocimientos especializados en machine learning.
La propuesta de OVHcloud democratiza el uso de la IA para organizaciones de cualquier tamaño o sector, con un enfoque que combina acceso sencillo, infraestructura soberana europea y modelo de pago por uso.
Funcionalidades IA «llave en mano»
AI Endpoints permite trabajar con grandes modelos de lenguaje (LLM), asistentes conversacionales, modelos de voz, herramientas de asistencia al código o generación de imágenes. Los desarrolladores pueden realizar pruebas en un entorno sandbox y luego escalar fácilmente a producción. Entre los principales casos de uso que admite AI Endpoints destacan:
- Integración de LLMs para mejorar la interacción con usuarios o automatizar atención al cliente.
- Extracción y procesamiento de texto a partir de datos no estructurados.
- Conversión de voz a texto y viceversa, para transcripción o asistentes de voz.
- Asistencia en codificación, con herramientas como Continue integrables en entornos de desarrollo (IDE) que sugieren código, detectan errores y automatizan tareas.
IA en la nube con autonomía estratégica
Uno de los pilares del servicio es su ejecución sobre la infraestructura cloud soberana de OVHcloud, con datos alojados en Europa y protegidos frente a legislaciones extracomunitarias. Los centros de datos con refrigeración líquida de la compañía también aseguran eficiencia energética y bajo impacto ambiental, clave en el despliegue responsable de cargas de trabajo de IA.
Los modelos, además, son open-weight, lo que permite a los clientes desplegarlos también en su propia infraestructura si así lo desean, o integrarlos en otras nubes, manteniendo el control sobre sus datos y procesos.
“Nos enorgullece lanzar AI Endpoints y estamos agradecidos por la activa y valiosa aportación de nuestra comunidad. Al integrar los modelos LLM de código abierto más solicitados, AI Endpoints contribuye a la democratización de la IA y permite a los desarrolladores integrar fácilmente los modelos más innovadores con total confianza en la infraestructura soberana de OVHcloud” afirma Yaniv Fdida, Chief Product and Technology Officer de OVHcloud.
Más de 40 modelos de IA disponibles
AI Endpoints ofrece acceso a una biblioteca que incluye algunos de los modelos más avanzados del mercado, entre ellos:
- LLM: Llama 3.3 70B, Mixtral 8x7B
- SLM: Mistral Nemo, Llama 3.1 8B
- Código: Qwen 2.5 Coder 32B, Codestral Mamba
- Razonamiento: DeepSeek-R1
- Multimodal: Qwen 2.5 VL 72B
- Generación de imágenes: SDXL
- Voz y habla: ASR (speech-to-text), TTS (text-to-speech)
Disponibilidad y precios
La plataforma ya está operativa en Europa, Canadá y la región APAC, desplegada desde el datacenter de Gravelines. AI Endpoints se ofrece con un modelo de pago por uso, basado en el consumo de tokens por minuto, con precios que varían según el modelo utilizado.
Con este lanzamiento, OVHcloud refuerza su compromiso con la IA abierta, accesible y respetuosa con la privacidad, y ofrece una alternativa europea competitiva frente a las grandes plataformas de IA propietarias.