NetApp: “Nuestra oferta hiperconvergente rompe con las limitaciones del mercado en escalabilidad”

CloudDatacenterDatos y AlmacenamientoVirtualización
Jaime Balañá, NetApp

Entrevistamos a Jaime Balañá, CTO de NetApp Iberia, que nos habla de la evolución que ha experimentado el fabricante y de las tendencias que están marcando –y marcarán– la pauta en el datacenter.

La compañía NetApp, especializada en soluciones de almacenamiento, es una de las que han experimentado una importante transformación durante los últimos años para adaptarse a las necesidades del mercado. Ha pasado de vender ‘hierro’ a conformarse como un fabricante de soluciones y servicios. De ello y de otros temas tan interesantes como la hiperconvergencia o el concepto de Storage Class Memory nos habla en esta entrevista Jaime Balañá, CTO de NetApp Iberia.

A pesar de llevar en el cargo desde septiembre del año pasado, Balañá cuenta con una amplia experiencia en la compañía, a la que se incorporó en 2010. Antes de ello formó parte de Sun Microsystems (ahora parte de Oracle) y Telefónica I+D. Estudió Ingeniería Industrial en la Universidad de Zaragoza.

– Jaime, llevas varios meses ya como director técnico en NetApp, ¿qué es lo que más te ha llamado la atención desde tu posición?

La transformación que estamos afrontando, no solamente en estos meses sino desde hace tres años. La nube está impactando en los negocios, especialmente a los que nos dedicamos a la infraestructura. En ese momento comenzamos a hablar de Data Fabric y de nube híbrida, algo que poco a poco hemos bajado a la tierra y que ya es una realidad. Netapp está ahora muy enfocada a los servicios cloud, ya no somos una empresa que fabrica sistemas de almacenamiento únicamente, sino que también proporcionamos software y servicios alrededor de los datos de los clientes.

En este sentido el mercado nos está dando la razón. Los resultados a nivel mundial son muy buenos, las acciones van hacia arriba y los clientes también lo reconocen.

– Cada vez se habla más del almacenamiento definido por software. ¿Cómo impacta esto en  una empresa que arrastraba un modelo de negocio basado en hardware?

La suerte que hemos tenido nosotros es que la apuesta principal de NetApp siempre ha sido ONTAP, el sistema operativo de nuestros sistemas. Lo que hemos hecho ha sido hacerlo evolucionar para llevarlo a otros entornos más allá de la gestión del hardware. Por ejemplo, también lo comercializamos como un software que, virtualizado, es capaz de gestionar sistemas x86 de otros fabricantes. Incluso es posible gestionar sistemas  Metro Cluster (instancias de almacenamiento separadas por mucha distancia) con ONTAP para orquestarlos de forma unificada. Pero tal vez lo más importante es que, al ser software, ONTAP se puede llevar también a la nube.

– A plataformas como Azure y AWS… ¿Cómo está marchando el negocio relacionado con la nube pública?

Es cierto que nuestros clientes aún tienen más presupuesto previsto para el datacenter tradicional, el localizado en sus instalaciones, donde la computación, el almacenamiento y la conectividad están diferenciados físicamente aunque se despliegue virtualización sobre ellos.

Por otra parte tenemos otros clientes que buscan crear de forma privada una nube que se asemeje lo más posible a las arquitecturas públicas de proveedores como Microsoft Azure, AWS o IBM Cloud. Aquí buscan que todo esté definido por software y automatizado. Es lo que denominamos en NetApp el Datacenter de Próxima Generación. Aquí entrarían tecnologías como la hiperconvergencia.

Por último están los presupuestos que las empresas dedican para migrar al cloud [público]. Pero nosotros afrontamos este negocio como un modelo híbrido porque los clientes no quieren llevar todo a la nube, sino que necesitan mantener determinados datos y aplicaciones de forma privada.

A día de hoy nuestra principal fuente de ingresos es la primera modalidad, pero las otras dos están creciendo fuertemente.

– Has comentado las tecnologías hiperconvergentes. Vuestra oferta HCI ha llegado más tarde que otras ya establecidas como las de Nutanix o Simplivity. ¿Cuál es la situación actual de la hiperconvergencia de NetApp y en qué se diferencia de otras alternativas?

Es cierto que ha llegado más tarde al mercado, concretamente en octubre del año pasado. Pero hemos llegado en el momento en que estaba madurando. Y nuestro acercamiento a la hiperconvergencia es totalmente disruptivo si se compara con lo que ya hay. Es así porque hemos adaptado la tecnología proveniente de la adquisición de SolidFire, los sistemas de almacenamiento all-flash, para que sean muy adaptables y flexibles, de tal forma que pueden ejecutar muchas cargas de trabajo de procesos o clientes distintos sin que unas afecten a las otras. Se consigue gracias a un agente que se encarga de asegurar la calidad de servicio de cada ejecución. De esta forma es posible correr cargas variopintas sin tener miedo a perder rendimiento o que deje de funcionar.

Además de esta característica, es muy relevante la capacidad de escalabilidad que tiene nuestra oferta hiperconvergente. Es posible crecer en nodos de computación y almacenamiento de forma independiente y comenzar con 4 nodos de almacenamiento y 2 nodos de computación y aumentar hasta 40 nodos de almacenamiento y 64 nodos de computación, lo que permite a las organizaciones invertir poco al principio y aumentar –o disminuir- su inversión a medida que lo necesiten.

Por último yo destacaría la simplicidad, ya que permite orquestar todo desde la misma interfaz, incluyendo gestión de APIs. Normalmente, los sistemas de NetApp no son gestionados por un administrador de sistemas, sino por un administrador de aplicaciones sin que necesite tener conocimientos avanzados de almacenamiento.

Jaime Balañá, NetApp
Jaime Balañá, CTO de NetApp Iberia

Hay que tener en cuenta que la tecnología de SolidFire está muy implantada en el  mercado, hay muchas organizaciones que cuentan con estos sistemas desde que salieran al mercado hace 6 o 7 años. Lo que hemos hecho en NetApp es montar un sistema de almacenamiento all-flash con nuestra parte de computación basada en VMware. El resultado es un sistema de hiperconvergencia que permite consolidar muchas cargas de trabajo distintas con un rendimiento optimizado y con una gran escalabilidad, pero una escalabilidad de computación y almacenamiento por separado. Es decir, se puede aumentar la capacidad de almacenamiento sin necesidad de hacerlo con el cómputo, y viceversa.

A grandes rasgos, NetApp HCI se comercializa en tres medidas distintas de almacenamiento (pequeña, mediana, grande) y otras tres de computación (pequeña, mediana, grande). Esto se consigue usando slots modulares detrás de cada chasis para añadir una parte u otra según lo requiera el cliente. Y esta funcionalidad es única en el mercado.

En definitiva, nuestra oferta hiperconvergente rompe con las limitaciones de otros fabricantes del mercado ya que para escalar la parte del almacenamiento también tienen que aumentar la computación. Y esto, en términos de licenciamiento, termina siendo más caro para los clientes.

– Dentro del mercado de datacenter, ¿cuál crees que ha sido la mayor disrupción que hemos vivido durante los últimos años?

Yo nombraría dos disrupciones. La primera es el cloud, ya no tanto a nivel tecnológico sino a nivel de consumo de los servicios. El modelo ha cambiado radicalmente y aún queda mucho por venir. Ahora se pueden hacer muchísimas cosas que antes eran imposibles de llevar a cabo. Me estoy refiriendo a tecnologías como el machine learning o la inteligencia artificial, que están cambiando nuestras vidas y van a facilitar que el ser humano viva mejor.

La segunda está relacionada con el almacenamiento, pero también afecta al datacenter. Me refiero a la tecnología flash. El cuello de botella fundamental que se producía en el centro de datos se encontraba precisamente en el lado del almacenamiento. Con la llegada del flash todo esto ha cambiado y ahora se pueden hacer muchas más cosas. Más aún, algunos tipos de disco van a desaparecer debido a ello. La tecnología SATA, mucho más barata a pesar de no aportar mucho rendimiento, va a permanecer en determinados nichos como el backup, pero la SAS probablemente desaparecerá. En nuestro portfolio de soluciones la tecnología SAS es casi residual.

Flash es más caro y la densidad es menor, pero si tenemos en cuenta que esta tecnología permite reducir la información que se tiene que almacenar con técnicas como la compresión, la deduplicación, etc. al final termina siendo más rentable que el uso de discos tradicionales.

– Si miramos a un futuro no muy lejano, ¿qué es lo que llegará en materia de almacenamiento?

Sin lugar a dudas lo que denominamos Storage Class Memory, aunque la industria aún no se ha puesto de acuerdo para darle un nombre comercial. Para Intel y Micron es 3D XPoint y para Samsung es Z-NAND. Viene a ser la tecnología a caballo entre el almacenamiento en disco SSD y la memoria principal de los sistemas. Es cierto que a través del nuevo protocolo NVME es posible acelerar el acceso a los datos notablemente, lo que mejora el rendimiento de los sistemas en torno al 25-30 por ciento. Pero con el uso de ambas tecnologías (NVME + Storage Class Memory), la latencia de los sistemas caerá espectacularmente y, como consecuencia de ello, el rendimiento se disparará hasta un 90 por ciento con respecto a sistemas basados en SCSI/SAS + unidades SSD.

Esta combinación se está utilizando inicialmente para hacer caché, pero en poco tiempo estoy seguro de que Storage Class Memory se usará para el almacenamiento masivo de datos, tal y como ha ocurrido con la tecnología Flash SSD. Es la siguiente gran evolución que afectará a todos los ámbitos de computación, tanto en el datacenter como en el borde.

Artículos relacionados
Leer la biografía del autor  Ocultar la biografía del autor