Sistemas All-Flash y Cloud: el presente de los sistemas de almacenamiento

AlmacenamientoBig DataCloudDatos y AlmacenamientoGestión CloudServidores

Expertos de NetApp y Rubrik nos cuentan qué soluciones existen para afrontar la explosión de datos en las empresas.

El mundo actual es un mundo cargado de datos. Las empresas se enfrentan a una auténtica avalancha de información que deben almacenar y gestionar de la mejor manera posible, ya que de ello depende su eficiencia. Para ahondar en la evolución que están experimentando los centros de datos hacia unos modelos precisamente más eficientes, NetMediaEurope ha reunido a dos expertos de la industria tecnológica: Jaime Balañá, director técnico de NetApp, y Miguel Ángel Serrano, Sales Engineer de Rubrik.

Estos profesionales han sido los protagonistas del encuentro online “Sistemas All-Flash y Cloud: el presente de los sistemas de almacenamiento”. En una conversación moderada por Mónica Valle, periodista especializada en TI, ambos han valorado el papel del hardware y la importancia del software para dar respuesta a las necesidades de almacenamiento y gestión de recursos de las organizaciones actuales.

Sistemas All-Flash y Cloud: el presente de los sistemas de almacenamiento

Una nueva generación de plataformas de almacenamiento

“Para las empresas, los datos son uno de los activos más importantes”, afirma Jaime Balañá, director técnico de NetApp, que se refiere tanto a aquellos “que permiten que la empresa funcione, como las bases de datos de recursos humanos o de contabilidad”, como a “todos los datos que se gestionan en la propia actividad”. Y cada vez hay más cantidad, porque también “se están generando muchos datos a partir de los datos”, lo que obliga a las organizaciones a “tratar sus datos de una forma eficiente” y “global”, en palabras de Balañá. O “muy sencilla”, según Miguel Ángel Serrano, Sales Engineer de Rubrik.

Serrano cree que en la nueva generación de soluciones de almacenamiento “la simplicidad tiene que ser lo principal, porque es lo que luego permite que las empresas sean mucho más versátiles a la hora de desarrollar su actividad. También es necesario que sea una gestión de datos que abarque todas las posibilidades de despliegue que tienen las empresas”, continúa, “tanto en el cloud como en casa del propio cliente o en casa de algún proveedor de servicios”. Y a esto se suma la “escalabilidad”, para “crecer” y “también decrecer según las necesidades del negocio”.

Además de “la sencillez”, Jaime Balañá hace hincapié en “la eficiencia”. Esto significa “no trasladar los costes de lo que serían soluciones empresariales a la empresa de una forma directa, sino intentar hacer un escalado”, explica el directivo de NetApp, o “disipar esos costes entre diferentes dispositivos, entre diferentes niveles de almacenamiento o de backup”.

El hardware y el software

“Lo que le gustaría casi a cualquier empresa es poder desligarse totalmente del hardware y tener una plataforma de software que fuese capaz de funcionar sobre cualquier tipo de hardware”, opina Jaime Balañá. Pero resulta “una quimera” usar “un software que sea más o menos aplicable a cualquier caso”. Balañá explica que en ocasiones es necesario “integrar el software con el hardware” de cara a su optimización, como con Tier 1. En esto coincide Miguel Ángel Serrano, que afirma que para “sistemas de alto rendimiento” sería “prácticamente una quimera quitarse el hardware de en medio”. Así que lo que se busca es que el hardware “sea dirigido por el software”.

 

Las unidades flash aportan “principalmente” velocidad, según Jaime Balañá. “Velocidad tanto en lectura como escritura”, y asimismo “en la latencia, en la velocidad a la que recibimos el dato y lo podemos enviar”. Este experto destaca que “muchas de las necesidades que tenían las aplicaciones” se han pasado “a otras partes del ciclo del dato” y que “podemos utilizar menos capacidad para almacenar más datos, con lo cual tenemos también otro ahorro adicional”.

“Quizá no lleguemos a un data center 100 % flash pero casi”, augura Balañá, que comenta que “los discos tradicionales no van a desaparecer de la noche a la mañana”, ya que “siguen teniendo su parte del mercado”. En este sentido, Miguel Ángel Serrano, apunta que, “desde el punto de vista de backup sigue siendo fundamental”. Aunque ha habido cambios. “Antiguamente teníamos el disco SSD, el disco SAS de media velocidad y el disco SATA para albergar backup, archivos o datos de poca criticidad o poca velocidad”, relata el representante de Rubrik. “Lo que hemos visto es que el disco SAS ha desaparecido prácticamente”.

Él piensa que SAS acabará “sustituido” para dato productivo, por un lado, por “los nuevos discos SSD tipo NVMe enganchados directamente al bus PCI, quedando como disco rápido” o “como el antiguo disco SSD” y, por otro lado, por “el disco SSD más tradicional, el que tenemos ahora prácticamente en el 100 % de las empresas” para “gama media”. Aquí entrarían también “dispositivos más rápidos que están por venir, tipo SCM (storage class memories)”. Sí se debería mantener para copia de seguridad, de acuerdo con Rubrik, el disco SATA. “Usar disco SSD para albergar archivos de larga retención es totalmente impensable”, valora Serrano, que recuerda que el precio por tera respecto a SATA es “un 10x”.

En cuanto al software, Rubrik defiende una plataforma de gestión que cumpla con las premisas de “sencillez” y “eficiencia”, que permita “abaratar los costes” para mantener datos durante años y que garantice “la movilidad”. Esto es, que el “dato pueda ser movido tanto on-premises como directamente a los diferentes proveedores de cloud”. Y NetApp apuesta por una plataforma que abarque “todo el ciclo de vida del dato: desde el dato productivo hasta el backup, hasta un disaster recovery, y a través de cualquier modelo de despliegue”. La plataforma debería ser “abierta”, dar acceso “a las tecnologías nuevas que lleguen sin mucha disrupción” y dar “la seguridad de tener siempre el control”.

A la hora de hacer backup, ¿mejor en local o en la nube?

A la hora de elegir soluciones de backup y restauración de datos “lo que importa”, para Jaime Balañá, es que haya “una gestión única, uniforme, independientemente de qué medios esté utilizando por debajo” la empresa, “si es un cloud o es una máquina propiedad del cliente”. Pero, ¿hay alguna ventaja o inconveniente que destaque? Balañá responde que el cloud aporta “sencillez, no tener que desplegar un sistema de backup porque ya está en la nube y tú pagas al mes tu cuota y ya lo tienes. La otra ventaja”, dice, puede ser también la flexibilidad” de las distintas ofertas “y poder ir cambiando entre unas y otras según te convenga por precio o por situación”. Pero no todo son puntos a favor.

Una gran desventaja, desde el punto de vista del director técnico de NetApp, es “el coste. Los servicios en la nube son muy cómodos y muy simples pero no son baratos”, explica. “Dependiendo del tamaño de la empresa o del tamaño de lo que se quiera hacer no resulta económico”. Además, “otro problema es perder el control de los datos”. En comparación, “tener los datos en backup con un sistema que tú has diseñado muchas veces es una opción bastante más válida en el caso de que por temas de regulación”, por ejemplo, “necesites tener ese control”, cuenta Balañá. A lo que Miguel Ángel Serrano añade “la localización del backup en el sentido de la proximidad”.

La solución “nos la va a dar principalmente la necesidad del negocio que tengas”, resuelve Serrano. “Si necesitamos un backup rápido y un backup que sea recuperable también de manera efectiva”, aventura, “necesitaremos tener el backup cerca del dato productivo”. El Sales Engineer de Rubrik especifica en todo caso que no todo son nubes públicas, sino que también se podría utilizar “una nube privada dentro de la propia empresa” que “abarata mucho los costes” y sería conveniente para “las largas retenciones” de “datos que normalmente no necesitamos ya recuperar”.

¿Y quién puede irse a la nube? A una infraestructura exclusivamente cloud puede recurrir “cualquier tipo de empresa”, resuelve Jaime Balañá. “Lo más probable es que sean empresas pequeñas con pocos recursos los que empiecen así, pero cualquier tipo de empresa se podría beneficiar de esta estrategia”, insiste. También ciertos departamentos dentro de una compañía grande, como “departamentos de desarrollo o departamentos de innovación” a los que “les resulta muy económico y mucho más sencillo” acometer pruebas en la nube.

El presente y el futuro

Miguel Ángel Serrano, Sales Engineer de Rubrik, sostiene que “es muy difícil de prever” qué pasará en los próximos años respecto a las plataformas de gestión de datos. Pero el hecho de que hoy en día se esté avanzando “en temas de machine learning” y “en temas de inteligencia artificial” hace suponer que por ahí irán “los siguientes pasos”. En esto coincide Jaime Balañá, director técnico de NetApp, que relata que las tendencias actuales se encaminan “a la orquestación de todo”, a “que todo esté lo más automatizado posible para evitar fallos humanos” y conseguir que los procesos “sean exactamente iguales”. Balañá habla también de la influencia de “internet of things” y la necesidad de gestionar grandes cantidades de datos.

El disco SSD “será el futuro” para el backup, según aventura Serrano, que añade que ya “es el presente” para “sistemas productivos”. Balañá dice que irán llegando “tecnologías que están más próximas a lo que sería la memoria de los servidores”, que en un inicio se usarán “como caché de los datos almacenados” y “poco a poco se van a ir adoptando como un medio de almacenamiento definitivo”. Este directivo explica que ahora mismo los clientes se mueven “en tres direcciones. Una primera sería que todos están intentando ir al cloud”, donde destaca lo “híbrido”. Además, reclaman un “data center de nueva generación” con “poca dependencia del hardware”. Y, a mayores, buscan actualizar sus centros con “nuevas tecnologías” como “innovaciones en las redes”.

Lea también :
Leer la biografía del autor  Ocultar la biografía del autor