2020, el gran año de los sistemas hiperconvergentes

Nadie puede parar ya a la hiperconvergencia, que ha dejado de ser una posible alternativa a los sistemas de TI tradicionales para convertirse en la opción que más crece a la hora de afrontar la actualización de la infraestructura de computación y el almacenamiento de las organizaciones. Para comprender mejor lo que está pasando, NetMediaEurope ha reunido a tres expertos de la industria tecnológica: Julia Santos, Country Manager de Rubrik en Iberia; Rafael Arroyo, director general adjunto de Prosol; y Alejandro Solana, GSI/GSP Solution Architecture en Nutanix.

Estos profesionales son los protagonistas del encuentro online “2020, el gran año de los sistemas hiperconvergentes”. En una conversación moderada por Mónica Valle, periodista especializada en TI, han analizado el estado actual de la hiperconvergencia, sus beneficios, sus desafíos, la importancia de encontrar un buen compañero de viaje o la relevancia del software, que ya está maduro, También nos han dado algunos consejos para adoptar una tecnología que es capaz de adaptarse a diferentes entornos.

Más que una moda, una necesidad

Cada vez más organizaciones apuestan por la hiperconvergencia, y detrás hay una motivación de “supervivencia”. Así lo cree Alejandro Solana, GSI/GSP Solution Architecture en Nutanix, que explica que en pleno “contexto digital” las empresas “necesitan sacar nuevos servicios rápidamente. El tipo de arquitectura de aplicaciones ha evolucionado y son mucho más distribuidas”, indica. La nube es fruto de este contexto, mientras que “el dato ha experimentado un crecimiento exponencial” y vuelve “inviable” el uso de “una infraestructura tradicional” con largos tiempos de “instalación, configuración y mantenimiento”.

Lo que viene a hacer la hiperconvergencia es simplificarlo todo: “hace la vida más fácil” y permite “decidir de qué manera utilizar la infraestructura en función de los servicios que tengas que provisionar”, destaca como ventajas Solana.

Rafael Arroyo, director general adjunto de Prosol, coincide en que ahora mismo “hay una necesidad de simplificarlo absolutamente todo”, sobre todo “las partes más áridas dentro del centro de proceso de datos”. Esto viene acompañado del nacimiento de “jugadores nuevos, que son los que facilitan precisamente incorporar este tipo de tecnologías y al mismo tiempo fuerzan a los existentes a tratar de alinear sus propuestas tecnológicas”.

“La irrupción de nuevos tipos de negocios que hacen que los negocios tradicionales tengan que competir brutalmente” es algo que también destaca Julia Santos, Country Manager de Rubrik Iberia. Estos últimos “tienen una necesidad de adaptarse muy rápidamente y muchísimas veces las tecnologías de la información están actuando como stoppers. Por tanto, es necesario incrementar la eficiencia operacional, la puesta de los productos y de las soluciones en el mercado mucho más rápido”. En definitiva, tienen que “ser más ágiles”.

Entre ambas tendencias, el incremento de la demanda y la competencia en la oferta, generan “una espiral virtuosa” que lleva a Rafael Arroyo a plantearse que 2020 no es el único “año de la hiperconvergencia”. Su presencia “va a continuar. Esto no es una moda pasajera”, afirma, sino que el mercado seguirá desarrollándose al menos “hasta 2025”.

Identificando los riesgos

La sed por la hiperconvergencia esta ahí. Pero, ¿cuáles son los desafíos que genera? ¿Y cómo identificarlos?  “Muchas veces las organizaciones deciden implantar este tipo de tecnología” para “eficientarse” o “rentabilizarse”, pero “se olvidan de que esto lleva un ecosistema posterior. Hay que elegir un buen integrador”, señala Julia Santos, y “adicionalmente hay que hacer más transformación en el data center”. Esta experta dice que “la hiperconvergencia está en la parte productiva”, con “el cómputo” y “el almacenamiento” pero además hay que “tener en cuenta las comunicaciones, la red y también, por ejemplo, la protección”.

Para la portavoz de Rubrik no tiene sentido centrarse “en la parte productiva” y dejar “las copias de seguridad, la protección continua del dato, la gobernanza” y “el control” dependiendo de “tecnología tradicional”, ya que se perderán ventajas por el camino “si el ecosistema no acompaña”.

Por su parte, Rafael Arroyo aconseja abordar el “concepto de transformación digital” aparejado a “la modernización del centro de proceso de datos” del mismo modo que “cualquier iniciativa de negocio”. Es decir, la clave está en “planificarlo”, “saber dónde queremos ir” e identificar “las victorias rápidas que queremos obtener”. Y lo ideal sería construir “una infraestructura lo suficientemente sólida, lo suficientemente flexible, lo suficientemente adaptable a cualquier cosa que te pueda venir” y abierto a las “integraciones”.

A partir de ahí, “el riesgo por un lado pasa por no hacer nada”, opina Arroyo. “Y luego, cuando has decidido hacer algo”, el riesgo sería plantear “una evolución o demasiado drástica o a salto de mata”. Junto “en ese momento es cuando te metes en el lío”.

Aquí la nube pública puede servir “como referencia”, según Alejandro Solana, ya que ha proporcionado “la experiencia de consumir”: “al final tienes un portal que es un puzle”, “eliges las piezas y te montas lo que necesitas para un determinado servicio. La idea de la hiperconvergencia, que ha nacido además en el contexto de cloud pública y tiene como referencia esa experiencia de consumo”, habría que encararla del mismo modo: dejando “a las organizaciones que utilicen aquello que necesitan de la manera más ágil posible”.

La hiperconvergencia busca que convivan “lo tradicional y lo futuro en un modelo que sea sencillo”, resume Solana. Se trata de simplificar “a la mínima expresión” las “horas de instalación” y “configuración”, y todo aquello típico “del mundo más tradicional”, y de “consumir los servicios ubicándolos allí donde necesito”. O de “hacer la infraestructura invisible, ya sea on-prem o cloud público, y dar a las organizaciones la capacidad de elección: dónde ejecuto qué en función al rendimiento, coste y a la seguridad que la organización demanda”, termina el representante de Nutanix.

Un problema “que se genera a posteriori es ‘yo he adoptado un montón de tecnologías, ¿pero ahora cómo las controlo?, ¿cómo las gestiono?, ¿cómo las securizo?, ¿cómo las protejo?’. Ese es, desde el punto de vista de la integración, el gran reto”, cuenta Rafael Arroyo. “¿Cómo somos capaces de dotarnos de herramientas comunes a todos y cada uno de los entornos para que esto no se convierta en una pesadilla de gestión?”.

Lo que plantea Solana es “estandarizar por debajo de la infraestructura, ya sean servidores, de cualquier hardware, con cualquier hipervisor, o cloud público de cualquier fabricante. O por encima, cualquier tipo de carga desde aplicaciones más legacy, bases de datos, servidor de aplicaciones, contenedores, entornos de Big Data, inteligencia artificial…”.

El software, un peso pesado

En este escenario el software tiene un peso cada vez mayor. Alejandro Solana lo explica así: “la flexibilidad, la capacidad de elección y el poder hacer lo que las organizaciones demandan no puede acabar consolidado en un determinado hardware”, “hipervisor”, “herramienta o silo”. Lo que se busca “es proporcionar capacidad de elección, flexibilidad, y eso se hace vía software. De hecho, proporciona el beneficio de estandarizar”, dice, antes de añadir que la tendencia es “ir a un mundo software-defined en todas las capas”.

Tanto para Rafael Arroyo como para Julia Santos, el software lo “es todo”. El directivo de Prosol comenta que “las diferencias que se producen entre una plataforma hardware y otra son mínimas”, pero que “las bondades las incorporas incorporando capas de software”. Es decir, que lo que va a marcar la diferencia y evita caer en el “vendor lock-ines, precisamente “qué flexibilidad y qué capacidad de adaptabilidad tienen las diferentes capas de software que tú incorporas”.

La ejecutiva de Rubrik añade que “el hardware está tan comoditizado que lo importante son las funcionalidades que proporcionas, y se proporcionan con el software”. Otro punto importante son las APIs, “no solo las funcionalidades que tú das en el software, que sea abierto, que puedas correr en todo tipo de plataformas hardware comoditizadas, sino también que luego tengas capacidad de integrarte y de hablarte con otros”.

Recomendaciones para abrazar la hiperconvergencia

Para animar a los más indecisos a lanzarse a la hiperconvergencia, desde Nutanix aconsejan “analizar su status quo y elegir muy bien un primer caso de uso. Al final, introducir una nueva tecnología en cualquier data center acaba siendo un desafío, porque estás acostumbrado a trabajar con determinados procesos, con determinadas tecnologías, incluso las personas necesitan formación”, relata Alejandro Solana, que a través de ese primer caso indica que ya se puede “coger confianza”.

Tras el experimento, habría que “ir identificando nuevas cargas”. Aquí “contar con colaboradores” con “experiencia es fundamental”, dado que “hacerlo todo solo es bastante complicado”. El “valor diferencial” deriva de “elegir bien los compañeros de viaje y soluciones que te permitan, con el assessment adecuado por parte del integrador, establecer tu roadmap con las distintas piezas para montar lo que realmente necesitas”.

En esto coincide Rafael Arroyo, que apunta que “uno solo no puede hacerlo todo” y que empeñarse en ello llevará al fracaso. “El compañero de viaje tiene que ser un compañero con una apuesta a medio plazo”, determina el director de Prosol. Este también cree que “no se puede plantear ni una infraestructura hiperconvergente ni una tradicional sin contemplar cuáles son las aristas y las integraciones que hay que realizar con el resto del data center” porque si “cambio una cosa”, “se verán afectadas todas las demás”.

Arroyo apuesta por “llevar la contraria a lo que es el mercado español, que es muy de hard discount”, de ver “cuánto me cuesta el hardware y el software y, a partir de ahí”, quedarse con “la opción más barata. Nosotros siempre insistimos en que tenemos que analizar cuál es el coste total”, explica, incluyendo “trabajo que me cuesta”, “asistencias que tengo que contratar”, “costes de los periféricos”… y toda una serie de “segundas y terceras derivadas”. Lo peor es adoptar “la decisión fácil que dos años después genera una deuda técnica espectacular e impagable”.

“Es cierto que lo que hay que tener en cuenta es el coste total”, asiente Julia Santos, para quien la mejor opción para iniciarse en una “tecnología nueva” sería “buscar un caso de uso” con el que “experimentar”, una “capacitación o incluso una pequeña transformación también de los procesos o hasta organizativamente”. Sea como fuere, no hay “ninguna duda” de que “la simplicidad y la reducción del coste de propiedad”, recalca Santos, “son beneficios que se obtienen y además de forma bastante rápida”.

Redacción Silicon

La redacción de Silicon está compuesta por profesionales del periodismo 2.0

Recent Posts

Samsung y su inteligencia artificial buscan respaldar a las pymes en España

Desde Samsung destacan la relevancia de los nuevos dispositivos con IA para mejorar las operativas…

17 horas ago

La privacidad, el talento y los presupuestos, tres desafíos para la innovación

Un 68 % de los profesionales encuestados por Dell Technologies teme que la IA generativa…

19 horas ago

Snowflake lanza Arctic

Arctic, de Snowflake, es un LLM empresarial con licencia Apache 2.0 que establece un estándar…

19 horas ago

HPE Aruba Networking anuncia nuevos puntos de acceso WiFi 7

Sus soluciones son capaces de utiliza por completo las bandas de 5 y 6 GHz,…

21 horas ago

Lenovo ahonda en la era de la inteligencia artificial con tres PC ThinkCentre M75

Introduce los ordenadores ThinkCentre M75t Gen 5, ThinkCentre M75s Gen 5 y ThinkCentre M75q Gen…

21 horas ago

CrowdStrike Falcon XDR incluirá los servicios de IA de NVIDIA

CrowdStrike y NVIDIA se unen para prevenir problemas con la creación de modelos de seguridad…

22 horas ago