Ya está aquí el Datacenter Definido por Software

Analizamos en qué punto se encuentra el “Centro de Datos Definido por Software” con la ayuda de cuatro destacados representantes de la industria tecnológica: Intel, Schneider Electric, VMware y Econocom – Ermestel.

A estas alturas de la evolución tecnológica, no hace falta explicar ya qué es eso del Datacenter Definido por Software. Los recursos existen y están identificados. La opción de configurar, desplegar y operar una infraestructura totalmente virtualizada en las empresas es una realidad que sólo necesita seguir madurando. Para analizar en qué punto nos encontramos en España en relación a este centro de datos que se gestiona de manera automatizada, NetMediaEurope ha reunido a un grupo de destacados representantes de la industria: Simón Viñals, Director de Tecnología de Intel Corporation Iberia, Jorge Jiménez, Data Center Business Development de Schneider Electric, Moisés Navarro, Business Solutions Strategist de VMware Iberia y Alberto Carrillo, Business Development Manager de Ermestel – Grupo Econocom. Los cuatro han participado en un encuentro moderado por nuestra compañera Rosalía Arroyo, redactora jefe de ChannelBiz.

 

hp centro de datos unificadoCon ellos hemos hablado durante el evento online “Ya está aquí el Datacenter Definido por Software” del tema de la virtualización de servidores, almacenamiento y redes, por supuesto, pero también de los pujantes Servicios de Aplicaciones Definidas por Software (o SDAS por sus siglas en inglés) y de cuáles podrían ser a partir de aquí los próximos elementos en rendirse a las bondades de la automatización. Con la experiencia de Intel, Schneider Electric, VMware y Econocom – Ermestel, hemos sido capaces de poner sobre la mesa la lista de ventajas que trae aparejadas el nuevo centro de datos, más allá de la evidente flexibilidad. Asimismo, nos hemos preocupado por comprender algo mejor en qué lugar deja al hardware esta transición que está experimentando el software y nos hemos animado a identificar incluso la creación de oficios, la necesidad de adaptación del personal y el rol del actual Chief Information Officer (CIO).

La situación actual en España y sus retos

Las etapas por las que ha ido pasando el centro de datos durante los últimos años son evidentes. Primero se virtualizaron los servidores. A éstos les siguió el almacenamiento. Más tarde se pasó a las redes. “Y ahora”, completa la secuencia el representante de Intel, Simón Viñals, “estamos conceptualizando el concepto de datacenter en sí virtualizado a través del software”. Aunque pudiera parecerlo, “la idea no es virtualizar por virtualizar todo lo que es posible virtualizar, sino hacerlo más flexible, hacerlo más dinámico, hacerlo más manejable desde el punto de vista del software”. Y con el tiempo también más eficiente, algo para lo que trabajan específicamente desde Schneider Electric cuyo responsable de desarrollo de negocio para centros de datos encuentra diferencias notables entre dos tipos de empresas, las que “no saben dónde están sus ineficiencias” y las que se han concienciado en gasto eléctrico “porque estamos en un país, desafortunadamente, donde cada vez nos va a costar más la energía”.

Ciertas cuestiones de fondo no ayudan demasiado, pero el estratega de VMware, Moisés Navarro, detecta que a día de hoy “hay mucho interés”. Un interés que “surge porque a muchas unidades de TI les ha pillado el toro” y ahora necesitan actualizarse sí o sí para atender a la parte de negocio. Mientras “el negocio ha corrido más [porque] necesitaba mucha más agilidad, mucha más flexibilidad y en corto tiempo”, la realidad paralela ha sido que el centro de datos “no era tan flexible como deseábamos” ni en tecnología ni en calidad de relación. El gran reto, por lo tanto, radica en que el departamento de TI sea “capaz de empezar a liderar este cambio” de la mano del software definido como servicio, reclamando su sitio y alejándose de “un tipo de proveedor que se salta TI y llega directamente al negocio”, añade Alberto Carrillo en nombre de Econocom.

Si no “se transforma para facilitar el acceso a la tecnología de sus propios departamentos, de sus propias áreas de negocio, ellos lo van a buscar fuera”, advierte Viñals. “Van a buscar lo que los americanos llaman el falso IT o el IT ficticio desde el punto de vista de que detectan que su propio departamento de IT no es capaz de entregarles la tecnología con la agilidad, con la eficiencia y con los costes que ellos necesitan”. Dado que los recursos que otorga la modernización están a su alcance, lo único que tienen que hacer las compañías es utilizarlos sin miedo para adaptarse. Y hacerlo en dos direcciones complementarias. La primera sería seguir apostando por la virtualización hasta hacerla universal y la otra, “automatizar y transformar el modelo de entrega de servicios”, comenta Navarro. O en otras palabras, “transformar el modelo de relación”, lo que significa “ofrecerte al negocio de una manera mucho más directa, mucho más ágil o flexible, pero también más cercana”.

Y quizás, quién sabe, virtualizar la energía. “No olvidemos que el 25%, más o menos, de lo que puede ser el coste total del CPD en su vida útil es energía”, advierte Jorge Jiménez. “La tecnología de virtualización ha madurado mucho, tecnologías más de facility y refrigeración también han madurado mucho y las compañías se encuentran con que no saben cómo ahorrar más”, por lo que es hora de intentar ser más competitivos en ese espacio. No en vano “es un tema de madurez. Al final la tecnología está, existe, vamos por versiones ya avanzadas”, aprecia Carrillo, que considera que están disponibles “muchísimas maneras y muchísimas tecnologías que se pueden implementar. Pero tiene que estar madura la organización, tiene que estar maduro el departamento”.

Los beneficios del Datacenter Definido por Software

Motivaciones para madurar no faltan. Y es que las ventajas del Datacenter Definido por Software son cuantiosas. En primer lugar es una puerta de entrada para la agilidad o para “colocar los recursos donde más conviene a las aplicaciones, en función del software y no en función del hardware que tienes”, dice el experto de tecnología de Intel que ha participado en este debate y que también valora la reducción del coste de propiedad al no tener que “dimensionar partiendo de un punto desconocido, sino partiendo de algo que ya conoces y de algo que ya sabes que vas a necesitar”. ¿Pero para qué más sirve? Para mejorar en disponibilidad y para “ser más eficiente en el uso de los recursos”, según aporta el portavoz de Schneider Electric, Jorge Jiménez. O para que “las cosas sean sostenibles, es decir, duraderas, que no sea un momento maravilloso donde mejoro la eficiencia, la disponibilidad, la seguridad o la rapidez pero al día siguiente vuelvo a estar como dos semanas atrás”, interviene su interlocutor Moisés Navarro. “Que sea predecible” y que otorgue mayor libertad de elección.

Y lo que nos es menos importante: la adaptación del departamento de TI al negocio y la capacidad de abstracción de modo que se puede entregar un servicio sin entrar en complejas explicaciones, “independientemente de lo que te pida el departamento de negocio, independientemente de los cambios que haya en los requisitos, independientemente de los cambios que haya en la competencia”, valora el responsable de desarrollo de negocio de Econocom – Ermestel, Alberto Carrillo. “De esa manera el departamento de TI lo que hace es que ayuda en la cadena de valor de la empresa, […] ayuda a que los comerciales vendan más, a que en la logística en el almacén estén menos tiempo los pedidos, a que la imagen que se da de la empresa hacia el exterior sea mejor, a que la comunicación con los otros proveedores sea buena… y eso es en lo que TI realmente aporta valor a la compañía”.

El papel del software y el papel del hardware

Lo que se está valorando en este preciso instante es el concepto de Servicios de Aplicaciones Definidas por Software. Se trata de una vuelta de tuerca que facilita “todavía mucho más el acceso a aplicaciones” y su desarrollo, tal y como observa el participante de VMware, Moisés Navarro, en un momento en el que “desde tu aplicación tienes que ser capaz de cambiar este modelo de desarrollo porque ahora los dispositivos donde se consume la TI son distintos, el medio por el que se consume la TI es distinto, tu cliente es distinto”, completa la idea Carrillo. “No son tan verticales”. De hecho el mundo contemporáneo se identificaría por ser un mundo multidispositivo, lo que por un lado “requiere estar generando una demanda mayor para los servidores”, interviene Viñals, de Intel. “Los servidores, a su vez, generan una capacidad mayor de servicios. Y los servicios proporcionan mayor facilidad o mayor disponibilidad de tener dispositivos. Y al final ésa es una espiral que se va realimentando” hasta tal punto que el centro de datos cambia de aproximación: “no vamos de abajo hacia arriba sino que vamos de arriba hacia abajo”.

Lo que intentas es que el acceso a esos recursos por parte del negocio sea más ágil, y [las aplicaciones definidas por software] es otra evolución más”, defiende Navarro, que cree sin embargo que “la terminología y la jerga no tendría que hacernos perder el foco ni el destino” que no es otro que acercar la función tecnológica con el negocio. Este asesor para soluciones de negocio descarta, al mismo tiempo, que el hardware haya perdido protagonismo. “No diría jamás que el hardware, o la parte física, pierde relevancia. Creo que hay que tener cuidado porque si montas unos cimientos no correctos se te cae el edificio”, advierte, abogando por una “relación simbiótica” entre software y hardware. “Estos conceptos que son tan teóricos, y tan desde el punto de vista lógico, al final tienen que basarse en piezas reales y tangibles, y en el hardware que está por debajo”, declara Simón Viñals, proporcionando lo que él llama “telemetría”.

En este mismo sentido se pronuncia Jorge Jiménez. “Tenemos que tener muy claro que realmente todo ese Software-Defined Data Center gestiona toda mi infraestructura, mi centro de datos como cual”, recuerda el trabajador de Schneider Electric, “porque si no corremos el riesgo de que cualquier pequeño problema nos tire esas aplicaciones”. Es lo que el propio Viñals asimila con “una maqueta de LEGO” cuyas piezas “tienen que ser muy buenas para que lo que haya por encima después pueda hacer las cosas bien y que no se nos caiga abajo la construcción”. Sobre todo teniendo en cuenta que “toda esta manera de abstraer los dispositivos hacia el servicio lo que ha permitido es hacer mucho más popular la tecnología a mercados que antes no podían acceder”, matiza Carrillo para Econocom, y eso no hay que olvidarlo. “Hasta 2007 eran muy pocas empresas de industria en España que se podían permitir un sistema de BRS consistente y fiable” pero ahora vemos “microempresas que son capaces de hacer servicios a nivel mundial”.

La aparición del SAM y un nuevo CIO

Otro detalle que merece la pena destacar es el cambio que todo esto provoca en la mismísima figura del CIO o en su tarea para orquestar la demanda. Una orquestación para la que “hay que tener automatización de operaciones, una flexibilidad a nivel de infraestructura que te da la virtualización, un control de cuánto cuesta, por qué cuesta de esa manera, cómo costará a futuro”, enumera Moisés Navarro, para quien convendría apostar por “gente del departamento de TI trabajando para el negocio, entendiendo esos retos, las urgencias, las prioridades, las relevancias y traduciendo eso que es puro negocio a lo que vamos a poner en los portales y en el catálogo”. Además, el CIO tendría que evolucionar hacia un modelo de pago por uso, esto es, “encontrar un mecanismo de conseguir que solamente se pague por el hardware y el software que realmente se utilice”, apunta por su parte Carrillo. “Si no, lo que tenemos son tecnologías muy buenas que sabemos que existen pero que el CIO en España no es capaz”.

Este Business Development Manager también ensalza el flamante oficio del SAM o Security and System Architecture Manager, que no es otro que el responsable de arquitectura. “Esa persona está dentro del comité del CIO”, explica, con la función de validar “cada cambio, cada evolución, cada release que sale de un servicio” para asegurarse de que la arquitectura es la óptima. De ese modo no habría que “hacer una inversión de costes, un ROE, un TCO a tres años y, si no sale el proyecto, se descarta. Podemos sacar productos mucho más rápido al mercado las grandes [empresas] y podemos permitirnos tecnologías las pequeñas” gracias a la implementación de un simple y económico proyecto piloto. Y es que eso sería lo que permitiría, en definitiva, “toda la unión entre virtualización, gestión de energía y hardware”.

A continuación, el vídeo íntegro del encuentro “Ya está aquí el Datacenter Definido por Software”: