Análisis: Cuestiones clave sobre virtualización

El término virtualización se refiere a la posibilidad de correr múltiples sistemas operativos de forma simultánea en el mismo equipo, ya se trate de un PC o de un servidor.
Aunque hace tiempo que los servidores de gama alta equipados con procesadores PA-RISC cuentan con esta posibilidad, nuevas opciones de software y de hardware han trasladado la tecnología a los sistemas estándares, esto es, los que corren con chips de Intel y AMD y sistemas operativos Windows, Linux o MacOS.

¿Qué significa exactamente la virtualización?

El término implica que hay software corriendo en una especie de entorno virtual en lugar de hacerlo sobre una capa física de hardware convencional. Además, el software de virtualización se encarga de controlar el hardware del equipo, creando múltiples compartimentos denominados máquinas virtuales.
Esto permite consolidar y repartir funciones. Así por ejemplo, un sistema operativo puede trasladarse a otro servidor si en el que está instalado sufre algún tipo de fallo, o bien es posible ejecutar múltiples tareas en un sistema mainframe o controlar los recursos ubicados en distintos discos de un array de almacenamiento.

 
¿Por qué está tan de moda?

Porque la tecnología ha madurado mucho, extendiéndose a los entornos estándares y ayudando a mitigar muchos problemas. La mayor parte del mérito de esta proliferación corresponde a VMware, subsidiaria de EMC que llevó la virtualización a los servidores x86.
Aunque VMware arrancó en el mundo del PC, facilitando a los programadores el test de software en máquinas virtuales o la posibilidad de simultanear Linux y Windows en el mismo equipo, su verdadero crecimiento ha llegado con la posibilidad de sustituir múltiples servidores infrautilizados por uno solo capaz de correr diferentes máquinas virtuales.

 
¿Hay otras opciones de proveedores?

VMware se enfrenta a un gran número de competidores en el segmento de equipos estándares. El primero en salir a escena fue Xen, una tecnología basada en código fuente abierto desarrollada por la firma XenSource, que recientemente ha sido adquirida por Citrix.
En el segmento ‘open source’ encontramos otras opciones aparte de Xen. Así, el proyecto KVM ha ido ganando terreno entre sistemas operativos como Red Hat y Ubuntu de Canonical, respaldados por una importante comunidad de programadores.

Otra aproximación es Virtuozzo de SWsoft, que permite dividir un único sistema operativo en varios compartimentos virtuales, algo más extendido para el hosting de sitios web. Por su parte, Parallels se decanta como una de las principales opciones para correr Windows en plataforma Mac.

Y desde el punto de vista propietario, Microsoft compite con VMware mediante Virtual Server, y acaba de adquirir la compañía Connectix. Aunque su apuesta más importante llegará probablemente en junio, cuando actualice su próximo sistema operativo Windows Server 2008 (disponible a finales de este mes) con la tecnología Viridian o Hyper-V, un hypervisor actualmente en fase beta.
Tampoco hay que olvidar a Sun Microsystems, que comenzó empleando el modelo de Xen en su sistema operativo Solaris 10, potenciado por su tecnología de Containers y recientemente con la compra de Innotek, que amplía las opciones para los desarrolladores.

¿Qué es un hypervisor?

Se trata de un software que corre por encima del hardware (PC o servidor) capaz de gestionar los recursos de las máquinas, con la particularidad de que su código puede ser ejecutado directamente por el procesador y por tanto es neutral frente al sistema operativo, limitando así el protagonismo del sistema operativo en los procesos y tareas de la virtualización. Tanto VMware como XenSource disponen de tecnología hypervisor, y Microsoft lo hará próximamente con Viridian.
Si existen tantas opciones con tantos beneficios, ¿por qué no lo utiliza todo el mundo?
Sobre todo porque es algo nuevo para la mayoría. Y porque todavía existe algún inconveniente de pérdida de rendimiento al requerir un puente de comunicación entre el hardware y el software, además de demandar mayor memoria y capacidad de red. La virtualización también añade un nuevo nivel de complejidad para los administradores, aunque con ello obtengan mayor simplicidad en el CPD.

Además, dependiendo del sistema operativo y su versión, es posible ‘replicar’ hasta un número de copias virtuales de cada sistema, mientras las licencias dependen también del número de procesadores por servidor.

 
¿Cuáles son los costes por servidor?

Aunque las ofertas de los proveedores de virtualización van cambiando, Xen se ofrece sin coste adicional con las licencias de suscripción de Red Hat y SuSE-Novell para servidores empresariales. SuSE permite correr copias ilimitadas del sistema en la misma máquina, al igual que sucede con la suscripción de gama más alta de Red Hat, pero otras versiones limitan el número de servidores virtuales a desplegar.
Por su parte, los precios de VMware dependen de la versión de su solución (GSX Server es gratuita pero tiene otras de pago), Sun lo ofrece sin coste con Solaris u OpenSolaris, y el próximo Viridian de Microsoft se incluirá con las versiones de Windows Server 2008, aunque llegará más tarde. El resto de aproximaciones suelen comercializarse bajo la fórmula de software libre.

¿Cuál es su ratio de adopción en la actualidad?

Hay muchos estudios sobre el tema. Uno de los más optimistas parte de Butler Group, indicando que el ahorro de costes y de consumo de energía para una empresa con 250 servidores de núcleo dual podría ascender a los cuatro millones de dólares en un período de tres años.
Por otro lado, un reciente informe de CA basado en encuestas a 300 CIO de grandes empresas de Estados Unidos, EMEA y Asia-Pacífico que ya han desplegado entornos de virtualización muestra que sólo un 45 por ciento cree estar realizando un trabajo correcto de gestión en este apartado.