Dell explica todo su ‘offering’ al canal y expertos TI

Los planes de Dell son muy ambiciosos pero a la vez realistas: pueden proporcionar soluciones extremo a extremo con visión de futuro y a precios muy competitivos.

La semana pasada tuvo lugar el Dell Day MAD 2016, un evento organizado por petición popular para comprimir en una intensa mañana con dos racks paralelos las principales ponencias ofrecidas a finales del año pasado en su tradicional Dell Tour, y para los que no tuvieron oportunidad en aquella ocasión poder dedicar un tiempo a intercambiar tarjetas y hablar de proyectos concretos con los responsables de cada área. Sin duda, el plantel de Dell Ibérica está muy bien rodado y las exposiciones fueron amenas y al grano.

Se repasaron todos los palos donde Dell toca y no precisamente de palmero. Su ambición no es de ser mera comparsa o acompañamiento de otros vendors, sino cabeza de cartel y en todo caso, tener el papel de solista en la orquesta. Por ejemplo, si bien la inmensa mayoría asocia la marca a ordenadores preconfigurados de sobremesa y portátiles, incluso servidores para el data center, hoy día lideran el tema de la virtualización y el cloud en HTML5, tienen una cuota aceptable en gestión de redes y proporcionan sólidas alternativas en almacenamiento e incluso se inician en la analítica Big Data con Estatistica. “Una capacidad de abordar proyectos extremo a extremo y dar soluciones completas en cualquiera de las capas que a la larga evita costes ocultos y simplifica la adquisición y mantenimiento de las infraestructuras con todo en una misma factura”, explica Alfredo Franco, consultor de cuentas empresariales en Dell, y añade: “cuando otros, han tenido que segmentar sus portafolios quitando cosas”.

El mismo Franco comenta cómo la competencia calificaba a Dell no hace muchos años como aquejado del síndrome del conductor loco cuando su enfoque abierto basado en open source, sus soluciones integradas basadas en componentes autodefinidos y sus sistemas modulares parecían ir en sentido contrario en una IT tradicional, pero que justo ahora Gardner la coloca en el cuadrante de los visionarios de cara a la IT del futuro. “Y es que el mercado busca proveedores que dejen de hablar de producto y empiecen a hablarles de soluciones, nosotros además proporcionamos un tallaje que se adapta a cualquier cintura. El 33% de los encuestados señalan estar predispuestos a adquirir soluciones appliances predefinidas para un uso específico”.

El paradigma de esta visión es un appliance “appliance” capaz de ofrecer una cloud con una solución autocontenida tipo out-of-the-box, que se despliega en cuatro clics y que en menos de un día queda configurada, y con diferentes fórmulas de pago: Pay-as-you-Grow, Provision& Pay, o Scale on-Demand. Lo único que hay que tener claro es la arquitectura para definir el building block y determinar la capacidad de crecimiento: de veinte en veinte, de cien en cien o de mil en mil… Dell trabaja con tres arquitecturas básicas: la de tipo appliance mencionada es un servidor con todo incluido, ideal para escalados pequeños y graduales, no para escritorios virtualizados; las de tipo clásico con servidores más almacenamiento, que ya permite mayor densidad y admite virtualización; y las de tipo hyperconvergentes, nuevas tendencias de hardware definido por software, fáciles de gestionar y es como tener un RAID de servidores (igual que si fueran discos distribuidos), pensados tanto para escritorios persistentes como dedicados.

Dell dispone de guías de ajuste con cálculos de referencia para configuraciones tipo. “Antes el sizing era una operación compleja que requería de calculadora y muchas llamadas a preventa, ahora se dispone en nuestra web de tablas donde solo hay que buscar las necesidades requeridas. Lo mejor es que son configuraciones ya probadas en entornos testados”, señala Genaro Escudero, responsable de virtualización y usuario final en Dell. Esto es especialmente significativo en el caso de los escritorios virtualizados, donde Escudero se atreve a dar un presupuesto estándar muy a pesar de sus compañeros que venden máquinas puras y duras. Por ejemplo, no es lo mismo el coste de tener que comprar físicamente 150 ordenadores de sobremesa (o portátiles) con su licencia del sistema operativo Windows cargado que hay que renovar cada año, que aprovechar los equipos disponibles para reciclarlos y optar por una solución de escritorios virtualizados con licencia de datacenter de tiempo ilimitado para poder usarlo de manera remota. “Por 349 euros tendríamos un puesto virtual sin ningún coste oculto, y si los queremos en un cliente ligero como el Wyse T10 solo habría que añadir 200 euros por puesto de trabajo”. Ese precio incluye además un servidor R730 PowerEdge con Windows Server 2012 R2 más doce discos SAS a 15.000 rpm, Dell vWorkspace 8.6, el hypervisor que se desee y las 150 licencias Windows 8.1.

Espacios de trabajo

La irrupción del cloud está dando la puntilla al tradicional puesto de trabajo fijo anclado al territorio de un empleado “casi” aislado en su parcela; siguiendo a las nuevas tendencias, son la compartición de los espacios y la organización más horizontal sin silos lo que se lleva: trabajo colaborativo y en red. Y la virtualización es su expresión más vanguardista. “No es la solución para todo, estuvo de moda pero ahora parece que vuelve, aunque esto no significa que sea la solución ideal para todos los escenarios”, dice Escudero. “Un gran motivador puede ser la actualización a Windows 10: empresas que tienen un parque viejo de W7 o W8 y no saben qué hacer: si actualizar, si migrar, si virtualizar… Otros casos de uso para el desarrollo de entornos virtualizados son la mejora de servicios a terceros y mantenimiento, automatización en la gestión del entorno TI, control de la seguridad, para continuidad de negocio y productividad, para optimización de sedes corporativas y teletrabajo… pero en especial para ofrecer las ventajas de la movilidad y asumir el triunfo de facto del BYOD”.

Hay cinco ámbitos de trabajo preferentes: los entornos clásicos tipo desk centric; los llamados corridor warrior, como hospitales y similares; los on-the-go-pro, típicos de la fuerza de ventas, comerciales, viajantes…; los remotos, adalid del teletrabajo en políticas de conciliación, picos de producción o externalizaciones in-house; y finalmente los de uso especializado, para trabajo de campo, obra pública, construcción, ingenierías, etc.

Hay dos tecnologías principales en el tema de la virtualización de escritorios: el VDI y el RDSH, aunque la recomendación clave es la experiencia del usuario; si ésta no es igual y comienza a notar que las carpetas no están en su sitio o los documentos se le abren en otro lugar, se empieza mal. Tradicionalmente, esta etapa del middleware ha estado en manos de empresas como Citrix o MVware. Dell, a través de su adquisición de Quest (que a su vez compró Provision Networks, creador del primer bróker de gestión), se ha posicionado decididamente con su aplicativo vWorkspace que ya va por la octava revisión. “Como consultores, nuestro papel es intentar ‘engañar’: vamos a hacer que la vida te resulte más fácil y a cobrar por ello… Fuera de ironías, es verdad, pero en el tema de la virtualización es especialmente más necesario realizar una serie de operaciones previas de consultoría: conviene conocer el servicio que se quiere dar, ya que se va a tocar todo: la red, las impresoras, los periféricos, el ancho de banda, las versiones…”, dice Escudero. “El usuario quiere que sea transparente y no todos los empleados tienen por qué tener conocimientos extras de informática y saber que ahora el PDF se le va abrir en otra máquina en vez de en sus documentos”.

La hipervirtualización

Básicamente virtualizar significa compartir escritorios y correr aplicaciones en streaming. La técnica de VDI permite crear una configuración de escritorio y proveerlo desde remoto de manera transparente como si estuviera en local. Esto obliga a una máquina por usuario y algo más de recursos, pero tiene la ventaja de mantener aislado a un puesto del otro; otra ventaja es que se puede crear una misma imagen del escritorio y servirla en un pool, optimizando el tiempo de despliegue. Sólo en escritorios dedicados resulta más caro el mantenimiento y el back-up por tener que hacerlo máquina a máquina y que esté siempre disponible.

Por su parte, la técnica RDSH lo que hace es llevar sesiones desde el host, lo que permite tener máquinas más grandes y potentes a la que conectarse. Su ventaja es que permite tener más gente trabajando simultáneamente, al soportar una mayor densidad de concurrencia con un cliente más ligero; sin embargo, no permite ofrecer modelos de persistencia y en su contra si un puesto consume más recursos que otro, esto puede afectar al servicio. “Los perfiles son el santo grial de la virtualización, mientras que un escritorio dedicado es más complicado de mantener, puede tener sentido en entornos de AutoCAD y 3D, donde se precisan máquinas potentes, pues con un host especialmente construido con sus tarjetas gráficas en plan rackable para grupos de unos diez usuarios se puede ahorrar mucho dinero”, cuenta Escudero. “En un modelo de escritorios persistentes, últimamente se pueden incluso personalizar sobre la imagen de la sesión para conectar a una impresora determinada en el mapeo de dispositivos o mantener una suscripción a una funcionalidad en particular creada sobre un Office 365. También disponen de capacidades enterprise ready para temas de firmas y autenticaciones”.

El hipervisor es la base de todo este entramado. La ventaja de Dell es que en este sentido son totalmente agnósticos puesto que sus máquinas pueden trabajar con cualquier solución: por contenedores de Pararell, despliegues de 50 o 100 máquinas de golpe con MVware, casos más sencillos con Microsoft Hyper-V… “Lo realmente importante de la virtualización es tener claro los condicionantes de despliegue y caché. La imagen de un puesto con Windows puede pesar entre 40 y 50 GBytes, que por cien escritorios persistentes nos vamos a los 5 Tbytes. Sin embargo, con un hipervisor logramos reducir la imagen de cada puesto a 5-6 Gbytes, lo cual hace más manejable su gestión. En función de la demanda y los requerimientos, podemos incluso construir una solución híbrida dinámica que elija alternativamente la configuración más conveniente”.