Las empresas están cada día más inmersas en la era de los datos. Unos datos que son el común denominador de las aplicaciones, la digitalización de procesos, la automatización o los proyectos de Inteligencia Artificial.
La necesidad de extraer el valor que encierran dichos datos para así poder tomar decisiones de negocio basadas en dicha información es la meta de cualquier compañía que ve cómo, al mismo tiempo, debe reforzar la seguridad para evitar cualquier brecha de continuidad o cualquier crisis reputacional.
Desafíos que conviven con la necesidad de controlar los costes, eliminar los silos, reducir la complejidad en la gestión de la infraestructura y la dependencia de cualquier tecnología o proveedor.
Por otro lado, los avances en tecnología, las arquitecturas abiertas y el descenso de los precios en los sistemas de almacenamiento y computación de alto rendimiento están también ayudando a las organizaciones a modernizar su infraestructura con más libertad, sencillez de integración y movimiento de datos, simplificando las operaciones y optimizando los costes.
La cuestión hoy no es elegir entre on premise y la nube sino construir una infraestructura potente, segura y flexible que permita llevar cada carga, cada aplicación y cada dato al lugar más adecuado en cada momento con sencillez, al tiempo que se optimizan los costes y se mejora la sostenibilidad.
Como vemos, el reto no es menor y para analizar cómo es posible llevar al máximo nivel una infraestructura “inteligente” que sirva de motor de innovación para el negocio en esta nueva era de los datos Silicon celebraba un encuentro con expertos en tecnología de nube híbrida para los centros de datos y almacenamiento de NetApp, como son Manel Picalló, Consulting Systems Engineer de la compañía; Carlos Serna, District Manager Enterprise de NetApp; y Luis Manzano, Multinational Area Marketing, también de la firma.
Junto a ellos y para compartir retos, experiencias y buenas prácticas participaron en el encuentro Sergio Ruiz, Cloud & Data Engineer de Uniway Technologies; Sergio Tagua, director de Tecnologías de Eficiencia Operativa y Servicios Digitales de Liberbank; Alberto López, Global Head of IT & Cybersecurity de Solaria; Ildefonso Vera, director de Innovación, Procesos y Transformación Digital de Isdefe; Miguel Martín Acosta, Researching Autonomous Flight, AI Chips & Trustworthiness and Tech Consultant en Airbus; y Sergio Calvo, IT Country Leader en Selecta.
Era precisamente Manel Picalló, de NetApp el encargado de abrir el encuentro analizando cómo cuando las compañías apuesta por un modelo híbrido, en el que distribuyen sus datos en distintos entornos, bien on premiso o cloud, es necesario contar con herramientas que les permitan saber dónde están exactamente sus datos en todo momento.
“O tienes las herramientas para gestionar esto de forma adecuada o lo que querías solucionar se convierte en un problema mayor”, afirmó.
Así, de acuerdo con el Consulting Systems Engineer de NetApp, son muchos los clientes que, en ese entorno distribuido, pierden el control de la información ya no solo desde el punto de vista de la seguridad de la misma sino también respecto a la sensibilidad de esos datos, allí dónde se encuentran almacenados. “Por eso hemos desarrollado soluciones como Cloud Data Sense que, dotada con Inteligencia Artificial, ofrece una visión detallada de una lista larga y creciente de fuentes de datos. En la nube, on premises o en ambos lugares, analiza los datos fácilmente, tanto si están estructurados como si no”.
Precisamente conocer exactamente dónde se encuentran su datos, en un momento marcado por las infraestructuras y modelos computacionales híbridos, es uno de los mayores retos a los que se enfrentan hoy las empresas tal y como explicó Ildefonso Vera, director de Innovación, Procesos y Transformación Digital de ISDEFE, que señalaba cómo el viaje a la nube que se plantea sería también híbrido.
“Sin duda, nuestra estrategia pasa por el cloud; de hecho, creemos que todo aquel que no adopte la nube va a perder oportunidades, capacidad y productividad. Dicho esto, no hay que llevar todo a la nube simplemente por llevarlo. Primero hay que analizar cuáles son los activos críticos para nuestros procesos de negocio para saber qué hay que llevar a la nube y qué no. En nuestro caso, además de tener mucho legacy, queremos que los datos críticos estén cerca para, en caso de sufrir algún tipo de ataque, tener una recuperación inmediata y por ello creo que el modelo más idóneo sería el de la nube híbrida”, afirmó.
Esa necesidad de tener los datos lo más cerca posible por razones de seguridad era también señalada por Miguel Martín Acosta, Researching Autonomous Flight, AI Chips & Trustworthiness and Tech Consultant en Airbus. “Nosotros intentamos ir a la nube; nuestra idea inicial era tener una solución híbrida en la que mantener algunos datos on premise ya que son datos clasificados pero otros tenerlos en la nube para así poder acceder a la capacidad de cómputo que te ofrece cloud pero ha sido imposible. Los clientes no nos lo permiten; quieren saber exactamente dónde están esos datos, quién puede acceder a ellos, etc.”, explicó.
Así, para Martín Acosta, el reto en la mayoría de ocasiones es “convencer al cliente de que utilizar una nube híbrida va a ser tan seguro como tener la información on premise bajo llave” y, sobre todo, convencer al propio CISO o responsable de Ciberseguridad de las compañías.
Y es que todos los participantes en el encuentro de Silicon si bien defendían su deseo de adoptar la nube, aunque fuera de forma híbrida, reconocieron que, en ese objetivo, tienen que salvar un obstáculo común y que no es otro que el propio área de ciberseguridad de sus organizaciones.
Ir alineados con los requerimientos y obligaciones que se marcan desde ciberseguridad es imprescindible como afirmaba Sergio Tagua, director de Tecnologías de Eficiencia Operativa y Servicios Digitales de Liberbank. “Nosotros, en cloud tenemos muy poco; de hecho, procesos de negocio, ninguno”, explicaba como entidad financiera, con una regulación muy estricta. Algo que aunque entendible y necesario, señalaba, también es muchas veces una barrera para la innovación, según Tagua: “Por ejemplo, actualmente, la Inteligencia Artificial, con aplicaciones como Chat GPT, podría suponer una auténtica revolución, poder tal vez subir todos nuestros datos a la red neuronal de, por ejemplo, Open AI… Pero no vamos a poder, el área de ciberseguridad, por normativa, etc. no nos lo permitiría y eso a veces va en contra de la innovación que desearíamos hacer”.
Algo que entendía muy bien Alberto López, Global Head of IT & Cybersecurity de Solaria precisamente por su doble cargo. “Yo soy CIO y CISO y sí creo que el CISO tiene que tener potestad para restringir en primera instancia cualquier cosa que pueda poner en riesgo al negocio y para detenerla, en última instancia. No tenemos que parar, no se trata de no poder evolucionar pero sí debemos trabajar de manera conjunta con el área de data, de sistemas, de infraestructuras, etc. para dotar a las soluciones de ciberseguridad siempre, desde su propia concepción”.
Un escenario en el que desde Selecta, Sergio Calvo, IT Country Leader de la compañía, ponía también el foco en esa coordinación entre negocio y ciberseguridad y en cómo aún no todas las compañías están suficientemente alineadas en ese objetivo común. “Aún es necesario convencer a muchos CEOs de que la ciberseguridad es importante, es una inversión necesaria antes de que se produzca ningún problema”, aseguró.
Y una reflexión añadida: la importancia de, en ese salto a la nube, además de contar con una estrategia de ciberseguridad que responda también a las demandas del negocio, disponer de soluciones de gestión inteligente, que ofrezcan la visión completa de donde se encuentran los datos de las organizaciones y permitan el acceso seguro a los mismos.
Algo que exponía Sergio Ruiz, Cloud & Data Engineer de Uniway Technologies: “Hoy más que nunca precisamos de herramientas que permitan centralizar la gestión de los servicios en la nube, con el fin de dar respuesta a la complejidad que supone esta migración o el posible incremento de costes en los que se puede incurrir si no se maneja adecuadamente”.
Retos y demandas a las que desde NetApp, como explicaron, quiere dar respuesta. “Hemos creado un sistema de almacenamiento que puede correr allí donde el cliente quiera y eso facilita mantener un entorno de gestión de datos híbrido con mucha facilidad”, aseguró el Consulting Systems Engineer de la compañía, Manel Picalló.
Una solución que además responde a otra de las grandes tendencias actualmente en gestión de datos, la automatización, como apuntaba Carlos Serna, District Manager Enterprise de NetApp: “La automatización en sistemas híbridos es importantísima para tener agilidad y simplicidad. Nosotros, al estar basados 100 por cien en software, tenemos claro que la automatización de todos los procesos es importante y por eso nos integramos con VMware, Kubernetes, Oracle… Haciendo que las cosas sean más fáciles”.
En definitiva, un encuentro en el que el mensaje fue claro: las empresas data driven como meta precisan de soluciones que permitan gestionar los datos y almacenarlos de forma inteligente.
Pure Storage lanza servicios de archivos en tiempo real y Créditos Universales, ofreciendo mayor agilidad…
Los agentes de Cegid Pulse, construidos con inteligencia artificial, están disponibles en software de ERP,…
Este directivo se pone al frente del Comité Ejecutivo de la compañía en la península…
Hewlett Packard Enterprise anuncia un acelerador de soluciones para que los desarrolladores creen chatbots capaces…
Anuncia la infraestructura de supercomputación Lenovo ThinkSystem SC750 V4 con procesadores Intel Xeon 6.
Estos armarios pueden usarse con la mayoría de sistemas de alimentación ininterrumpida trifásicos de Vertiv,…