Hitachi Vantara: “Las organizaciones comprenden cada vez más el valor de los datos, pero todavía están aprendiendo a utilizarlos hasta su máximo potencial”

Con motivo del lanzamiento de Hitachi Vantara Lumada DataOps Suite, hemos entrevistado a Radhika Krishnan, Chief Product Officer de Hitachi Vantara, que cuenta con una dilatada experiencia incubando, transformando y desarrollando varios negocios centrados en el software y la infraestructura de la nube.

Antes de unirse a Hitachi Vantara en septiembre de 2020, Radhika fue Vicepresidente Ejecutivo y Directora General de Software en Sistemas 3D y anteriormente ocupó puestos de liderazgo en compañías como HP, Cisco, NetApp, Lenovo y Nimble Storage.

En la actualidad, Radhika es la responsable de la visión, la estrategia, la entrega y el rendimiento empresarial de todos los productos y soluciones de Hitachi Vantara a través del almacenamiento de datos, las operaciones de datos y el análisis, así como el Lumada Internet of Things y el software industrial de este fabricante.

La directiva analiza el estado de la gestión de la información en las empresas, un área impactada por dos sucesos acontecidos a la vez pero con distinto origen: la explosión de los datos y la pandemia mundial. Ambos están obligando a las organizaciones a abordar una digitalización en la que las arquitecturas nativas en la nube y la inteligencia artificial deben estar presentes para no morir en el intento. Son precisamente dos de las principales características de la plataforma de datos presentada por el fabricante hace unos días.

A continuación, la interesante entrevista concecida por Krishnan a Silicon España:

—¿Cuáles son los grandes retos a los que se enfrentan las organizaciones a la hora de gestionar toda la información que generan?

Uno de los grandes retos a los que se enfrentan las organizaciones a la hora de gestionar la información que generan es que no son capaces de obtener valor de los datos oscuros no explotados (dark unused data en inglés), lo que hace que pierdan el 50% de su tiempo buscando y obteniendo acceso. Aunque las grandes empresas recopilan datos de más fuentes que nunca, la mayor parte de esa información sigue sin aprovecharse. De hecho, algunos analistas estiman que solo se utiliza el 2% de los datos corporativos. Muchas organizaciones necesitan un nuevo enfoque de la gestión de datos, ya que cada vez tienen más problemas con la expansión y dispersión de estos.

La gestión de los datos en entornos locales y en la nube, así como la búsqueda manual de contextos y correlaciones, lleva tiempo y pone a prueba los recursos de muchas organizaciones. Un estudio de IDC sugiere que los trabajadores de datos pierden hasta un 50% de su tiempo buscando y accediendo a datos que pueden estar bloqueados en diferentes almacenes de datos y formatos diversos

—Bajo su punto de vista, ¿en qué medida la pandemia mundial ha acelerado la transición a la nube a la hora de gestionar y orquestar datos y aplicaciones empresariales?

Una de nuestras principales prioridades en este último año ha sido guiar a las empresas en sus procesos de transformación digital. Con la plantilla obligada a permanecer en casa debido a la pandemia, las empresas recibieron el mayor impulso para embarcarse en su viaje hacia la transformación digital. Ya no era sólo una opción, sino que requería cambios importantes en las formas de trabajo interno, las estructuras de los equipos, los modelos de negocio y la revisión de la forma de procesar y utilizar los datos.

Este cambio trae consigo sus propios retos, como la optimización de los procesos de negocio, la comprensión de las necesidades cambiantes de los clientes, la organización del equipo adecuado y los problemas de ciberseguridad. Para superar estas barreras, diseñamos y colaboramos en la creación de soluciones que permiten a las empresas de diferentes sectores hacer frente a un entorno empresarial en rápida evolución para construir las soluciones que mejor se adaptan a cada reto, ya sea en las instalaciones o en la nube.

—Para las organizaciones, gestionar todos sus datos ya no es suficiente, sino que tienen que seleccionar la información correcta, en el momento adecuado y también por las personas adecuadas. ¿Cómo se puede conseguir esto en un mundo donde los datos corporativos se están multiplicando exponencialmente?

Así es, las empresas necesitan obtener rápidamente valor de todos los diferentes silos y formatos de datos. Afrontando este reto, Lumada DataOps Suite ofrece una serie de herramientas que permiten a las grandes empresas recopilar, acceder y analizar fácilmente sus datos desde cualquier entorno de nube, edge o en el servidor local, abordando los problemas derivados de la dispersión de datos y los datos oscuros.

El uso de un motor inteligente sustituye los procesos manuales e inyecta DataOps en una empresa de forma escalable. Este enfoque acelera el viaje desde los datos brutos a la información. La automatización, la inteligencia y la colaboración se combinan para abordar un panorama mucho más amplio de herramientas de gestión y canalización de datos, repositorios y análisis. Un sistema más inteligente puede incorporar reglas sobre el cumplimiento y la gobernanza, para que los usuarios puedan ser guiados durante la construcción en lugar de arreglar los problemas a posteriori. La colaboración ayuda a apoyar el autoservicio y la cooperación entre los silos de TI, ingeniería de datos, ciencia de datos y unidades de negocio.

—Para responder a este paradigma, Hitachi ha anunciado Lumada DataOps Suite. ¿Cuáles son las principales capacidades que proporciona a las empresas?

Entre las principales capacidades que ofrece la Lumada DataOps Suite a las empresas es que transforma los silos de datos dispares en uno en el que todos pueden utilizar un tejido de datos gobernado para la innovación, lo que proporciona a los clientes la facilidad de abordar la complejidad de los datos y reducir el tiempo que se necesita para acceder a ellos y crear conocimientos valiosos.

Radhika Krishnan, Chief Product Officer en Hitachi Vantara

Otra de las capacidades a destacar es que esta plataforma de última generación está impulsada por la nueva plataforma Pentaho 9.2 [nueva versión de Pentaho, plataforma de integración y análisis de datos empresariales de Hitachi] que ofrece soporte completo para Microsoft Azure, ampliando la elección de los clientes de las nubes públicas y mejorando los canalizadores de datos a través de los proveedores. También la identificación por huella digital y la deduplicación exclusivas de Lumada Data Catalog reducen el riesgo de gobernanza de datos y los costes generales de almacenamiento.

—A nivel de arquitectura, ¿qué destacaría de Lumada DataOps Suite para diferenciarse de otras soluciones y plataformas de gestión de datos?

La Lumada DataOps Suite se diferencia de otras soluciones y plataformas de gestión de datos ya que está diseñada con una moderna arquitectura nativa de la nube, proporcionando una base escalable para diferentes productos de software de Lumada que pueden girar hacia arriba y hacia abajo a través de múltiples proveedores de la nube, haciendo más ágil la gestión de las operaciones de datos a escala y reduciendo el coste a través de implementaciones en contenedores.

—La inteligencia artificial se ha convertido en un bastión para estas plataformas y Lumada DataOps Suite también la incorpora. ¿Nos podría contar detalles sobre estas capacidades de AI en la solución y qué ventajas encontrarán los clientes que la adopten?

Mediante el uso de la Inteligencia Artificial Lumada DataOps Suite ayuda a reducir el coste de las operaciones de datos para poner los datos de confianza en manos de los analistas de datos y los líderes empresariales de una forma ágil.

Una de las ventajas de la Lumada DataOps Suite es que consolida los datos a través de silos, líneas de negocio y aplicaciones para crear una visión completa de los datos de toda la empresa.

Por otro lado, a través de la Inteligencia Artificial logra la automatización de procesos como el descubrimiento y la catalogación de datos, reduciendo el riesgo y disminuyendo el coste de almacenamiento, ya que los datos se etiquetan, gobiernan y cruzan de forma inteligente para el control de versiones y los esfuerzos de deduplicación. Con la automatización de las tareas manuales que consumen mucho tiempo, los administradores pueden proporcionar a los equipos de análisis un acceso de autoservicio a datos completos y fiables para una toma de decisiones más acertada.

—Para finalizar, ¿cómo ve el negocio de la gestión de datos dentro de unos 5 años?, ¿qué papel jugará la inteligencia artificial a medida que se vaya desarrollando cada vez más?

Las operaciones de datos tendrán un impacto significativo en el futuro de las TI al desbloquear grandes cantidades de datos que hasta ahora no se utilizaban. Los datos se producen como parte de diferentes procesos empresariales, tanto de fuentes internas como externas. Las organizaciones comprenden cada vez más el valor de los datos, pero todavía están aprendiendo a utilizarlos eficazmente hasta su máximo potencial. Aunque las formas de trabajar basadas en los datos están aquí para quedarse, los procesos sufrirán cambios significativos con los avances tecnológicos. La IA y el ML ya han revolucionado la forma en que procesamos y utilizamos los datos para obtener información. Con la intervención del IoT y el aumento de los volúmenes de datos, habrá una enorme demanda de análisis de datos inteligentes y automatizados. El enfoque de “talla única” se ha vuelto irrelevante y las empresas acudirán a herramientas y soluciones personalizadas que atiendan a las demandas específicas de su negocio.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

RedHat celebra su congreso en Denver centrado en la IA

Red Hat Summit 2024: Un congreso centrado en el lanzamiento de RHEL AI y OpenShift…

11 horas ago

Llega Veeam Kasten para Kubernetes V7.0

La nueva versión de Veeam Kasten introduce más de treinta mejoras y tiene entre sus…

13 horas ago

Virtual Cable lanza el programa UDS Enterprise Compatible

Compañías como Nutanix, Huawei Cloud, Veeam u OVHcloud ya se han certificado.

14 horas ago

BullSequana AI, la nueva propuesta en computación de Eviden

El producto estrella de su renovada cartera de soluciones es el superordenador BullSequana AI 1200H.

17 horas ago

Palantir Technologies encadena su sexto trimestre consecutivo de rentabilidad GAAP

Además, durante el primer trimestre de 2024 sus ingresos crecieron un 21 % hasta los…

17 horas ago

José Manuel Petisco, nuevo vicepresidente de NetApp para la región EEMI

El hasta ahora director general para Iberia se pone al frente de la compañía en…

18 horas ago