Dynatrace anuncia un único pipeline para gestionar la ingesta de datos a escala de petabytes

OpenPipeline llega para trabajar con “datos heterogéneos de observabilidad, seguridad y negocio, proporcionando análisis unificados”.

Dynatrace anuncia una tecnología de análisis y automatización de nombre OpenPipeline, que proporciona un único pipeline para la ingesta de datos a escala petabyte.

“Es una potente incorporación a la plataforma Dynatrace”, comenta el CTO de la compañía, Bernd Greifeneder. “Enriquece, converge y contextualiza datos heterogéneos de observabilidad, seguridad y negocio, proporcionando análisis unificados para estos datos y los servicios que representan”.

“Funciona con la IA hipermodal Davis de Dynatrace para extraer información significativa de los datos, impulsando una analítica robusta y una automatización fiable”, continúa explicando. También trabaja con otras tecnologías como Grail data lakehouse y la topología Smartscape.

Dynatrace calcula que OpenPipeline “permitirá a nuestros clientes evaluar flujos de datos entre cinco y diez veces más rápido que las tecnologías heredadas. También creemos que la convergencia y contextualización de datos dentro de Dynatrace facilita el cumplimiento normativo y las auditorías, al tiempo que empodera a más equipos dentro de las organizaciones para obtener visibilidad inmediata sobre el rendimiento y la seguridad de sus servicios digitales”, dice Greifeneder.

La idea es que las compañías pueden gestionar datos en entornos híbridos y multicloud, con acceso a respuestas y automatizaciones impulsadas por inteligencia artificial.