Hortonworks apunta alto y busca liderar la arquitectura de datos del futuro

Especial desde Dublín

Hortonworks sigue avanzando en su estrategia para gestionar la información del mundo. Así lo ha señalado el presidente de la compañía Herb Cunitz, en un encuentro con analistas y prensa previo al congreso Hadoop Summit 2016, que comienza hoy en la capital irlandesa y al que asisten más de 1.400 profesionales.

Esa visión para la gestión de los datos pasa por conectar todas las plataformas y permitir una orquestación unificada. Para ello, Hortonworks apuesta por la gestión de lo que denomina ‘Data in motion’ (aquellos datos que se generan cada segundo y se mueven a distintos niveles, desde el IoT hasta las transacciones bancarias) y, por otra parte, su conexión con ‘Data at Rest’, que no es otra cosa que los grandes almacenes de información estructurada y no estructurada, los grandes silos de información.

Herb Cunitz, presidente de Hortonworks, durante la sesión inaugural del Hadoop Summit 2016

La conexión de estos dos grandes ámbitos para su posterior tratamiento permitirá la creación de aplicaciones de datos modernas, de tal forma que nada se escape al control de las compañías para una correcta -y rápida- toma de decisiones. Hasta ahora, no había sido fácil acceder a la información que se genera en tiempo real. Es el gran logro de Hortonworks durante los últimos meses, algo que, por cierto, ha sido posible gracias al código abierto. Para esta compañía, los ecosistemas abiertos (liderados por la fundación Apache) están permitiendo acelerar la innovación necesaria en las empresas. “Hoy en día cualquier empresa es una empresa de datos, todas deben tenerlos en cuenta para asegurar su continuidad. El modelo open source es especialmente relevante para ello”, apuntaba Cunitz.

El valor de los datos ha crecido exponencialmente y sin esa innovación abierta para gestionarlos y tratarlos eficientemente las compañías estarán muertas. Esa es la filosofía de Hortonworks. Más aún cuando los presupuestos en TI se mantienen congelados o aumentando ligeramente, pero la información generada (estructurada o no) aumenta exponencialmente cada día que pasa.

Y lo hace por muchas causas: los miles de millones de dispositivos IoT conectados generando información, el acceso de los consumidores a cualquier tipo de recurso desde sus dispositivos móviles y de forma instantánea, la monitorización continua de las empresas con sus productos… Los silos de información aislados ya no son la respuesta. Ya no son suficientes. No sirven para que las organizaciones encuentren soluciones a sus necesidades de negocio. Es ahí donde entran en juego las plataformas de datos conectadas, la gran tendencia que se está mostrando durante el congreso Hadoop Summit 2016 y que en poco tiempo se convertirá en un estándar de la industria por motivos obvios.

El futuro de la información: Las plataformas de datos conectadas

Parece algo obvio, pero no lo es: asociar los datos en movimiento con el resto, los que están almacenados en cualquier otro lugar y formato ha sido el gran desafío de la industria durante la última década. Durante este tiempo era necesario dar el primer paso y unificar en una misma plataforma todos los datos que se manejan, estructurados o no, de tal forma que permanezcan accesibles para su posterior tratamiento: toda esa información generada por sensores, máquinas, geolocalización, redes sociales, clics en Internet, ficheros, etc. Hasta ahí bien, es lo que se ha conseguido con iniciativas como Hadoop. Pero realmente no se está gestionando todo el ciclo de vida de los datos, sino solamente la parte final, la que está relacionada con su almacenamiento.

El problema radica en ampliar el control a todo el ciclo de vida de la información. Desde el instante en que un dato es generado hasta que se elimina, si es que se da el caso. Aquí la Comunidad de desarrolladores vuelve a entrar en juego, ya que ellos (junto con las compañías que apoyan tales iniciativas, han sido los responsables de proyectos como Apache nifi, Storm, Spark, Hive… para conformar el segundo gran paso en la gestión de la información: conectar todas esas plataformas y permitir la gestión inteligente de la información en tiempo real, con un control visual de los datos en movimiento combinados con el resto.

Pero hay un tercer paso que se está llevando a cabo ahora y del que está hablando estos días en Dublín. La gestión de la seguridad e integridad de los datos, en un contexto en el que se producen cada vez más ataques y fugas de la información. Los datos, el oro del siglo XXI son para muchos ciberdelincuentes una fuente de ingresos realmente importante, por lo que se hace necesario introducir nuevos parámetros de seguridad en las plataformas comentadas anteriormente.

En este sentido, Hortonworks ha aprovechado la celebración del Hadoop Summit 2016 para anunciar diversas iniciativas en materia de seguridad como la integración de Apache Ranger for Security y Apache Atlas como parte de su plataforma Hortonworks Data Platform (HDP).

Asimismo, está apostando fuertemente en el desarrollo del proyecto Apache Metron, una plataforma para el análisis y detección de riesgos de seguridad en tiempo real. Con este conjunto de herramientas, las empresas son capaces de detectar todo tipo de malware analizando grandes volúmenes de información en segundos. Cuando una organización es atacada, los administradores pueden procesar y comparar los datos para localizar patrones que hayan cambiado o sean sospechosos. “Los datos son la base de la detección moderna de amenazas, un correcto estudio de la información, combinado con el aprendizaje continuo de las plataformas de datos permite detectar cualquier problema de seguridad en segundos sin que impacte en su rendimiento. Y esto solamente se puede conseguir de forma eficiente con una arquitectura abierta como la nuestra”, finalizaba el presidente de Hortonworks.

Durante estos días también estamos escuchando la experiencia de los principales partnerrs de la compañía, como es el caso de Hewlett Packard Enterprise, Microsoft y EMC, que trabajan conjuntamente en áreas como Haven On Demand, Azure e Isilon, respectivamente.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

España alcanza los 15,6 millones de líneas de fibra óptica hasta el hogar

Un tercio de estas líneas pertenece a Movistar que, junto a Orange y Grupo MASMOVIL,…

10 mins ago

SAP inaugura un Centro de Experiencia del Cliente sobre IA

Ubicado en Sophia Antipolis, en Francia, ofrecerá a una experiencia inmersiva para experimentar con la…

48 mins ago

Nuevas funciones de Slack AI: Recapitulación matutina y respuestas de búsqueda inteligentes

Salesforce integra la IA de Slack para todos sus clientes de pago e incorpora boletines…

1 hora ago

La economía de la suscripción rebasa el medio billón de dólares

Para este año Juniper Research prevé una cifra de ingresos de 593.000 millones, que serán…

2 horas ago

Samsung recupera el trono en el mercado de los ‘smartphones’

Durante el primer trimestre de 2024 aportó un 20 % de los envíos frente al…

4 horas ago

Ericsson, Nokia, IBM, Intel y Vodafone reclaman medidas para acelerar el Mercado Único Digital

Las cinco tecnológicas comparten sus peticiones a los responsables de diseñar políticas a nivel comunitario.

5 horas ago