HPE: “Lo más complicado en machine learning es conseguir que los procesos hablen entre ellos. Pero también lo más divertido”

Fernando Lucini, CTO de Big Data en Hewlett Packard Enterprise, posee un extenso bagaje en materia de Big Data e Inteligencia Artificial. Afincado en Cambridge, llegó a este cargo tras la absorción de Autonomy por parte de HP en 2012, momento en el que comenzó a dar vida a un proyecto de computación cognitiva que el fabricante ya comercializa con el nombre de HPE Haven OnDemand. Silicon ha tenido acceso a Lucini para que nos cuente en qué consiste y qué puede suponer para cualquier tipo de industria.

– Para entrar en materia, ¿Qué es Haven OnDemand?

Se trata de un conglomerado de productos muy potentes que aplican machine learning a problemas, muchos de ellos a nivel de texto, vídeo y audio, imágenes… Ayudan a automatizar muchos procesos alrededor de estos datos y ayudan a la gente a crear aplicaciones inteligentes, con mucha riqueza. Es una plataforma que creé yo desde cero. Su objetivo es permitir a los desarrolladores generar aplicaciones para sus negocios que hagan uso de esta tecnología sin necesidad de que la diseñen desde cero, así los plazos de desarrollos se acortan enormemente.

Fernando Lucini, CTO de Big Data para HPE

– Por tanto, Haven OnDemand funciona como una API

Sí, aunque la definición de API en la industria es muy genérica. Para nosotros es una tecnología que permite abstraer funciones complejas que llevan mucho tiempo de desarrollo. Así, nuestros socios y clientes pueden utilizarla sin necesidad de saber cómo funciona internamente pero conociendo qué es lo que puede hacer.

Además, era necesario abrir el proceso para que fuera lo más democrático posible. Ofrecemos la posibilidad de que los desarrolladores paguen solamente cuando hagan uso de estos algoritmos y por el tiempo que lo estén ejecutando.

Si ellos ganan, nosotros también. Si no lo hacen, nosotros tampoco. Así es cómo nació Haven OnDemand.

– ¿Cuántas APIs están disponibles en la actualidad?

En este momento son unas 60 pero son solo las primeras que hemos creado. Están enfocadas a la creación de aplicaciones de contexto, con riqueza de datos. Sirven para adquirir datos, extraer valor, guardarlos… de esta forma es posible hacer preguntas sobre ellos o simplemente aplicarlos, mostrarlos en una aplicación. Hemos pasado un año y medio en fase de beta abierta, en modo freemium para que los desarrolladores pudieran darnos su feedback y mejorar los algoritmos. De hecho organizamos 40 o 50 hackatons tanto corporativos como públicos para entender correctamente nuestra misión de simplificación, de abstracción. Después de este proceso estamos en disposición de lanzarlo al mundo, con precios por uso.

– Hablas principalmente de reconocimiento de voz, análisis de imágenes, ¿Qué tipo de empresas pueden utilizar esta tecnología para sus negocios?

Los ejemplos más ‘sexys’ son el procesado de imágenes, vídeo, audio, pero también existe la aplicación de machine learning sobre texto. Esa es la base de todo al fin y al cabo. Se trata de una nueva categoría en modo on-demand para un gran número de industrias: defensa, electrónica, farmacéutica, banca, mucha banca… aquellos sectores en los que se maneja un gran volumen de datos humanos y donde existe la necesidad de utilizarlos para vender, dar soporte, realizar mantenimiento, etc. con sus clientes o partners.

Un ejemplo de ello que me gusta poner siempre son los sistemas de analítica para correos electrónicos. La idea es procesar los emails, extraer toda la información sea cual sea su nivel de almacenamiento, incluyendo los archivos adjuntos y generar gráficos en base a patrones marcados. Estos procesos, especialmente diseñados para cantidades ingentes de información basada en email, ya se podía realizar antes pero los desarrolladores se volvían locos y perdían mucho tiempo en el diseño de tales aplicaciones.

Ahora, como parte de Haven OnDemand, disponemos de tres o cuatro APIs que permiten realizar estas tareas, por lo que los clientes tan sólo tienen que cogerlas de nuestro repositorio y utilizarlas cada vez que necesiten procesar, analizar y mostrar la información de sus cuentas de correos. Todo ello sin necesidad de pagar enormes cantidades de dinero cuando tal vez solamente necesitaban utilizarlo una o dos veces.

– Parece una tecnología pensada para grandes empresas, pero ¿está también indicada para pymes?

Claro, esa es la idea del servicio. Obviamente en HPE contamos con grandes clientes, pero en España ya tenemos más de 13.000 profesionales que han accedido y llamado a nuestras APIs, muchos de ellos sin necesidad de haber pagado por su uso. Es el caso de los ‘hackatones’ que organizamos nosotros o alguno de nuestros socios. Y aquí estamos viendo desarrollos realmente interesantes en base a las APIs, aplicaciones muy sensatas que posteriormente podrán comercializar. Ahí nosotros nos llevamos nuestra parte de los ingresos relativa al uso de las APIs. Todos ganamos con ello.

– ¿Qué importancia tiene HPE Haven on Demand dentro del portfolio de soluciones de la compañía? ¿Crees que es la plataforma que va a liderar el mercado de machine learning, big data?

Hewlett Packard Enterprise es lo suficientemente grande como para no tener que tomar decisiones de ese tipo. Podemos elegir bastantes cosas que ofrecer a nuestros clientes. Hay muchas alternativas en el mercado. Toda la plataforma Haven está en Azure, por ejemplo, pero en realidad es independiente de la nube en la que está alojada. De hecho, está escrita nativamente para nuestra Helion por lo que aseguramos a nuestros clientes la mayor eficiencia si se usa bajo esta plataforma basada en estándares abiertos. La diferencia es que Helion se encuentra bajo la modalidad privada e híbrida, de ahí que también publicáramos Haven OnDemand en la plataforma pública Azure para dar una alternativa a los que buscaban ese modelo.

Intentando responder a tu pregunta, lo que realmente diferencia nuestro servicio de otros es que no verás en el  mercado otra apuesta para aplicar machine learning ofreciendo APIs por encima. Próximamente, las integraciones de Haven OnDemand con Helion van a tener mucho sentido, van a convivir juntas de una forma fantástica.

En la parte de Big Data es cierto que tenemos soluciones estrella como IDOL y Vertica que son utilizadas todos los días por muchas empresas. Pero Haven OnDemand permite tener accesibilidad a la funcionalidad de esos productos en forma de autoservicio, con lo cual es una combinación perfecta… Y todo ello sin hablar de lo que hacemos con nuestros servicios profesionales. En este sentido no se trata de un tira y afloja entre departamentos, al final todos remamos en la misma dirección, que es hacer negocio y ayudar a nuestros clientes.

– A nivel interno, de todos estos desarrollos que estáis llevando a cabo con las APIs para el análisis de imágenes, reconocimiento de voz, texto, indexado, búsqueda… ¿Cuál ha sido la parte más complicada, la que más quebraderos de cabeza os ha generado?

Para cada uno de estos procesos tenemos un gran equipo de profesionales especializados. Pero, efectivamente, lo más complicado de todo es conseguir que se hablen entre las propias APIs, que se entiendan, que puedan interactuar juntos. En cierta forma cada API es un contenedor, así que lo más difícil ha sido conseguir que un cliente pueda hacer uso de una tecnología, después coger otra y que entre ellas puedan comunicarse e intercambiarse los datos procesados para dar una respuesta concreta a sus necesidades. Al mismo tiempo ha sido lo más divertido, conseguir que todas las APIs sean flexibles, elásticas, que hablen entre ellas para generar procesos más complejos.

– Y sin necesidad de intervención humana…

Eso es. Sin intervención humana. La plataforma completa, a nivel operacional, la gestionan tres personas. Muchos otros hacemos otras cosas, pero la idea era automatizarlo todo lo máximo posible. Es la única forma de desarrollar un producto de cara al futuro. Nosotros enseñamos a estos contenedores a hablar entre ellos, a que generen un diálogo, y el resultado de este proceso es lo que denominamos ‘worker’, que está listo para funcionar prácticamente sin configuración previa y sin que el ser humano intervenga.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

Las soluciones de detección y respuesta gestionadas de HCLTech se combinan con CrowdStrike Falcon XDR

El acuerdo entre HCLTech y CrowdStrike amplía a nuevos mercados el alcance de la plataforma…

2 horas ago

La importancia de la visión artificial para los sectores industriales

La industria manufacturera prevé incrementos de hasta el 52 % en términos de productividad gracias…

3 horas ago

La italiana Kirey Group compra Grupo Solutio

Refuerza así su presencia de Kirey Group en el mercado español, donde ya se había…

3 horas ago

Silicon Pulse: Titulares de la semana #13

Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…

14 horas ago

Deloitte y AWS quieren estimular las migraciones a la nube en mercados en crecimiento

Deloitte creará Centros de Excelencia de AWS en distintas partes del mundo, incluyendo el África…

21 horas ago

Palo Alto Networks anuncia “la primera plataforma SOC del sector optimizada para la nube”

Introduce mejoras en Cortex XSIAM y ofrece capacidades de detección y respuesta de forma nativa…

22 horas ago