HPE quiere construir una arquitectura de computación con 4.096 yottabytes

Big DataDatos y AlmacenamientoInnovaciónInvestigación y DesarrolloProyectos

De momento ya ha presentado un modelo que alcanza los 160 terabytes de memoria y que forma parte de su proyecto The Machine orientado a la era del Big Data.

HPE continúa avanzando en su proyecto The Machine que quiere dar vida a una arquitectura específica para la era del Big Data. Esto es, una “arquitectura de computación de memoria única” que aproveche el potencial del Memory-Driven Computing o, lo que es lo mismo, de la computación centrada en la memoria.

Al poner la memoria en el centro de la arquitectura de computación, precisamente, HPE pretende ofrecer inteligencia en tiempo real.

Lo último que ha presentado al respecto es un modelo de 160 terabytes de memoria repartida en 40 nodos físicos interconectados. Este modelo se caracteriza por tener la capacidad de trabajar con un altísimo volumen de datos a la vez. Otras de sus especificaciones son un sistema operativo que se basa en Linux y se ejecuta un ThunderX2, una serie de herramientas de programación de software y sus enlaces de comunicación fotónica y óptica.

A pesar del avance que esto supondría, en HPE ya piensan en mejorar. La compañía cree que esta arquitectura será capaz de subir hasta los exabytes. E incluso más, hasta los 4.096 yottabytes o 1.000 veces el tamaño del mundo digital actual.

“Con esta cantidad de memoria, será posible trabajar simultáneamente con los historiales médicos digitales de cada persona en la tierra; cada dato de Facebook; cada viaje de los vehículos autónomos de Google; y todos los conjuntos de datos de la exploración del espacio, todo al mismo tiempo”, explican desde HPE, “hallando respuestas y descubriendo nuevas oportunidades a velocidades sin precedentes”.

“Los secretos del próximo gran avance científico, innovación que cambia la industria, o tecnología que altera la vida se esconden detrás de la gran cantidad de datos que creamos cada día. Para cumplir esta promesa, no podemos confiar en las tecnologías del pasado, necesitamos una arquitectura de computación diseñada para la era del Big Data”, ahonda Meg Whitman, CEO de HPE.

Del mismo modo, el CTO de la firma californiana, Mark Potter, ve el Memory-Driven Computing como “la solución para hacer evolucionar la industria tecnológica, de forma que se produzcan avances en todos los aspectos de la sociedad” y la arquitectura recién presentada como una solución aplicable “a todas las categorías de computación, desde dispositivos Intelligente Edge hasta supercomputadoras”.

Leer la biografía del autor  Ocultar la biografía del autor