A fondo: ¿Quién ganará en la carrera por el exaflop?

CienciaInnovación

Estados Unidos, China, Japón y Europa compiten en la carrera por ser los primeros en desarrollar una supercomputadora que alcance el exaflop.

Esta semana informábamos acerca de la presentación de Aurora, que será la primera supercomputadora estadounidense que alcanzará una capacidad de procesamiento de un exaflop.

Pero ésta no es la única iniciativa en este sentido. De hecho, es una carrera que viene de lejos. Ya en el año 2012, India anunciaba sus aspiraciones de albergar la primera supercomputadora a escala exaflop. Quizá eran demasiado optimistas, ya que ha llovido bastante desde entonces y aún no se logrado dicho objetivo.

Actualmente, IBM encabeza el ranking de supercomputadoras con Summit y Sierra, que presentan un rendimiento teórico máximo en torno a 200 y 125 petaflops, respectivamente, superando al Sunway TaihuLight (125 petaflops), desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadoras Paralelas de China (NRCPC), según los datos de Top500.org.

Si atendemos a las cifras alcanzadas usando el benchmark Linpack, Summit logra una capacidad de 143,5 petaflops, mientras que Sierra llega a 94,6 petaflops y Sunway TaihuLight supera los 93 petaflops.

En nuestro país, la supercomputadora con mayor potencia es MareNostrum IV, del Barcelona Supercomputing Center, con una potencia teórica de 10,3 petaflops y un rendimiento máximo alcanzado de 6,5 petaflops. Ocupa el vigésimoquinto puesto del mundo en la clasificación de Top500.

¿Para qué sirve tal capacidad de computación? “Para cualquier aplicación que pueda pagar su uso con fondos públicos o privados, como la simulación de armamento nuclear, cambio climático, prospección petrolífera, etc.”, señala Francisco R. Villatoro, físico, matemático, informático, experto en computación, divulgador científico y responsable del blog ‘La ciencia de la mula Francis’.

El salto hacia el exaflop

Superar el exaflop supondría un enorme salto. Sin embargo, se estima que se podría lograr este hito el año próximo. “Se espera que se logre a mediados de 2020. En la revista Computing Science and Engineering se acaba de publicar un número especial sobre el tema (‘Race to Exascale’)”, señala Villatoro.

“El primer artículo trata sobre la supercomputación en China. Hay que recordar que el supercomputador Tianhe-1A fue el número uno en el Top500 entre junio de 2013 y noviembre de 2015. Se afirma que China pretende volver a liderar el Top500 en junio de 2020, con un superordenador que supere el exaflop, la nueva versión de Sunway TaihuLight, que fue número uno en el Top500 de noviembre de 2017. El tercer artículo, sobre Japón, afirma que también pretende hacerlo para mediados de 2020, con el proyecto Post-K. En Europa, tal y como indica el segundo artículo, habrá dos supercomputadores superando el exaflop para 2023. Y en Estados Unidos, según el cuarto artículo, habrá tres para 2023”, detalla.

Aunque conseguir este objetivo no es una tarea fácil. Villatoro anota que las dificultades para llegar a la exaescala son similares a las que supuso alcanzar el petaflop hace once años, con el IBM Roadrunner. Y cuando la escala crece, también lo hace la dificultad.

“Se siguen necesitando avances en los modelos de programación paralela con memoria distribuida. Dado que el número de CPUs y GPUs es creciente, la gestión de memoria -más de 10 petabytes- es un cuello de botella a superar, así como las líneas de comunicación de gran ancho de banda -más de 500 gigabits por segundo- entre estos procesadores. La eficiencia energética, no sólo asociada al consumo energético de los procesadores, sino también a los sistemas de enfriamiento, es otro cuello de botella. Y hay muchos más, pero entrar en los detalles no nos ayuda a entender las grandes dificultades que supuso alcanzar el petaflop y que comportará ahora llegar al exaflop. Lo único relevante es que mucha gente trabaja para que el progreso sea continuo. Y así será mientras haya fuentes de financiación que lo permitan”, declara.

¿x86 o ARM?

A corto plazo, el futuro de la supercomputación no contempla un vencedor entre x86 o ARM, sino que todo apunta hacia la conjugación de ambas tecnologías. “Ahora mismo, todos los supercomputadores usan una combinación de ambas tecnologías: CPUs tipo x86 y GPUs tipo ARM. Como ambas se complementan muy bien, no hay indicios de que en los próximos años vaya a cambiar la tendencia. Al menos no lo hará en la era de los exaflops”, afirma Villatoro.

Sin embargo, todo podría cambiar si proyectamos la vista más adelante. “Muchos expertos opinan que una nueva tecnología reemplazará a ambas a mediados de la próxima década. Me gustaría recordar el cambio de hoja de ruta de la industria (International Technology Roadmap for Semiconductors) en el llamado ITRS 2.0 de 2015, obviando la Ley de Moore como objetivo y apostando por una reducción del consumo energético. Todo parece indicar que la tecnología de 5 nm, cuyos primeros prototipos se esperan en 2020, será la última para las tecnologías x86 y ARM. Más allá, habrá que recurrir a una nueva tecnología. Pero predecir el futuro es imposible”, comenta.

Apoyo en la inteligencia artificial

También hay que tener en cuenta cómo puede impulsar la supercomputación el uso de la inteligencia artificial (IA). “Hoy en día, se usa de forma habitual la IA como herramienta de ayuda a los ingenieros en el diseño de todo tipo de sistemas complejos, incluyendo los supercomputadores”, recuerda Villatoro.

Además, reseña que “muchos problemas de IA, como la simulación de grandes redes de neuronas que emulen el encéfalo de un mamífero, por ejemplo, requieren el uso de supercomputadores”. De este modo, considera que “ambos campos se benefician mutuamente”. Y señala que “lo llevan haciendo desde que, a principios de años 70, todos los circuitos integrados se empezaron a diseñar por ordenador usando sistemas expertos, es decir, inteligencia artificial”.

Convivencia con la computación cuántica

Los avances en la supercomputación conviven también con el desarrollo que se está produciendo en el ámbito de la computación cuántica, que parte de unos conceptos totalmente diferentes a los de la informática ‘tradicional’.

Sin embargo, no parece que suponga una amenaza para la evolución de la supercomputación. “Los ordenadores cuánticos tendrán su propio nicho tecnológico y nunca competirán con los supercomputadores tradicionales. Sus aplicaciones están centradas en la simulación de sistemas cuánticos, campo donde los supercomputadores son inútiles en la práctica, como la simulación de fármacos, nuevos materiales, etc. Nadie usará un ordenador cuántico para resolver un problema que se pueda resolver con un supercomputador. De hecho, quizás nunca haya superordenadores cuánticos, con lo que tendrán que colaborar los ‘pequeños’ ordenadores cuánticos como ‘oráculos’ de ciertos supercomputadores dedicados. Nadie concibe un reemplazo de la tecnología tradicional por la tecnología cuántica en este siglo”, concluye Villatoro.

Lea también :
Leer la biografía del autor  Ocultar la biografía del autor