Observatorio

Supercomputación, ¿qué es y para qué sirve?

Supercomputación, ¿qué es y para qué sirve?

Supercomputación, ¿qué es y para qué sirve? / La Provincia

Francisco Yáñez

Francisco Yáñez

En 1965, el cofundador de Intel, Gordon Moore, predijo que el número de transistores en un chip se duplicaría aproximadamente cada dos años, con un aumento mínimo en el coste de fabricación. Esta predicción, bautizada como la ley de Moore, se ha mantenido hasta la fecha como una característica distintiva en todos los ámbitos de la industria del hardware, desde la capacidad de procesadores (su aceptación más conocida) hasta los píxeles de las cámaras fotográficas o el ancho de banda de internet. La tasa de digitalización del mundo ha aumentado en los últimos dos años, provocada en parte por la pandemia de covid-19. Todo se está volviendo digital, y esa transición requiere de una mayor demanda de computación, una tecnología que, cuando alcanza una capacidad de cálculo y una velocidad muy alta, se define como supercomputación.

A diferencia de las computadoras tradicionales, las supercomputadoras utilizan más de una unidad central de procesamiento (CPU), las cuales se agrupan en nodos, habitualmente de 20 o 20, en una especie de armarios o racks llamados switches, y todos estos switches se unen entre sí mediante cables de fibra óptica y de alimentación para trabajar en paralelo e interconectados, es decir, todos al mismo tiempo colaborando para resolver un problema específico, y así obtenemos el superordenador. Debido al consumo de energía de las supercomputadoras modernas, los centros de datos requieren de sistemas de refrigeración e instalaciones específicas para albergarlo todo. Por ejemplo, el IBM Summit, uno de los superordenadores más potentes del mundo, con 9.216 procesadores y 27.648 chips gráficos, tiene con un consumo de casi 13.000 kW y un sistema de refrigeración líquido que bombea 15.000 litros de refrigerante por minuto.

En España contamos con 13 centros de este tipo, que ofrecen recursos de computación de alto rendimiento (HPC) a la comunidad científica y que engloban la Red Española de Supercomputación (RES), con especial protagonismo del Barcelona Supercomputing Center (BSC), que cuenta con la supercomputadora MareNostrum, y del Centro de Supercomputación de Galicia (Cesga), que ha puesto en funcionamiento recientemente el espectacular Finisterrae III, que multiplica por 12 la capacidad de cálculo de su anterior supercomputador.

Pero ¿cómo de rápida es la supercomputación? Su velocidad se mide en FLOPS (Floating Point Operations per Second), una unidad que se suele utilizar para medir los cálculos matemáticos que se puede hacer por segundo. El IBM Summit tiene una potencia de 200.000 tera-FLOPS, y, para que nos hagamos una idea, una consola PS5 tiene una potencia de 10 tera-FLOPS. En otras palabras, el IBM Summit tiene una potencia de cálculo equivalente a 20.000 consolas PS5.

Dejando de un lado todas estas cifras, que son importantes pero que por sí solas no nos dicen mucho, la pregunta clave a formular sería: ¿qué podremos hacer con la supercomputación? Aquí tenemos algunas aplicaciones de muestra:

– Combatir enfermedades: la llegada de estos nuevos superordenadores supone un potente impulso para los investigadores en la lucha contra enfermedades como el cáncer. Con algoritmos de aprendizaje automático se consigue proporcionar a los investigadores médicos una visión integral de la población con cáncer, con un nivel de detalle que normalmente se obtiene solo para los pacientes de ensayos clínicos.

– Identificar materiales de nueva generación: con algoritmos para predecir las propiedades de los materiales, los investigadores podrán encontrar las respuestas al comportamiento de los materiales a escalas atómicas, y se conseguirá identificar materiales para mejores baterías, materiales de construcción más resistentes y semiconductores más eficientes.

– Descubrir nuevos fármacos: utilizando una combinación de técnicas de inteligencia artificial, los investigadores podrán identificar patrones en la función, cooperación y evolución de las proteínas y los sistemas celulares humanos, para comprender cómo estos patrones dan lugar a fenotipos clínicos (rasgos observables de enfermedades) como el alzhéimer, enfermedades cardiacas o adicciones.

– Avanzar en meteorología y climatología: con aplicaciones de cálculo de modelos climatológicos y oceánicos, como el WRF (Weather Research and Forecasting), muy útiles para entender el cambio climático, o predecir y anticiparse a fenómenos meteorológicos extremos, o también terremotos, tsunamis o erupciones.

En definitiva, las supercomputadoras, a menudo utilizadas en combinación con algoritmos de inteligencia artificial, son la respuesta a las crecientes necesidades de investigación de la ciencia, y suponen todo un hito en la historia porque aceleran enormemente los cálculos y las simulaciones necesarias que, de otra manera, habría llevado décadas lograr. La tecnología, que nunca ha sido más importante para la humanidad de lo que es ahora, se sigue basando en la ley de Moore para continuar avanzando, aunque esa misma ley haya sido puesta en entredicho en muchas ocasiones, especialmente durante los últimos años. La dificultad que conlleva innovar de forma constante en los procesos fotolitográficos que determinan la cantidad de transistores que es posible implementar en un microchip ha provocado que esta predicción haya estado a punto de dejar de cumplirse en varias ocasiones. Y, sin embargo, no lo ha hecho. Eppur si muove. 

Suscríbete para seguir leyendo