Durante los últimos años, la computación de alto rendimiento (HPC, por sus siglas en inglés) ha sostenido la gran carga analítica de datos de la que se han nutrido tanto los avances científicos como el desarrollo de nuevos productos y servicios.
Su importancia va a seguir creciendo a medida que la transformación digital de los sectores productivos avance, ya que durante dicho proceso el incremento del volumen de datos generados continuará. Así, se calcula que en 2025 las sociedades tecnológicamente más avanzadas producirán 163 zettabytes. Una cifra astronómica de información que deberá ser debidamente analizada para obtener lecturas significativas, que inspiren la toma de decisiones en los más variados ámbitos y estimulen la investigación, el desarrollo y el aprendizaje capaces de conducirnos a una nueva era de progreso.
Como decimos, la computación de alto rendimiento (HPC) es y seguirá siendo clave a escala diversa para impulsar innovaciones de toda clase y alcance. Estará en la base de proyectos científicos faraónicos -como la construcción del gigantesco radiotelescopio Square Kilometer Array (SKA), que será capaz de analizar 10 mil millones de flujos de datos visibles -; en el desarrollo del coche autónomo; en la puesta en marcha de fábricas automatizadas, que se estima crearán 1 petabyte de datos diario; o en la construcción de hospitales “inteligentes”, donde se generarán 3 terabytes de datos al día.
Ciencia de los datos al servicio del negocio Así las cosas, la HPC deberá aumentar sus capacidades y mejorar su poder analítico constantemente, con el fin de que los costes de extraer conocimiento del creciente volumen de datos disponible sean razonables. A día de hoy ese objetivo se está consiguiendo diseñando plataformas de hipercomputación, que integran Inteligencia Artificial y Procesos de Análisis de Datos de Alto Rendimiento (HDPA).
Uno de los ejemplos más sobresalientes lo tenemos en la tercera generación de la plataforma Power Solutions de IBM, que agiliza los flujos de trabajo, acelera el cálculo y facilita las tareas de uso intensivo de datos para acceder, de una forma sencilla y sin costes extra, a la nueva era cognitiva de analítica y aprendizaje. La nueva plataforma de IBM aúna la Inteligencia Artificial que los científicos de datos necesitan con la fiabilidad que demandan las TI corporativas en un diseño que es capaz de intercontectar entre 2 y 5,6 veces el ancho de banda de las cargas de trabajo actuales de gran intensidad de datos.
Gracias a ello las organizaciones pueden llevar el potencial del Big Data y la Inteligencia Artificial a su máximo nivel, impulsando la innovación de todo el ecosistema de herramientas y aplicaciones cognitivas empresariales. Un paso definitivo para que la Inteligencia Artificial (IA) se aplique al mundo de los negocios, transforme la información disponible en modelos predictivos que ayuden a tomar decisiones capaces de impulsar la productividad, mejorar los productos y servicios, y optimizar su operativa con más inteligencia y agilidad.