La infraestructura IT preparada para los retos del Big Data y HPC

Publicado el 4/06/19 17:30

Más allá de la extraordinaria capacidad técnica de la infraestructura definida por software de IBM, sus beneficios resultan tangibles para los negocios y la actividad comercial de las organizaciones, al incorporar también las ventajas de la analítica de Big Data y de la computación de alto rendimiento (HPC), todo ello integrado en un ecosistema de confianza, creado por IBM.

Hoy mismo, ya vemos cómo las cargas de trabajo que proceden de Big Data son cada vez más intensivas en computación y requieren un rendimiento y escalabilidad superior. Hasta el punto de llegar a ser comparables a las de computación de alto rendimiento. Se centran, muchas veces, en áreas de ciberseguridad, detección de fraudes y análisis de datos sociales, pero estos usos también irán ampliándose con el paso del tiempo.

 

 

Estas enormes cargas de trabajo imponen un nuevo planteamiento para las infraestructuras IT, que incluso permita dar respaldo a ambos escenarios, intensivo en cómputo e intensivo en datos, y constituya una respuesta completa y eficaz a las labores de análisis de grandes datos que impone el mercado. Y, además, hacerlo a toda velocidad. Precisamente, la hipercomputación HPC y la analítica de Big Data tienen similitudes que aconsejan una infraestructura común e integrada como la definida por software. Por ejemplo:

● Tanto las simulaciones como el Big Data suelen disponer de una estructura local paralela en las organizaciones

● Los modelos de Big Data con frecuencia requieren hardware HPC y mejoras constantes del software para alcanzar su mejor rendimiento.

● Las simulaciones casi siempre implican una mezcla de mensajería con operativa común, de difusión, agrupación, dispersión y eliminación, compartiendo un problema con Big Data; que a menudo implican operaciones colectivas.

● Las simulaciones de HPC y Big Data tienden a ser ligeramente síncronas e iterativas

En suma, los expertos consideran que las cargas de trabajo de HPC y Big Data pueden compartir la misma infraestructura, evitando los silos informáticos, para compartir e incluso reducir significativamente sus costes, al poder almacenar los datos una vez y compartir las cargas de trabajo.

Por último, pero no menos importante, la consolidación de los recursos de cómputo y almacenamiento simplifica la gestión del sistema, lo que otra vez reduce costes y mejora eficiencias. Por ejemplo, la combinación de múltiples cargas de trabajo en una sola infraestructura, que incluya la gestión de los acuerdos de nivel de servicio (SLAs), permitirá no solo armonizar estas cargas, sino también realizar una gestión global de sistemas de hardware y de archivos diferentes, tanto en las propias instalaciones físicas como en la nube.Big Data y HPC_IBM_Logicalis