La tecnología HCI llega al rescate de la Cloud

Publicado el 18/11/19 10:10

Las tecnologías Big Data y de inteligencia artificial precisan una infraestructura de base hiperconvergente (HCI) que combine software de plataforma con otros sistemas muy potentes, capaces de hacer frente a las enormes exigencias y cargas de trabajo que generan la analítica cognitiva y transaccional.

A la vez, estos cimientos deben ser sencillos y fáciles de escalar, en función de las necesidades de cada caso, además de poder acceder a servicios de datos y archivos, sin recurrir a sistemas de almacenamiento autónomos. Se trata de aprovechar la infraestructura existente, transformar el negocio y repartir las cargas de trabajo más intensas en los servidores más adecuados para ejecutarlas.

Con estos recursos es posible acceder a la analítica predictiva de forma modular y escalable, simplificando el despliegue de la llamada informática cognitiva, con la sencillez propia de un servidor web. Se facilita así una escalabilidad simple y sin límites, el pago evolutivo y en función de los recursos que se utilizan y un crecimiento incremental de la infraestructura con la simple incorporación de nodos cuando sea necesario. Y todo ello, sin tener que recurrir a un aprovisionamiento excesivo.

41330827_xl

Al final, la gran ventaja reside en que se añade capacidad de forma gradual, pero también se optimizan los costes del centro de datos, al incrementar su uso, sin perder rendimiento y pudiendo eliminar redes SAN, caras y complejas.

De este modo, es posible acceder a funciones cognitivas avanzadas, de machine learning e inteligencia artificial, y manejar cargas de trabajo de misión crítica tipo bases de datos o grandes almacenes de información, infraestructuras web y aplicaciones empresariales mainstream con recursos de administración limitados.

Funciones que se integran estrechamente con los servidores, redes de almacenamiento y recursos virtualizados y otras tecnologías pre-integradas en un espacio escalable e individual, llamado nodo, que además queda integrado en una topología escalable, gestionada por una pila de software. Accedemos al final a un gran sistema de archivos distribuido y virtualizado, que es manejado de forma óptima para favorecer el rendimiento global de la infraestructura.