Aún dando sus primeros pasos, el 2015 ya cuenta con las suficientes semanas a sus espaldas como para que a estas alturas podamos dibujar un primer mapa aventurando los caminos por los que parece transitarán las próximas innovaciones en Big Data, y enumerando algunas de sus nuevas y más inmediatas aplicaciones.
Algunas de estas innovaciones y nuevas aplicaciones de Big Data ya las podemos intuir desde hace meses, y de hecho así lo hacíamos al referir algunos de los sectores más beneficiados por la evolución de los sistemas de análisis y gestión de grandes volúmenes de datos. Así, el 2015 dispone un escenario en el que, además de realizar nuevas conquistas, las herramientas Big Data (que ya han llegado a campos como los de la sanidad, el deporte, la educación o el turismo) buscan sobre todo afianzarse en estos sectores y especializarse, con el objetivo de cubrir necesidades cada vez más inmediatas, coyunturales y concretas.
En general, las sendas que recorrerá Big Data en 2015 buscarán profundizar en sus ya consagradas «3 V», tratando de dar respuesta a los retos planteados por un volumen, una variedad y una velocidad cada vez mayores en lo que a acumulación de datos se refiere. El crecimiento exponencial de herramientas y aplicaciones móviles, con el consiguiente aumento (no menos cuantioso) de fuentes de datos abiertos (los codiciados open data), ofrecen oportunidades únicas de negocio relacionadas directamente con el correcto análisis y la adecuada gestión de datos extremadamente diversos, dinámicos y cuantiosos (unas necesidades que requieren herramientas cada vez más potentes y versátiles).
En este sentido, parece que las soluciones basadas en la nube y las que usan tecnologías de integración de datos no procesados, como Hadoop, tendrán un papel destacado entre las prioridades de los desarrolladores de herramientas BI, que tratarán de ofrecer instrumentos de análisis y gestión de datos más potentes.
Pero a la potencia, como decíamos, habrá también que añadir la versatilidad, es decir, la capacidad de dar respuestas adaptadas y concretas a necesidades cada vez más coyunturales, puntuales y/o urgentes.
Por poner solo un ejemplo: para España, 2015 será un año eminentemente electoral, con diversos comicios que atañen a distintas administraciones, con escenarios electorales muy dispares entre sí. Desde las instituciones pertinentes hasta los medios de comunicación, de ámbito nacional e internacional, pasando obviamente por partidos políticos y sus respectivos responsables de campaña, requerirán datos cada vez más precisos, concretos y fiables (sobre intención de voto, grado de afección/desafección de los votantes, etc.) a medida que se acerquen las fechas de cada cita electoral. Unos datos que posiblemente varíen, de un modo sensible, en cuestión de horas (o incluso minutos) por lo que la información que aporten, clave para tomar las decisiones oportunas, solo podrá ser aprovechada contando con las adecuadas herramientas de análisis Big Data.
De lo anterior, y a modo de conclusión, podemos deducir que además de potentes y versátiles, las herramientas de análisis y gestión de grandes volúmenes de datos también deberán ofrecer, al mismo tiempo, garantías cada vez mayores en lo que a la calidad de estos datos se refiere. Datos fiables y de calidad, esto es, que aporten información relevante para cubrir necesidades cada vez más inmediatas y concretas, que obligarán a contar con una adecuada estrategia de gestión de datos. Este asunto está tratado ampliamente en la guía gratuita El proceso y los retos para obtener datos fiables para tu analytics, completamente gratuita, gracias a la cual el lector podrá hacerse una idea amplia y a la vez precisa de las principales urgencias que la innovación en herramientas Big Data debe atender.
Post relacionados:
El cuadro de mando integral en industrias del sector primario
Los entornos Business Intelligence se afinzan en el sector turístico