En lo concerniente a calidad de datos, muchas organizaciones se confían pensando que con una buena herramienta de limpieza y perfilado tienen suficiente. Algunas más maduras entienden que, además de la tecnología, es importante el refuerzo de la cultura de empresa, donde el establecimiento de la propiedad sobre los datos es uno de los pasos clave. Sin embargo, sólo los líderes se han dado cuenta de que el aseguramiento de la calidad de los datos corporativos es una cuestión que implica también a la estructura de la organización.
Créditos fotográficos: macgyverhh
Tomar decisiones sin que la calidad de datos esté asegurada es lo más parecido a jugar a la ruleta rusa con las finanzas de la empresa. Una de las necesidades que más veces se pasan por alto en materia de data quality es la actualización, y no solamente de los activos informacionales, que también deben ponerse al día para mantener su utilidad; sino también de la estrategia de datos de la organización.
Recomendamos la mejor herramienta de datos en la nube que facilita la extracción de datos exactos: Watson Explorer de IBM. Una solución para hacer predicciones de forma fácil, comprobar hipótesis y testear alternativas que todas las personas de la empresa puedan usar dependiendo del área de su departamento e interés.
Además, para que el planteamiento estratégico gane en eficiencia, puede ser necesario introducir tres cambios:
1. El CDO: el CEO y el CIO son los encargados de tomar las decisiones que afectan a las políticas de información de la empresa. Pero, en un entorno en que el volumen de datos, su variedad y la complejidad de las estructuras sobre las que se asientan no deja de crecer, puede ser necesario contar con un apoyo extra. Se trata del Chief Data Officer, también conocido como CDO (Jefe de Datos). Esta figura, si bien es un rara avis en el tejido empresarial de nuestro país, comenzará a proliferar. Al menos así lo predice Gartner, que asegura en un reciente informe que en los próximos meses una cuarta parte de las organizaciones contarán con una incorporación a este nivel en plantilla. En el mismo reporte aseguran que esa cifra puede alcanzar cotas superiores, en concreto, estarían hablando del 50% de los casos, cuando se trata de industrias como la salud, los seguros o la banca, donde las exigencias aplicables al cumplimiento son férreas, al estar muy reguladas. Y es que la mala calidad de datos tiene un alto coste financiero que hace perder cerca de trece millones y medio de dólares anuales a empresas de todo el mundo. Para evitar este tipo de pérdidas y prevenir las ineficiencias que las provocan, el CDO se ha de ocupar de implementar y monitorizar las políticas y procedimientos corporativos en materia de gestión de datos. Su rol tiene que ver con el gobierno de la información, aunque su propósito tendrá que estar relacionado con la generación de valor en base al uso adecuado de la información.
2. El departamento de IT híbrido: la calidad de datos es resultado de una labor de equipo. La falta de visibilidad, la compartimentación y la pobre comunicación actúan en su contra. Por eso, en la estrategia de calidad de datos de la organización hay que fomentar la evolución de los profesionales del área de IT. El objetivo es conseguir que esos perfiles técnicos puros se conviertan en híbridos. Para ello, deberán superar los roles tradicionales y desarrollar una profunda comprensión de las redes empresariales, los centros de datos y la entrega de aplicaciones. En realidad, se trata de conservar sus habilidades, combinándolas con capacidades nuevas. Es preciso definir un plan que facilite esta transición, ayudando a estos profesionales a perfeccionar sus habilidades de gestión de servicios de infraestructura y gestión de proveedores. Ése es el primer paso, y un hito importante, sobre todo en lo que concierne al éxito de la convivencia de entornos cloud con entornos on premise. Según un estudio de Unisphere, “en los últimos 5 años, el almacenamiento de datos en la nube se ha convertido en una característica cada vez más importante de la infraestructura general de gestión de datos y la cantidad de datos almacenados en la nube sigue creciendo a un ritmo constante”. Estas circunstancias obligan a los profesionales de TI a pensar en cómo tener éxito en este contexto cada vez más híbrido, en todos los sentidos, y en estrategias para gestionar la complejidad. IT tiene que encontrar la manera de integrar los servicios en la nube garantizando calidad de servicio, para satisfacer las necesidades de rendimiento del negocio para cualquier servicio dado. En esta misión, tendrán que monitorizar el progreso de las iniciativas, para que nada reste productividad a los procesos ni disponibilidad de la información a los usuarios. En su papel, será fundamental supervisar la utilización de los recursos, la saturación y los errores en la pila de aplicaciones, independientemente de la ubicación.
3. La inversión en nuevas soluciones: el informe global sobre las herramientas de calidad de datos 2016-2020 de Sandler Research confirma que una de las tendencias clave para el crecimiento será aumentar la incorporación de herramientas de calidad de datos y de soluciones de integración de datos (como pueden ser las de ETL o las de sincronización de datos). La novedad reside en que las tendencias apuntan a priorizar las implementaciones que ofrezcan ambas en conjunto, en vez de combinar herramientas de proveedores que presenten las propuestas por separado. En concreto, tal y como se desprende de este estudio, se pronostica que el mercado mundial de herramientas de calidad de datos crecerá en un 14,41% durante el período 2016-2020.
La forma de abordar la gestión de la calidad de datos debe evolucionar a la vez que lo hace el negocio y sus necesidades. En este caso, estamos en un momento de cambio importante que puede marcar un hito en el data quality si se logran introducir los cambios más productivos a tiempo y se sabe mantener la alineación con la realidad.