La gestión de los datos con los que cuenta una corporación ha ido ganando peso en los últimos tiempos, deviniendo hoy una operación clave para asegurar el futuro de cualquier organización.
Los datos son, sin duda alguna, uno de los mayores activos con los que cuenta una compañía y uno de los pilares fundamentales sobre los que se asienta cualquier estrategia corporativa que se precie. Esto ha propiciado, en multitud de sectores de negocio, un interés creciente por dotarse de herramientas que permitan el manejo de volúmenes de datos cada vez mayores, en muchas ocasiones prestando más atención a la cantidad que a la calidad de los datos compilados.
Sin embargo, y en una proporción prácticamente paralela al surgimiento de nuevas fuentes y sistemas de origen de datos, la calidad y la precisión de los mismos ha ido mermando hasta el punto de alcanzar cotas realmente significativas: actualmente, se estima que cerca del 25% de los nuevos datos que se generan son imprecisos, incompletos, fragmentarios o simple y llanamente erróneos.
Como era de esperar, ante esta nueva realidad las prioridades en la gestión de datos han iniciado un significativo giro en pro de la calidad, sin menoscabar con ello la importancia de la cantidad pero sí exigiendo, al mismo tiempo, la estandarización de indicadores y procesos que garanticen la máxima calidad de los datos disponibles y de los sistemas para su procesamiento (los estándares data quality).
Errores comunes en la gestión de la data quality
El éxito o el fracaso en la gestión de la calidad de datos está íntimamente vinculada con los riesgos que se asumen en este tipo de operaciones de gestión, y especialmente con el sistema y las medidas adoptadas para afrontarlos; sin embargo, y pese a la importancia que evidentemente tiene el dotarse de un correcto sistema de gestión de calidad, en muchas ocasiones la atención se centra más en los procesos de gestión en sí que en la calidad misma del objeto de tratamiento, en este caso, datos.
Este error, tan frecuente como crítico, consiste principalmente en confiar de un modo prácticamente exclusivo en la supervisión y el mantenimiento de unos estándares de calidad en los procesos de análisis de datos, presumiendo que los datos parciales, incompletos, duplicados, erróneos... no pasarán los filtros de calidad establecidos en el sistema mismo de gestión, dejando en un segundo término la consideración de implementar sistemas de supervisión y detección temprana de datos de mala calidad.
Entre otros inconvenientes, esto puede comportar disfunciones y saturaciones de consideración a la hora de integrar nuevos datos en bases ya previamente estructuradas, que pueden conducir a un rotundo fracaso de la estrategia de análisis de datos adoptada, y la consiguiente pérdida de competitividad corporativa, entre otros perjuicios graves (la guía gratuita 10 claves para definir tu estrategia corporativa de gestión de datos aporta amplia información sobre la cuestión, entre otros asuntos de interés).
Dotarse de un sistema de supervisión continua de los datos recientemente incorporados (así como de los ya existentes) deviene, pues, una necesidad de primer orden. Un sistema que debe integrar herramientas de detección temprana que permitan filtrar y categorizar los datos según su calidad detectando, antes de ser requeridos por el sistema de gestión (que los transformará primero en información relevante y, después, en conocimiento sensible para la toma de decisiones), su grado de coherencia, oportunidad y fiabilidad, entre otros factores determinantes.
Post relacionados: