Una iniciativa DataOps requiere de un plan inicial de actuación detallado, que tenga en cuenta el historial de datos de cada corporación, su tipología, procedencia, entorno de gestión e infraestructura de base.
Gran parte del éxito de este tipo de plan reside en realizar una correcta catalogación de activos, datos, metadatos, tipologías y herramientas de partida. A partir de ella, tendremos una idea preliminar de la calidad de estos recursos y de la metodología empleada hasta ahora.
Una vez concluido este proceso, se define un equipo que identifique las metas y objetivos que se persiguen y asegure su cumplimiento. Este colectivo debe intentar añadir el mayor número de capacidades DataOps posibles, así como alinear la entrega de los datos con el valor que aportan al negocio. Llegados aquí, la pregunta que hay que hacerse es: ¿Cuánto dinero podemos ahorrar o ganar si la información estuviera disponible más rápido para todos los empleados?
Posteriormente, es necesario construir el canal de los datos, que es un código fuente que se encarga de convertir contenido en bruto en información útil. Esta canalización resulta fundamental para el posterior análisis de los datos y su potencial automatización, por eso, es necesario que se pueda utilizar de forma repetida.
En la actualidad, muchos archivos, configuraciones y parámetros asociados a la analítica están repartidos en distintos entornos tecnológicos y departamentos de la organización, sin ningún gobierno o control, lo que resulta muy inconsistente.
Este modelo de canalización para la analítica de datos prueba su funcionamiento correcto de forma automatizada y verifica su precisión o desviación potencial antes de publicarse, garantizando la calidad de todo el proceso. Las pruebas manuales ya no tienen sentido en organizaciones de alto rendimiento, porque son muy laboriosas y provocan errores. Por eso, resulta clave disponer de un conjunto de pruebas robusto y automatizado.
Pero, para que una metodología DataOps tenga éxito, la automatización es un aspecto fundamental y requiere crear esta canalización para su análisis, que además debe ser flexible, estar gobernada y ofrecer datos fiables. Así, para que sea consistente, debe incluir la ingesta, catalogación y clasificación de los datos y metadatos, ha de ser robusta y repetible, entregar datos de calidad en modo autoservicio y garantizar la plena gobernanza y privacidad de los datos.
Las soluciones IBM Cloud Pak for Data, IBM Cloud Pak for Data Server e IBM Watson Knowledge Catalog son las soluciones capaces de abordar este proceso completo, de forma eficiente, robusta, automatizada y repetible, para garantizar la máxima calidad de los datos y unas políticas de control eficaces.