Dado que el análisis forense de datos es cada día más complejo, por la cantidad de equipos y datos a analizar, llega el análisis forense híbrido para realizar dicha tarea de una manera más eficaz, en especial cuando se trata de analizar grandes volúmenes de información. Esta alternativa viene a resolver un problema clásico que afrontan todas las organizaciones; cómo garantizar mi seguridad sin interrumpir o afectar a la actividad de los sistemas.
El análisis forense se planteó en su día para determinar las causas del compromiso de seguridad de un sistema. Básicamente, esta disciplina debía responder a las seis grandes preguntas que se haría cualquier investigador; Qué, Cuándo, Dónde y Cómo (ha pasado algo), Quién y Por qué (lo hizo).
Si aplicamos esta batería de cuestiones a cualquier incidente, ataque o secuestro tecnológico y obtenemos respuesta a todas ellas, habremos resuelto el análisis forense del mismo, con total eficacia, según su planteamiento.
Una estrategia de ciberseguridad adecuada debe contar con una protección eficiente y autónoma, junto con sistemas que proporcionen información sobre el estado y funcionamiento de la plataforma. Es decir, el análisis forense debe ir siempre acompañado de automatismos que nos permitan reaccionar de forma proactiva ante cualquier ataque, para más tarde identificar su origen y posible impacto.
El análisis forense híbrido viene, no obstante, a completar las lagunas que se han venido apreciando en los proyectos clásicos de seguridad. Su puesta en práctica presta un gran servicio a las empresas, ya que se puede ejecutar como una única tarea en la nube y no implicar o afectar a equipos o servidores, ni al servicio que prestan los mismos. De este modo, se superan las limitaciones del análisis forense tradicional (impacto en la infraestructura propia, lentitud del proceso de indexación o interferencias con los sistemas operativos alojados, que pueden incluso negar el acceso a estas herramientas).
Por el contrario, el análisis forense híbrido combina la capacidad de procesar múltiples puntos finales, como una única tarea junto, con la capacidad de atacar dispositivos del sistema y la aplicación. Y todo ello, sin causar interferencias al sistema operativo.
IBM Security Guardium Big Data Intelligence es el mejor ejemplo de esta nueva modalidad que viene a potenciar las soluciones de seguridad existentes en las organizaciones, acelerar el tiempo de análisis y reducir los costes de adaptación, aseguramiento y entrada en producción de los mismos.
Al retener y sintetizar, fácilmente y casi en tiempo real, grandes volúmenes de datos históricos, la tecnología de IBM permite a los equipos de seguridad obtener rápidamente una visión avanzada de su seguridad y del cumplimiento de sus sistemas, a la vez que reducen costes y obtienen datos de seguridad enriquecidos, a través de un autoservicio de exploración de datos, con capacidades de reporte completo.
Logicalis lleva años aplicando esta tecnología a proyectos de seguridad integrales, para que no supongan una carga operativa para los sistemas que venga a reducir su rendimiento u operativa. Para ello, monitoriza la actividad de los datos y archivos, previendo su pérdida y ofreciendo información muy granular de esta actividad, de posibles vulnerabilidades o incidentes, así como ofreciendo una auditoría de seguridad de los datos de bajo coste, mientras sigue proporcionando el mejor acceso a la información.
Como consecuencia de la acelerada compresión de los datos, los administradores de la seguridad pueden involucrarse menos en la gestión de los mismos y en los problemas de acceso, para centrarse en las estrategias de resolución, así como determinar el comportamiento normal del usuario, al nivel de la fuente, para luego hacer un seguimiento persistente del mismo e identificar anomalías y riesgos.
Una solución integral a un dilema eterno entre los requerimientos de seguridad y los recursos disponibles que permite resolver las necesidades de seguridad y ajustarse al presupuesto, sin que ello suponga un dispendio de inversiones y costes ocultos.