Si las TIC han pasado a ocupar un lugar central en multitud de sectores económicos se debe en parte a la velocidad de su desarrollo. El constante aumento de la velocidad de conexión y las capacidades de almacenamiento, procesamiento y análisis de datos han conducido a disponer de herramientas potentísimas, capaces de convertir la información en el motor de una mejora constante de la eficiencia en los procesos de negocio y la toma de decisiones estratégicas.
Photo by Max Duzij on Unsplash
En tan sólo tres generaciones, el ordenador más potente del mundo ha pasado de poder calcular 5.000 sumas y 300 multiplicaciones por segundo a llegar a computar 125.000 billones de operaciones en ese mismo tiempo. Las cifras muestran la diferencia en la capacidad de computación entre ENIAC, el primer gran ordenador, presentado en 1943, y el supercomputador chino Sunway Taihulight, considerado el más potente del mundo en 2018.
Pese a lo expuesto, y al hecho de que muchos dispongamos en el bolsillo de un ordenador más potente que los manejados por la NASA en 1969, las sociedades tecnológicamente más avanzadas están llegando al límite de su capacidad para innovar al ritmo al que lo han hecho hasta ahora. Se da así una situación que pone en riesgo la posibilidad de dar el salto cualitativo hacia una interconexión entre infraestructuras y objetos que permita el intercambio de información constante, de modo automatizado e inteligente, con el entorno.
Aprendizaje colaborativo para potenciar avances más rápidos
Para hacer que el IoT (Internet de las cosas) sea una realidad fruto de la combinación de las capacidades que ofrecen la IA, el Machine Learning, el almacenamiento en la nube y la conectividad 5G es necesario disponer de microprocesadores más potentes, conexiones más rápidas y una capacidad de almacenamiento y análisis de grandes cantidades de datos cuyo consumo energético sea más eficiente.
Para conseguir este triple avance, compañías muy importantes en el ámbito de las TIC están dejando de lado algunos de los postulados básicos de la doctrina neoliberal, como considerar la competencia individual como factor esencial para el funcionamiento óptimo de la actividad económica o hacer del lucro su norma ética fundamental, para trabajar según los principios establecidos por los partidarios del “Open Source”.
El movimiento “Open Source” tiene como uno de sus imperativos básicos el facilitar el libre acceso al código en el que se basan los desarrollos de software y hardware. Se debe a que quienes forman parte de él consideran más eficiente y ético valerse del trabajo colaborativo de una comunidad abierta de desarrolladores, a quienes no tiene por qué motivar tan sólo el afán de lucro, para conseguir que los avances tecnológicos e industriales sean mayores, mejores y más rápidos.
Los grandes de la industria se abren al Open Source
IBM es una de las empresas que ha empezado a participar en esta forma de entender la innovación, utilizando código abierto en el diseño de sus procesadores Power para infraestructuras empresariales con el fin de acelerar su rendimiento, contando para ello con el trabajo de la comunidad Open Source.
La iniciativa de IBM no es la única. A esta acompañan otras en las que también están participando grandes firmas de la industria. Una de las más destacables es el Open Compute Project, proyecto de colaboración Open Source en el que participan Apple, Cisco, Juniper Networks, Nokia, Lenovo y Google y que ha conseguido avances clave en materia de ahorro energético en los servidores destinados al almacenamiento de datos, que hacen posible la escalabilidad que exige el Big Data.
La vía del trabajo colaborativo está abierta y está demostrando, con resultados, que compartir conocimientos y trabajar en red es una de las claves que nos conducirán a la Era de “las cosas conectadas con cosas” y el aprendizaje automatizado inteligente.