Procesamiento de la información IOT

En los ecosistemas IoT todas las cosas y todos nosotros estamos conectados a través de una red dinámica y en constante crecimiento. Las soluciones de procesamiento centralizado de los datos ya no tienen sentido en este entorno.

Cada milisegundo se generan ingentes cantidades de datos provenientes de los miles y miles de dispositivos conectados. Estos datos, que aparecen constantemente en la nube, contienen potencialmente gran valor de negocio. Para acceder a ese valor y descubrir los insights ocultos en este océano de unos y ceros necesitamos realizar un procesamiento efectivo de los datos.





Descarga gratis la guía: Retos oportunidades y consejos de la Economía Digital




Sin embargo, las estrategias tradicionales de procesamiento centralizado de los datos no se ajustan bien a los ecosistemas IoT. En este ámbito no tiene sentido llevar todos los datos un punto central de procesamiento donde se cuenta con una gran base de datos y se aplican procesos de analytics e inteligencia de cliente. Ese modelo centralizado se adapta bien a una organización que cuenta con infraestructuras relativamente estables (como los puntos de venta físicos) y la información de inteligencia no se requiere inmediatamente. Como sabemos, en el mundo IoT ocurre todo lo contrario: nuevos dispositivos y usuarios aparecen constantemente y el conocimiento de cliente ha de ser adquirido en tiempo real para poder tomar decisiones en escalas de tiempo muy pequeñas. En IoT todo ocurre muy deprisa: los servicios conectados han de tomar decisiones de negocio al vuelo y la acción ocurre en múltiples y variadas localizaciones.

En este contexto, donde el negocio ocurre en cualquier lugar, en cualquier momento y en cualquier dispositivo, las estrategias de procesamiento de los datos han de adaptarse a este dinamismo. Ya no podemos pensar en una inteligencia de negocio centralizada: debemos empezar a pensar en términos de egde analytics. En otras palabras, en el dominio del IoT tiene poco sentido concebir una inteligencia centralizada, una especie de cerebro que controla todo. En lugar de eso, parece más apropiado diseñar estrategias que exploten algoritmos distribuidos, como blockchain, donde ya no existe un único centro de control, sino que la inteligencia emerge a través de la colaboración de múltiples nodos distribuidos por la red.

En principio, desde el punto de vista de la ingeniería, diseñar algoritmos capaces de generar comportamiento inteligente en base a la colaboración distribuida de múltiples nodos es bastante más difícil que implementar soluciones centralizadas. Por lo tanto, se nos plantea el gran reto de desarrollar nuevos modelos distribuidos que sean flexibles, robustos y a un coste asumible.

Por otro lado, realizar el procesamiento de datos de forma distribuida tiene mucho sentido en un ecosistema IoT, pues se cuenta con miles y miles de dispositivos que tienen capacidad de cómputo y de almacenamiento de datos. Se trata, en definitiva, de cambiar de un modelo en el que invertimos en caras y potentes máquinas centralizadas, capaces de procesar cantidades masivas de datos, por un nuevo enfoque en el que aprovechamos la capacidad que resulta de multiplicar un gran número de dispositivos por la potencia limitada que proporciona cada uno de ellos. De esta forma contamos con una potencia de cálculo virtualmente ilimitada, pues crece y escala según se van conectando más dispositivos.

La cuestión importante es cómo aprovechar de forma eficiente esta capacidad virtualmente ilimitada que ofrece un entorno IoT. Como en muchas otras ocasiones, la solución puede venir de la imitación de la naturaleza. En los ecosistemas naturales podemos observar muchos ejemplos de súper-organismos como las colonias de hormigas, las colmenas de abejas, las bandadas de aves o los cardúmenes de peces. En estos ejemplos que nos brinda la naturaleza podemos observar cómo se soluciona el problema del análisis de los datos de forma distribuida. La inteligencia de estos súper-organismos no reside en un cerebro centralizado, sino que está distribuida a través de cientos o miles de individuos. Al igual que los dispositivos conectados, cada uno de los individuos puede no ser muy potente o muy listo, pero al tener una buena política de colaboración con el resto de congéneres pueden aparecer comportamientos muy complejos e inteligentes.

En los modelos distribuidos de procesamiento de datos tratamos de imitar estos procesos de emergencia de la inteligencia (mediante técnicas de swarm computing o “computación de enjambre”), permitiendo que los procesos de analytics ocurran en una proporción significativa en los propios dispositivos (analytics on the edge). La idea principal es que en vez de contar con dispositivos totalmente tontos que simplemente envían datos a un servidor central para su análisis, estos mismos dispositivos sean capaces de realizar un primer análisis inteligente de la situación y lo que envíen a otros elementos de la red sea sus propias conclusiones sobre la situación actual. Asimismo, cada dispositivo también puede contar con la información previamente elaborada por otros dispositivos adyacentes, todo en tiempo real y sin intervención de un “director de orquesta”. O, mejor dicho, considerando que el rol de director de orquesta puede cambiar de un individuo a otro según lo aconsejen las circunstancias y se acuerde por el grupo.  

En ICEMD, El Instituto de la Economía Digital de ESIC, ofrecemos a los profesionales el Programa Superior en Big Data, ya que la adquisición de conocimientos especializados es clave. Puedes encontrar más información aquí.





Descargar e-Book




Comentarios

Deja tu comentario: