El análisis de la IoT y el edge computing

0
17

La Internet de las Cosas (IoT, por sus siglas en inglés) necesita del edge computingSegún la firma de investigación IDC, en el 2025 el mundo llegará a los 41,6 mil millones de dispositivos IoT conectados que generarán 79,4 zettabytes de datos. Para aprovechar al máximo esos datos, las empresas están invirtiendo en equipos de computación, almacenamiento y dispositivos de red en el edge o borde, incluyendo las puertas de enlace de IoT y la infraestructura hiperconvergente.

Mover el procesamiento y el análisis al edge puede habilitar nuevas capacidades de IoT, al reducir la latencia para aplicaciones críticas, por ejemplo, y mejorar la velocidad de las alertas mientras facilita las cargas de red.

Hablamos con los primeros usuarios de IoT en tres industrias diferentes para descubrir cómo están avanzando en la implementación de esta tecnología mediante la construcción de su infraestructura de edge computing. Aquí está lo que aprendimos.

El servicio gestionado brinda los beneficios del edge computing
SugarCreek se está preparando para la próxima generación de fabricación de alimentos, en el que las cámaras y análisis de alta definición pueden trabajar juntos para mitigar rápidamente la contaminación u otros problemas de procesamiento. Sin embargo, de acuerdo con el CIO de SugarCreek, Todd Pugh, la única forma de manejar esa automatización de manera oportuna es reforzar el edge computing de la compañía.

Al poner el análisis, los servidores y el almacenamiento juntos en el edge para procesar los datos de las cámaras y los sensores de IoT en el equipo, se elimina la necesidad de «enviar comandos y controles a la nube o a un centro de datos centralizado», que puede tardar 40 milisegundos en llegar de un punto a otro, señala Pugh. «Eso es demasiado tiempo para interpretar los datos y luego hacer algo al respecto sin afectar la producción». Ese tipo de toma de decisiones debe ocurrir en tiempo real, añade.

Sin embargo, el edge computing puede ser difícil para un departamento de TI, con recursos distribuidos entre sitios. SugarCreek, que tiene seis plantas de fabricación que abarcan el Medio Oeste de los Estados Unidos, planea pasar de su infraestructura de edge computing de Lenovo gestionada internamente, a la recientemente lanzada VMware Cloud en el servicio gestionado de Dell EMC. SugarCreek realizó una prueba beta del servicio de Dell EMC y VMware cuando le pusieron el nombre en código de Project Dimension.

SugarCreek ya utiliza la computación de borde para el acceso local a los servicios de archivos e impresión, y a Microsoft Active Directory; para almacenar videos de cámaras de vigilancia interiores y exteriores; y para agregar sensores de temperatura y humedad para evaluar qué tan bien está funcionando una máquina.

Tener estos datos en el edge en lugar de interactuar con el centro de datos en tiempo real -lo que Pugh califica como «financieramente impráctico»-, reduce las demandas generales de ancho de banda. Por ejemplo, la compañía puede almacenar 30 días de video de alta definición sin agotar el ancho de banda limitado. Otros datos, tales como los generados por los sensores, son recopilados y luego enviados en intervalos regulares de vuelta al centro de datos.

El servicio administrado preparará a SugarCreek para sus planes de análisis y vigilancia más avanzados. VMware Cloud en Dell EMC incluye una infraestructura local hiperconvergente Dell EMC VxRail, VMWare vSphere, vSAN y NSX SD-WAN.

«El servicio en la nube está completamente gestionado por VMware y si falla un disco duro, Dell se encarga de ello” en lugar de tener un departamento de TI especializado en cada sitio, o hacer que un miembro del equipo de TI viaje en caso de problemas, indica Pugh, lo que ayuda cuando se trabaja con «recursos bastante limitados».

Implementar el edge computing de esta manera también permitirá al equipo hacer en el edge todo lo que puede hacer en los principales centros de datos. «Podremos asegurar el borde y, utilizando microsegmentación, tratarlo como si fuera un centro de datos más», indica. «Moverse a un servicio administrado en el edge permitirá que mi gente se concentre en hacer el tocino más rápido y mejor, en lugar de preocuparse por el mantenimiento y la potencia de computación».

La infraestructura hiperconvergente local mantiene los sistemas IoT en marcha
El edge computing está ayudando a mantener la flota de 18 mil locomotoras de Wabtec Corp. por buen camino.

Una red de sensores IoT, un software integrado en más de 20 computadoras utilizadas para controlar las locomotoras y las interfaces hombre/máquina, envía información para que sea procesada en un «mini centro de datos» interno que maneja la adquisición de datos, algoritmos y almacenamiento. Los miles de mensajes que provienen de cada locomotora ayudan a la compañía a «adelantarse y ver el 80% de las fallas que ocurren», afirma Glenn Shaffer, líder de pronósticos de Wabtec Global Services. Eso lo ha llevado a referirse al edge como «una utopía de diagnóstico».

Sin embargo, Wabtec (que se fusionó recientemente con GE Transportation) no es novata en la agregación de datos mediante sensores inalámbricos. La compañía de transporte ferroviario comenzó a usar una versión de IoT (antes de que se llamara IoT) en sus locomotoras en el 2000, pero vio limitadas sus capacidades por el gasto de las comunicaciones por satélite, que en ese momento era la única opción para transmitir información de ida y vuelta al centro de datos. Además, los trenes viajan a través de una multitud de climas, terrenos y obstáculos (como túneles), lo que hace que las conexiones no sean confiables.

Con la computación de borde, la información generada a bordo se puede analizar, reaccionar ante ella y almacenar dentro de los límites de la locomotora y sin agotar el costoso ancho de banda. El mini centro de datos local de Wabtec puede detectar fallas críticas y responder en tiempo real.

Por ejemplo, de acuerdo con John Reece, CIO de Wabtec Freight Global Services, la infraestructura personalizada monitorea partes tales como cilindros; mide su desgaste; los clasifica según las demandas de las próximas rutas, tales como una subida intensa en una montaña; y programa el mantenimiento antes de que la parte tenga la oportunidad de fallar.

Del mismo modo, si el mini centro de datos interno recibe una alerta de que un eje está comenzando a bloquearse, el torque será redistribuido automáticamente a los otros ejes, evitando una avería costosa que requeriría una grúa para mover el vehículo. «Las fallas rápidas en una locomotora requieren decisiones que se ejecuten en cuestión de milisegundos, por lo que tenemos que actuar rápidamente”, indica Reece.

Si bien el edge computing se adapta perfectamente a tales «fallas rápidas», Wabtec también confía en los recursos de la nube para un monitoreo más completo del entorno de locomotoras, afirma Reece. Por ejemplo, una vez que se detectan las piezas defectuosas y se mitigan a bordo, los talleres de mantenimiento reciben una alerta a través de un módem conectado al edge para que puedan solicitar las piezas necesarias y programar a los técnicos apropiados para realizar el trabajo de reparación. Los equipos de logística reciben un aviso para que puedan alertar a los clientes sobre demoras, realizar cambios de ruta o asignar locomotoras de reemplazo.

Los talleres de mantenimiento, los cuales Shaffer considera parte de la estrategia de edge computing de Wabtec debido a la capacidad de cómputo colocada allí, también sirven como puestos avanzados para la carga de datos de volumen completo. Una vez que una locomotora se detiene, los técnicos vinculan el mini centro de datos a la nube a través de una conexión de alta velocidad, y cargan todos los datos almacenados. Estos son utilizados para realizar análisis de rendimiento de combustible, gestión del ciclo de vida y para desarrollar análisis predictivos/prescriptivos a través de una plataforma de big data.

El equipo de Wabtec tiene mucho cuidado de no sobrecargar el sistema interno con datos innecesarios, minimizando el número de sensores y dejando cierta información, tal como el estado de los limpiaparabrisas, a los humanos. Incluso cuando las conexiones inalámbricas 5G y la aparición de trenes autónomos entren en juego, Reece dice que será importante ser exigente con el lugar donde se colocan los sensores, con los datos que se recopilan a bordo y con la manera en la que se procesan en el edge. TI ya opera con la filosofía de actualizar la potencia de computación 10 veces el estado actual «y aun así se vuelve obsoleto rápidamente». El almacenamiento tiene el mismo problema. «La conectividad a lo largo de las rutas nunca será 100% confiable, y existe un riesgo asociado con el estancamiento del sistema en el edge, que es donde se toman estas decisiones», anota.

El edge computing complementa los recursos de la nube pública
Evoqua Water Technologies, un proveedor de soluciones de tratamiento de agua, es un veterano de la tecnología IoT. Durante más de una década, se ha basado en sensores conectados e integrados en su equipo, para controlar de forma remota sus sistemas de purificación y filtración, recopilar datos y, luego aprovechar cualquier información interna y externa para los clientes.

«La transmisión de datos era muy, muy costosa, lo que nos llevó a priorizar el envío de los más importantes», señala Scott Branum, gerente senior de soluciones digitales en Evoqua. Si el equipo funcionaba correctamente, los datos de los sensores solo eran enviados una vez al día. Sin embargo, si se activaba una alarma, todos los datos relevantes se retransmitían al centro de datos. Esta metodología era la que Evoqua usaba para controlar sus costos celulares.

Recientemente, Evoqua ha migrado al edge computing, incorporando un pequeño dispositivo de puerta de enlace basado en Linux de Digi International a sus sistemas de tratamiento de agua. Mientras los datos generados por los sensores y otras entradas eventualmente fluyen desde esa puerta de enlace de cómputo y almacenamiento a través de la conectividad celular, a una plataforma de procesamiento de datos en la nube de Microsoft Azure, cierta lógica empresarial es ejecutada en el edge.

«Estamos tomando varios puntos de datos y agregándolos a través de algoritmos patentados para que las reglas de negocios puedan activarse según sea necesario», comenta Branum. Por ejemplo, si se detecta un incidente catastrófico, los análisis en el edge le indicarán al sistema que se apague según las reglas predefinidas. «Hay algunos casos en los que no podemos esperar para tomar medidas, ni tampoco para que los datos sean transmitidos una vez al día y luego analizados”, comenta.

La configuración de edge computing también está programada para detectar anomalías en el rendimiento del equipo, identificar el problema y alertar a un equipo técnico externo, sin involucrar al centro de datos. «No solo enviamos mano de obra para examinar una pieza en el equipo y ver cómo funciona, sino que estamos recibiendo inteligencia de negocios al observar que se detectó una vibración en una bomba específica, así como posibles soluciones”, agrega Branum. No solo se aprovecha mejor el tiempo de un técnico en actividades de valor agregado, sino que también se puede implementar el conjunto adecuado de habilidades en función del problema en cuestión.

El equipo de Branum vigila de cerca las entradas y ajusta los datos del sensor para evitar falsas alarmas. «Pasamos mucho tiempo en el front-end pensando cómo vamos a usar el edge«, indica. «Todavía no ha habido una implementación que no hayamos tenido que refinar. Si el mercado -nuestros clientes- nos dice que no hay valor en cierta funcionalidad y que solo estamos creando alarmas molestas, lo cambiamos”.

Fuera de las decisiones inmediatas que deben tomarse en el edge, los datos se envían al centro de datos para un análisis más profundo, como informes de costo-beneficio y planificación del ciclo de vida. Branum señala que usar la nube pública en lugar de un centro de datos privado ha ayudado a reducir los costos de desarrollo y mantenerse al día con los estándares de seguridad de la industria. «Estamos tratando de diseñar una ventaja con Digi International y una plataforma centralizada de procesamiento de datos con Azure que puedan escalar juntos con el tiempo», finaliza.

Sandra Gittlen, Network World.com