Hacer que la AI sea accesible para todos

0
39

La democratización de cualquier tecnología eficaz se produce automáticamente en virtud de su éxito, aunque la complejidad que presenta inicialmente abrume a algunas de las personas más inteligentes que la manejan. Pero después de seis décadas de computación comercial en el centro de datos, sin duda hemos aprendido un par de cosas para ayudar a este proceso de adopción e integración.

En este sentido, no hay nada intrínsecamente especial en la inteligencia artificial (IA), que podría decirse que no es más que la última evolución de una larga lista de sofisticadas herramientas de procesamiento de datos.

Los mainframes se mantuvieron en invernaderos como una especie de templo de la informática durante las décadas de 1960 y 1970, antes de ser imitados y copiados en minicomputadoras. Con el tiempo, los PC dieron lugar a dos cambios sísmicos: se convirtieron en servidores suficientemente potentes y ejecutaron cargas de trabajo de misión crítica en un entorno cliente-servidor. Hicieron que el acceso constante a los datos fuera omnipresente para las masas, lo que finalmente condujo al smartphone en un extremo de la potencia de procesamiento condensada y al centro de datos a hiperescala en el otro.

Una evolución paralela ocurrió con la base de datos relacional de la década de 1980. A la original se le podían hacer preguntas en un lenguaje de consulta estructurado (SQL) bastante sencillo y mostrar las conexiones y relaciones entre los datos transaccionales. Su sucesor culminó en los almacenes de datos repletos de datos históricos de los que se extraían pepitas de conocimiento, antes de explotar con la incorporación de datos no estructurados en Hadoop y Spark y una miríada de otras plataformas de análisis de datos.

La inevitable revolución de la Inteligencia artificial
La revolución de la IA de la última década era inevitable, dado el volumen y la disponibilidad de información sobre la que entrenar los algoritmos estadísticos de aprendizaje automático, junto con la cantidad cada vez mayor de datos que había que extraer para obtener información, y la aparición de un motor de GPU de procesamiento paralelo relativamente barato y potente. Los modelos de redes neuronales convolucionales en los que se basa el aprendizaje automático existen desde la década de 1980, pero no había suficientes datos de entrenamiento ni potencia de cálculo para que estos modelos convergieran y ofrecieran la precisión que vemos hoy.

Es igualmente cierto que las técnicas de IA se incorporarán ahora a todo tipo de aplicaciones y casos de uso informático que abarcan organismos gubernamentales, instituciones académicas y empresas. Y, con el tiempo, es probable que todas las organizaciones adquieran las tecnologías de procesamiento y almacenamiento de datos para explorar sus propias cargas de trabajo de IA y encapsular las operaciones en el código de las aplicaciones que hayan creado o adquirido.

Esta informatización de las funciones ya ha transformado las aplicaciones contables de back-office en conjuntos de software de planificación de recursos empresariales (ERP), gestión de las relaciones con los clientes (CRM) y gestión de la cadena de suministro (SCM). Este cambio se acelerará con una inyección de IA que utilizará técnicas estadísticas avanzadas y redes neuronales para mejorar la eficiencia y, al igual que otras tecnologías anteriores a la IA, hacer cosas nuevas que antes no eran posibles.

Si se hace bien, la IA estará al alcance de todas las organizaciones y se extenderá más allá del ámbito de los hiperescaladores y los creadores de nubes, que históricamente han tenido la mayor cantidad de recursos de computación y almacenamiento a su disposición. Y a diferencia de la simulación y el modelado HPC tradicional, que también se ha democratizado en las últimas décadas, la IA es una tecnología que puede aplicarse a todos los sectores y tamaños de empresa.

Simplificar lo complejo
Democratizar la IA implica simplificar la tecnología. Esta es la parte complicada, porque a diferencia de las técnicas anteriores de procesamiento y análisis de datos, la IA se basa en el procesamiento no determinista y de caja negra de una red neuronal, una colección de modelos estadísticos a partir de los cuales los conjuntos de datos pueden convertirse en otras formas o identificarse o analizarse de alguna manera. Es una tecnología difícil de dominar, al igual que lo eran antes la simulación y el modelado HPC. Sin embargo, la HPC está ahora al alcance técnico y económico de cualquier organización que quiera utilizarla, y es probable que la IA le siga.

«La mayoría de los científicos de datos e ingenieros de IA están realmente familiarizados con los entornos Windows o Ubuntu, y trabajan sobre todo desde portátiles, PC o estaciones de trabajo», explica Valerio Rizzo, responsable de IA en EMEA de Lenovo, que ya es uno de los mayores proveedores de sistemas HPC del mundo y ahora es líder en el mercado de los sistemas de IA emergentes.»

«El unicornio científico de datos que todo el mundo busca es un profesional con profundos conocimientos en matemáticas y estadística, capaz de programar en varios lenguajes, que puede utilizar cualquier tipo de herramienta o framework del mercado, conocedor de la tecnología informática y con mentalidad empresarial», añade. «Pero la realidad es que hoy en día escasean este tipo de conocimientos muy amplios y profundos, y cuando se encuentran, son caros».

Hace varios años, Lenovo desarrolló Software Antilles para simplificar la gestión de la infraestructura HPC y la programación de trabajos. Desde entonces, ha evolucionado hasta convertirse en Lenovo Intelligence Computing Orchestrator, o LiCO para abreviar, que ahora abarca tanto las cargas de trabajo de HPC como las de IA. Y específicamente, según Rizzo, sirve para la intersección de HPC e IA.

«La mayoría de los usuarios de IA no están familiarizados con la pila de software HPC tradicional, por lo que con LiCO podemos permitirles utilizar una infraestructura de estilo HPC para apoyar las aplicaciones de formación de IA sin que tengan que aprender esa pila HPC y pasar por una curva de aprendizaje empinada», explicó.

«Ellos configuran su entorno Python y sus cuadernos Jupyter, todas sus bibliotecas, y nosotros abstraemos esa pila de software HPC de tal manera que no es más difícil de usar para los científicos de datos que PyTorch o Anaconda, con los que están familiarizados.»

LiCO y HPC se combinan
En esencia, LiCO permite a los científicos de datos entrenar modelos de IA y utilizar un clúster HPC sin que tengan que operar y gestionar y conectar cada componente de la pila de software HPC. Pero lo que es igualmente importante, dice Rizzo, es que la pila LiCO ayuda a mantener ocupados los servidores acelerados por la GPU en el clúster, de modo que la inversión de capital en estos sistemas de IA -como el sistema HPC antes de ellos- se maximiza.

Motorola Mobility, filial de Lenovo, ya utiliza LiCO para ejecutar el entrenamiento de IA necesario para realizar funciones de zoom asistidas por IA en las cámaras de sus smartphones. Este no es un caso de uso tradicional de HPC, pero habrá muchos usuarios de LiCO que no estén interesados en la simulación y el modelado de HPC, pero que, sin embargo, quieran crear clusters de entrenamiento de IA escalables utilizando tecnologías HPC.

Otros, predice Rizzo, abordarán la IA desde el ángulo de los contenedores Kubernetes y los microservicios. Por ello, querrán una herramienta de gestión que pueda interactuar con Kubernetes, por lo que Lenovo ha creado una versión de LiCO que interactúa con la propia plataforma de gestión de contenedores.

«La versión HPC de LiCO está vinculada a los sistemas de Lenovo porque tiene capacidades especiales que le otorga nuestra pila de hardware y software, como la monitorización profunda que nos permite hacer un uso eficiente de los recursos del clúster», explica Rizzo. «La versión de Kubernetes es bastante agnóstica en cuanto al hardware».

Para los clientes tradicionales de HPC en, por ejemplo, las industrias del petróleo y el gas, la automoción o los servicios financieros, LiCO puede colocarse sobre la infraestructura de HPC existente con aceleración de GPU y hacerse accesible a los nuevos usuarios de IA que quieran hacer ejecuciones de entrenamiento en los sistemas de HPC.

El hecho es que ser capaz de realizar entrenamientos de IA a escala casi continua es el primer paso para integrar la IA en todo tipo de aplicaciones diferentes. Y las numerosas empresas que han creado recientemente cientos o miles de aplicaciones con la intención de añadirles algoritmos de IA en el futuro tendrán que realizar ellas mismas ese entrenamiento de IA y averiguar cómo aumentar las capacidades de sus aplicaciones con el aprendizaje automático.

Impulsadas por proveedores de software independientes de todo el mundo, varias cargas de trabajo han surgido como pioneras en la revolución de la IA. En el sector de la electrónica, la automatización de procesos robóticos (RPA) está transformando la fabricación para ofrecer un nivel de precisión mucho mayor y tiempos de fabricación más rápidos que los asociados a los empleados humanos. La IA también se está utilizando con algoritmos de visión por ordenador para realizar inspecciones de control de calidad de los productos fabricados en entornos de producción. En los servicios financieros, la IA se integra en la detección de fraudes para hacer un mejor trabajo de detección de fraudes sin dar demasiados falsos positivos. Y en el comercio minorista, la videovigilancia asistida por IA se está utilizando para varios tipos de prevención de pérdidas, así como para mejorar la experiencia del cliente.

Muchas de estas aplicaciones ya están llegando al mercado a través del Programa Acelerador de Soluciones de IA de Lenovo. Y cuando lo hagan, los proveedores de software independientes utilizarán las herramientas y plataformas de Lenovo para realizar la formación en IA y dar soporte a la carga de trabajo de sus aplicaciones, mientras que los clientes se limitarán a comprar las aplicaciones potenciadas por la IA y a disfrutar de las ventajas de implementarla en su negocio. Esa es la verdadera democratización de la IA en acción.

Fuente:Timothy Prickett Morgan Lenovo.

Custom Text
Artículo anteriorTesla se deshace del 75% de sus Bitcoin un año después de respaldar la criptodivisa
Artículo siguienteNo hay privacidad sin una robusta seguridad