Cinco tecnologías que podrían revolucionar la informática o caer en el olvido

Las tecnologías "disruptivas" despiertan el interés de los responsables de TI por el valor de negocio que podrían generar, pero los resultados son todavía inciertos y la inversión hoy es un riesgo. Aquí están las más prometedoras

0
180

Abrazar las innovaciones y sus riesgos asociados es típico de la industria tecnológica. En sus inicios, algunas innovaciones parecen excéntricas, pero acaban siendo brillantes. Otros parecen brillantes, pero se desvanecen en el olvido en pocos años.

Teniendo esto en cuenta, he aquí seis ideas que se mueven en la fina línea que separa lo sorprendente de lo inútil. Los responsables de TI necesitan conocerlas para evaluar si deben invertir en estas tecnologías y obtener valor empresarial de ellas.

1. Ordenadores cuánticos
Entre las tecnologías emergentes, los ordenadores cuánticos están recibiendo mucha atención. Desarrollados por físicos e informáticos que juguetean con extraños dispositivos a temperaturas superfrías, todavía están rodeados de misterio.

El potencial es enorme, al menos en teoría. Las máquinas podrían trabajar a través de miles de millones de combinaciones en un instante proporcionando exactamente la respuesta correcta a una versión matemática del Tetris. Con la computación en nube, se necesitarían millones de años para encontrar la misma combinación.

Los escépticos, sin embargo, señalan que el 99% del trabajo que necesitamos hacer puede ser realizado por bases de datos estándar con buenos índices. Hay pocas necesidades reales de buscar combinaciones extrañas, y si las hay, a menudo podemos encontrar aproximaciones perfectamente aceptables en un tiempo razonable.

Probablemente aún no hemos empezado a plantear las preguntas que el ordenador cuántico podría responder. Una vez que las máquinas estén disponibles, podríamos pensar en las nuevas preguntas que hay que hacer. Esta es una de las razones por las que IBM ofrece conjuntos de herramientas y certificaciones de computación cuántica para aquellos que quieran explorar los límites de lo que las máquinas podrían hacer.

Potenciales early adopters (adoptadores tempranos): dominios en los que la respuesta está en encontrar una combinación exponencialmente creciente de cientos de opciones diferentes.

Potencial de aplicación en los próximos cinco años: bajo. Google, IBM y entidades públicas y privadas están invirtiendo mucho en la computación cuántica, pero habrá que esperar a las aplicaciones a los casos de uso empresarial.

2. Calefacción con ordenadores
Cada decisión tomada por una CPU envía unos cuantos electrones a lo largo de un cable eléctrico y la energía transportada se convierte en calor. Tradicionalmente, estos joule se han tratado como un desecho y encontrar una manera de deshacerse de este calor ha sido un problema para los diseñadores de circuitos, ordenadores y centros de datos.

Ahora mismo, los proveedores de la nube mantienen sus servidores en enormes bastidores en lugares estratégicos donde la electricidad es barata. Al trasladarlas a viviendas particulares, el calor podría reutilizarse para la calefacción.

¿Por qué no sustituir las calderas y las bombas de calor por minicentrales de servidores que produzcan calor?

Algunos se lo están pensando, pero no faltan las dificultades. Si un frente cálido llegara a Vermont en enero, por ejemplo, los residentes apagarían la calefacción producida por los servidores, disminuyendo los ciclos disponibles para los investigadores de inteligencia artificial, los científicos de datos y cualquiera que compre instancias puntuales. También podría significar la instalación del doble de servidores, o tal vez el alquiler de servidores sería lo suficientemente barato.

Posibles primeros adoptantes: climas fríos como el de Canadá.
Potencial de éxito en los próximos cinco años: alto. Ya se están probando proyectos piloto en distintas partes del mundo.

3. IA verde
Si las palabras de moda «verde» e «inteligencia artificial» funcionan por sí solas, ¿por qué no combinarlas y duplicar el enfoque? La realidad es un poco más sencilla de lo que el bombo de la duplicación podría sugerir. Los algoritmos de inteligencia artificial requieren potencia de cálculo, y en algún momento la potencia de cálculo es proporcional a la potencia eléctrica. La proporción sigue mejorando, pero el funcionamiento de las IAs puede ser costoso. Y la energía eléctrica produce toneladas de dióxido de carbono.

Hay dos estrategias para resolver este problema. Una de ellas es comprar energía de fuentes renovables, una solución que funciona en algunas partes del mundo con fácil acceso a centrales hidroeléctricas, parques solares o turbinas eólicas.

El otro enfoque es utilizar menos electricidad. En lugar de pedir a los desarrolladores que encuentren los algoritmos más sorprendentes, puede pedirles que encuentren las funciones más sencillas que satisfagan las necesidades. Se trataría de optimizar esta aproximación para distribuir la menor carga en los ordenadores más básicos. En otras palabras, se trata de desarrollar soluciones menos sofisticadas, pero más sostenibles desde el punto de vista medioambiental.

Potenciales adoptadores tempranos: aplicaciones aleatorias de IA que no necesitan costosos algoritmos.
Potencial de éxito en los próximos cinco años: alto. Ahorrar dinero es un incentivo fácil de entender.

4. Clústeres de nube «hágalo usted mismo».
Sí, se trata de pequeños ordenadores que cuestan menos de 50 dólares, utilizados por estudiantes y creadores. Pero que sean juguetes baratos no significa que no puedan ser útiles para el trabajo real. Por eso hay quien está construyendo clusters de Raspberry Pi con racks llenos de diminutos nodos Linux equipados con chips de cuatro núcleos ARM.

Por supuesto, las máquinas más grandes son mucho más eficientes, ya que ofrecen docenas de núcleos que ejecutan docenas de hilos y comparten grandes bloques de RAM y paquetes de disco.

Pero trabajar con máquinas más pequeñas y separadas ofrece redundancia precisamente porque están separadas. Puede pensar que cada instancia está separada de otras máquinas virtuales, pero normalmente todas comparten la misma CPU y puede haber docenas o incluso cientos de ellas. Las máquinas separadas con placas de circuito independientes ofrecen seguridad y redundancia.

Sin embargo, la mayor ganancia puede ser el precio. Estos clusters pueden ser mucho, mucho más baratos que algunas de las instancias de las nubes principales. Claro, algunas máquinas en la nube cuestan tan solo 5 dólares al mes, pero después de un año la Raspberry Pi es más barata.

Los clusters de este tipo permiten que los algoritmos masivamente paralelos se ejecuten libremente. Muchos de los problemas más intrigantes requieren la producción de enormes colecciones de datos, y las tareas a menudo no tienen que ejecutarse en orden. Estas máquinas permiten a los programadores no sólo pensar en algoritmos intrínsecamente paralelos, sino también empezar a construirlos e implantarlos.

Esta tendencia también se debe a que algunas de las principales nubes están adoptando soluciones que ofrecen opciones híbridas para devolver los datos a las instalaciones. Algunos quieren ahorrar dinero. Algunos quieren seguridad. Algunos quieren garantías.

Posibles adoptantes tempranos: empresas con grandes conjuntos de datos que requieren un análisis paralelo.
Potencial de éxito en los próximos cinco años: alto. Las agrupaciones ya se están desarrollando.

5. Criptografía homomórfica
El punto débil en el mundo de la criptografía ha sido el uso de datos. Mantener la información bloqueada con un algoritmo de encriptación lo suficientemente seguro ha sido sencillo. Los algoritmos estándar (AES, SHA, DH) han resistido los ataques de matemáticos y hackers durante años. El problema es que para hacer algo con los datos hay que desencriptarlos, y eso los deja en la memoria, donde es más difícil protegerlos.

La idea de la criptografía homomórfica es rediseñar los algoritmos de cálculo para que funcionen con valores cifrados. Si los datos no se descifran, no pueden ser robados. Hay muchas investigaciones activas que han producido algoritmos con diferentes grados de utilidad. Algunos algoritmos básicos pueden realizar tareas sencillas, como la búsqueda de registros en una tabla, lo que podría responder a las necesidades más sencillas de forma extremadamente segura.

IBM, uno de los líderes en este campo, ha alimentado la exploración ofreciendo kits de herramientas para los desarrolladores de Linux, iOS y macOS que quieran incluir la funcionalidad en sus aplicaciones.

Posibles primeros usuarios: investigadores médicos, instituciones financieras, industrias con muchos datos que necesitan proteger la privacidad.
Potencial de éxito en los próximos cinco años: variado. Algunos algoritmos básicos se utilizan habitualmente para proteger los datos, pero los cálculos procesados siguen siendo demasiado lentos.

Redacción CambioDigital OnLine

Custom Text
Artículo anteriorConsejos para mantener la vida útil de sus baterías de 12 voltios
Artículo siguienteRobo de cuentas en WhatsApp: Ciberdelincuentes burlan doble autenticación