4 tendencias en análisis de datos que dominarán en el 2020

0
42

El análisis de datos es un dominio en constante movimiento. Con las organizaciones que siguen invirtiendo fuertemente en el análisis para apoyar las transformaciones digitales, mantenerse al día con las últimas tendencias es esencial para asegurar que su organización está adoptando las estrategias y tácticas analíticas necesarias para el éxito en los años venideros.

Según el informe State of the CIO 2020 de IDG, el 37% de los líderes de TI dicen que la analítica de datos/negocios será la que más inversión en TI realice su organización este año. Eso es más que cualquier otra iniciativa, incluyendo la seguridad/gestión de riesgos, que quedó en segundo lugar, citada como la mayor inversión en TI por el 34% de los encuestados. Además, la TI es el departamento más probable que se encargue de satisfacer las necesidades de datos y análisis, independientemente de la industria o el tamaño de la empresa, según el informe.

A medida que los líderes de TI centran su atención en el análisis de datos en el 2020, deben mantener en primer plano las siguientes cuatro tendencias estrechamente relacionadas.

La estrategia de datos es una estrategia de negocios
La mentalidad de «grandes datos» de los años pasados, está siendo reemplazada por estrategias de datos que tienen en cuenta todos los tamaños y tipos de datos que afectan a su negocio.

«El enfoque en los grandes datos se ha desvanecido en el último año más o menos», comenta Seth Robinson, director senior de análisis de tecnología en CompTIA. «Creo que la razón principal por la que se ha desvanecido es que se ha convertido en una estrategia de datos global».

«El fondo ha caído de los grandes datos», añade Brian Hopkins, vicepresidente y analista principal de Forrester Research. «A nadie le importa ya esa palabra».

Como Robinson, Hopkins cree que las organizaciones ahora ven los grandes datos como otro elemento más de la pila de datos mientras tejen sus estrategias de datos para las transformaciones digitales. A medida que las organizaciones buscan aprovechar las aplicaciones de IA alimentadas por datos, particularmente en las experiencias de los clientes, «obtener datos correctos» es clave, anota Hopkins. Para lograrlo, los CIO deben abordar los datos de origen de manera que los científicos de los datos dediquen menos tiempo a la preparación, limpieza y racionalización de los datos y más tiempo a la construcción de modelos con datos limpios.

Desafortunadamente, la mayoría de los CIOs no tienen autoridad para cambiar los procesos de negocios sin construir relaciones fuera de TI.

«El problema que vemos es que la estrategia de datos del CIO implica muchos cambios a nivel de negocio, cambios en los procesos de negocio y nuevas estructuras organizativas fuera de TI para tomar decisiones sobre las definiciones de los datos y tomar decisiones sobre las prioridades, hacer cumplir las políticas de privacidad de los datos y cosas que el CIO no puede controlar y que tienen un costo», indica Hopkins.

El cambio de procesos, el cambio de aplicaciones, la gestión del cambio de la organización y los cambios de incentivos son todos necesarios para reorientar las estrategias de datos, añade Hopkins.

«Hay que incentivar a los gerentes de las empresas para que se preocupen por los datos y se preocupen por lo bien que sus datos pueden ser consumidos por otras líneas de negocios», indica Hopkins. «Eso no es algo que la mayoría de los CIOs puedan agitar fácilmente sus varitas y cambiar».

Los CIOs tendrán que elegir la mejor manera de navegar por estas aguas. Puede implicar la búsqueda de una mayor autoridad para el cambio o asociarse con las líneas de negocios y funciones de operaciones.

Las organizaciones deben modernizar la gestión de datos
Junto con sus estrategias generales de datos, las organizaciones que buscan aprovechar los datos para impulsar la toma de decisiones sienten la presión de modernizar sus arquitecturas de datos.

A medida que las organizaciones han tratado de aprovechar los datos en producción, muchas se han dado cuenta de que no tenían la base adecuada en su lugar.

«Cuando estábamos estudiando los grandes datos hace cuatro o cinco años, lo que encontramos fue que muchas compañías no tenían buenas prácticas de administración de datos para empezar, y se necesitan para una base de grandes datos», comenta Robinson. «Ahora creo que las compañías están construyendo esas prácticas. … Están tratando de juntarlo todo en un enfoque moderno de datos y creo que todo se mezcla».

Ese impulso para modernizar las operaciones analíticas debe ser entendido como parte de un ciclo antiguo en el manejo de datos, indica Scott Buchholz, director de investigación de tecnología emergente, director gerente y CTO de Gobierno y Servicios Públicos de Deloitte Consulting.

«Cada década más o menos, alguien en la organización se entusiasma con el manejo de datos. Pasamos mucho tiempo limpiando todo y uniéndolo todo. Eso es mucho trabajo. Esa persona se va, ¿verdad? La crisis ha pasado», anota Buchholz. «Luego, cinco años después, descubrimos que estamos de nuevo donde empezamos porque no estábamos centrados en ello, llega una nueva crisis y lo hacemos todo de nuevo».

Robinson cree que las organizaciones volverán a lo básico este año centrándose en cómo se recogen y almacenan los datos.

«Ya sea que utilicemos el término ‘lago de datos’ o algo más, creo que las compañías tratarán de obtener una visión consolidada de sus datos antes de que se dividan en unidades de negocios individuales para su uso», señala. «Creo que van a querer saber cómo todos los datos llegan a la organización a través de medios tradicionales o medios sociales o dispositivos de IoT».

El movimiento hacia las redes inalámbricas 5G añadirá presión, añade Robinson, ya que 5G significará tuberías de datos más grandes y muchos más datos.

«Este problema tiene que ser abordado más temprano que tarde: ¿Cómo fluyen los datos, preferiblemente, en un lugar donde estén todos juntos y puedan ser operados?», indica.

La máquina aprende a reinventar el dashboard
El año pasado se produjeron grandes adquisiciones en el espacio analítico y de BI, con Salesforce adquiriendo la plataforma analítica Tableau por 15.700 millones de dólares y Google apostando por la exploración de datos con la compra de la plataforma de BI, Looker, por 2.600 millones de dólares. Estas adquisiciones de alto perfil de las principales plataformas de BI de autoservicio subrayan el valor de permitir a los usuarios empresariales obtener conocimientos a partir de los datos de la organización.

«Por lo general, cuando se produce una consolidación, representa una madurez en el mercado para una innovación tecnológica específica. En este caso, es el mercado de la analítica y el BI, especialmente el paradigma de exploración basada en la visualización, popularizado por vendedores como Tableau, Qlik y Tibco Spotfire», comenta Rita Sallam, vicepresidenta de investigación del equipo de análisis de Gartner.

Sallam espera que esta maduración se acelere a medida que las empresas buscan aprovechar el aprendizaje de las máquinas para automatizar muchas de las tareas asociadas con la analítica, incluyendo la preparación de datos y el descubrimiento de información. El objetivo es hacer que los conocimientos de los datos estén disponibles para una amplia gama de usuarios más allá del equipo de análisis. El empuje hacia este tipo de automatización, que Gartner predice que logrará una adopción generalizada en un plazo de dos a cinco años, es un impulsor clave de la consolidación, anota Sallam.

«Creemos que la tendencia continuará acelerándose incluso más allá del 2020, introduciendo una nueva experiencia de usuario, potencialmente reemplazando la experiencia del dashboard. Esa experiencia de usuario será mucho más dinámica, en la que se generarán conocimientos para un usuario basados en su contexto. Será mucho más conversacional, en la que los usuarios podrán interactuar con esas percepciones utilizando un lenguaje natural, tanto para hacer preguntas como para que se le expliquen al usuario las conclusiones de esas percepciones autogeneradas y se incorporen a las herramientas de colaboración», indica Sallam.

Como resultado, los usuarios dependerán menos de los dashboard con KPIs predefinidos para algo más dinámico y conversacional.

Los CIOs enfatizarán la ‘tecnología ética’ y la confianza
A medida que las organizaciones aprovechan cada vez más los datos de los clientes para impulsar la toma de decisiones, ya no pueden considerar la confianza de los clientes como una mera cuestión de cumplimiento o de relaciones públicas. En el 2020, la confianza de los clientes en torno a las prácticas de datos se está convirtiendo en una meta crítica para los negocios, señala Buchholz de Deloitte. Cuando se trata de hacer uso de los datos de los clientes, la confianza debe ser una empresa de 360 grados que considere la tecnología, los procesos y las personas de una organización.

Para los CIOs, eso significa hacer hincapié en la «tecnología ética» y crear un conjunto de herramientas que ayuden a las personas de la organización a reconocer los dilemas éticos a la hora de tomar decisiones, especialmente dado el poder de las tecnologías disruptivas emergentes.

«Hace treinta años, toda nuestra información se almacenaba en carpetas de manila y nadie se lo pensó dos veces», comenta Buchholz. «Hoy en día, tenemos la capacidad de recolectar datos, analizarlos, operar con ellos, utilizarlos a escala hasta el punto de que hay organizaciones que saben más sobre nosotros y nuestros comportamientos que nosotros mismos. Eso ha comenzado, me atrevería a decir, a crear déficits de confianza».

La gente no está segura de que las organizaciones que recogen y analizan sus datos lo hagan con sus mejores intereses en mente, añade Buchholz.

La tecnología ética es un intento de abordar estos temas de confianza. Podría tomar la forma de algoritmos explicables de aprendizaje de máquinas para que los individuos puedan entender mejor lo que esos algoritmos están correlacionando. O podría implicar proporcionar un mejor anonimato de los datos y el enmascaramiento de éstos, para evitar que la información personal identificable sea expuesta.

«Se está trabajando para tratar de asegurar que los controles en torno al acceso a los datos sean mejores, de modo que haya más control cuando la gente diga que quiere utilizar una información concreta para fines particulares, y asegurarse de que no la utilicen para fines distintos de los que pidieron», indica Buchholz.

En otros casos, las organizaciones están creando instrumentos que comprenden el contexto de los datos y la forma en que su veracidad puede cambiar con el tiempo. Buchholz señala al banco canadiense CIBC, que ha puesto en práctica una serie de puntuaciones de veracidad de los datos, para evaluar los elementos de los datos que utiliza para impulsar la toma de decisiones.

«Uno de sus ejemplos fue el hecho de que querer solicitar una hipoteca es interesante por un par de días. Pero, después de un tiempo, la validez de usar esa información para tomar una decisión es probablemente baja», finaliza Buchholz.

Thor Olavsrud, CIOonline