Los 4 errores más comunes que los gerentes cometen con el análisis de datos

A los líderes se les alienta a diseñar estrategias para recolectar y analizar datos masivos, y se les advierte acerca de las consecuencias negativas de no hacerlo. Pero cuando se trata de datos masivos se pueden llegar a cometer muchos errores, en este artículo te presentamos los 4 más comunes.

TIEMPO DE LECTURA

texto alt

¿Cómo se calcula?

Descarga este Artículo¡Hazte PREMIUM ahora!

Hay mucha expectativa acerca de la información y el análisis. A las firmas se les alienta a diseñar estrategias para recolectar y analizar datos masivos, y se les advierte acerca de las consecuencias negativas de no hacerlo. A partir de nuestro trabajo con compañías que están tratando de obtener perspectivas con base en los datos masivos, hemos identificado cuatro errores comunes que cometen los gerentes.

Error 1: No entender los temas de la integración

El primer desafío es la compatibilidad de integración. Una característica clave de los datos masivos es que provienen de una gran variedad de fuentes. Sin embargo, si esta información no es fácil de integrar, el número de fuentes puede dificultarles a las firmas el ahorrar dinero o crear valor para los consumidores. Por ejemplo, en uno de nuestros proyectos, una firma tenía información respecto a compras de los consumidores y lealtad, y otra base de datos separada respecto a búsquedas en línea, pero muy poco espacio para cruzar referencias entre ambas fuentes y entender si la búsqueda predecía ventas. Las firmas pueden responder a este desafío al crear “lagos de información,” que contienen vastas cantidades de datos no estructurados. Sin embargo, dicha información, si no se encuentra en forma binaria, es difícil de almacenar e integrar a través de las fuentes.

Error 2: No ver los límites de la información no estructurada

Considerando los desafíos de obtener perspectivas a partir de datos no estructurados, las firmas han tenido más éxito cuando los usan para aumentar la velocidad y corrección de las prácticas existentes de análisis de datos. En general, comenzar con la esperanza de usar información no estructurada para generar nuevas hipótesis es problemático, hasta que las compañías hayan aprendido a usar esos datos para mejorar sus respuestas a una pregunta ya existente.

Error 3: Asumir que las correlaciones significan algo

El tercer desafío -y en nuestra opinión el más importante- es la dificultad de establecer relaciones causales dentro de grandes depósitos de información observacional que está sobrepuesta. Las series de datos demasiado extensas suelen contener algunas observaciones casi idénticas que pueden llevar a correlaciones incorrectas -y a malas decisiones. Similarmente, los típicos algoritmos para aprendizaje de las máquinas identifican correlaciones que podrían no ofrecer perspectivas causales -y por lo tanto útiles. La habilidad para volver valiosos los datos masivos consiste en ser capaz de detectar un patrón causal. Hacer esto suele requerir una observación más allá de los datos.

Un ejemplo bien conocido de los datos masivos es Google Trends, que usa los registros de búsquedas en Google. Sin embargo, debido a que la información es meramente correlacional, su utilidad es limitada. Inicialmente los investigadores argumentaban que esta información podía proyectar la expansión de la gripe. Sin embargo, los investigadores posteriormente encontraron que usar datos de búsqueda sólo mejoraba marginalmente el desempeño, en comparación con un modelo simple basado en patrones de tiempo previos.

Es la experimentación, no el análisis de las grandes series de datos, lo que le permite a una firma entender si es que una relación es predictiva en lugar de simplemente correlacional. Por ejemplo, un gerente que quiera determinar si una actividad de mercadeo es redituable podría revisar datos de observación para comparar el comportamiento de los consumidores que estuvieron, o no, expuestos a dicha actividad.

Las compañías exitosas han desarrollado la habilidad de diseñar, implementar, evaluar y actuar a partir de experimentos significativos. Es este entorno de “probar y aprender” acompañado de la habilidad de actuar a partir de las perspectivas, el que puede volver valiosos a los datos masivos.

Error 4: Subestimar las habilidades necesarias

La experimentación no es el único método que pueden usar las compañías. Otra habilidad es la de construir mejores algoritmos. Un ejemplo son los sistemas de recomendación, que dependen de algoritmos que emplean datos correlacionados para recomendar los productos más relevantes al consumidor. Sin embargo, no es el tamaño de la información lo que importa, sino la capacidad de identificar aquella que mejor prediga las preferencias del comprador. Aunque el poder predictivo podría incrementarse con el aumento de la información, en muchas ocasiones las mejorías en cuanto a la predicción muestran rendimientos decrecientes conforme las series de datos se vuelven más grandes.

Los datos masivos pueden probar su valía cuando se combinan con habilidades gerenciales, de ingeniería y de análisis. Esto es claro cuando usted compara el precio de la información con el precio de las habilidades de procesamiento de información. En muchos contextos, los datos son baratos en relación al costo de retener el talento para procesarlos -lo que sugiere que las habilidades de procesamiento son más importantes que la información en sí misma.

“Una característica clave de los datos masivos es que provienen de una gran variedad de fuentes”.

“Comenzar con la esperanza de usar información no estructurada para generar nuevas hipótesis es problemático”.

“Los datos masivos pueden probar su valía cuando se combinan con habilidades gerenciales, de ingeniería y de análisis”.

A los líderes se les alienta a diseñar estrategias para recolectar y analizar datos masivos, y se les advierte acerca de las consecuencias negativas de no hacerlo. Pero cuando se trata de datos masivos se pueden llegar a cometer muchos errores, en este artículo te presentamos los 4 más comunes.

Error 1: No entender los temas de la integración: El primer desafío es la compatibilidad de integración. Una característica clave de los datos masivos es que provienen de una gran variedad de fuentes. Sin embargo, si esta información no es fácil de integrar, el número de fuentes puede dificultarles a las firmas el ahorrar dinero o crear valor para los consumidores.

Error 2: No ver los límites de la información no estructurada: Considerando los desafíos de obtener perspectivas a partir de datos no estructurados, las firmas han tenido más éxito cuando los usan para aumentar la velocidad y corrección de las prácticas existentes de análisis de datos.

Error 3: Asumir que las correlaciones significan algo: la dificultad de establecer relaciones causales dentro de grandes depósitos de información observacional que está sobrepuesta. Las series de datos demasiado extensas suelen contener algunas observaciones casi idénticas que pueden llevar a correlaciones incorrectas -y a malas decisiones.

Error 4: Subestimar las habilidades necesarias: La experimentación no es el único método que pueden usar las compañías. Otra habilidad es la de construir mejores algoritmos.

© 2017Harvard Business School Publishing Corp.

De: hbr.org

Distribuido por: The New York Times Syndicate.

The 4 Mistakes Most Managers Make With Analytics

There’s a lot of hype about data and analytics. Firms are exhorted to set strategies for collecting and analyzing big data, and warned about the negative consequences of not doing so. Based on our work with companies that are trying to draw insights from big data, we’ve identified four common mistakes that managers make.

MISTAKE 1: NOT UNDERSTANDING THE ISSUES OF INTEGRATION

The first challenge is compatibility and integration. A key characteristic of big data is that it comes from a variety of sources. However, if this data isn’t easy to integrate, the number of sources can make it difficult for firms to save money or create value for customers. For example, in one of our projects, a firm had data on customer purchases and loyalty and a separate database on online browsing behavior, but little way of cross-referencing the two sources to understand whether browsing predicted sales. Firms can respond to this challenge by creating “data lakes,” which hold vast amounts of unstructured data. But such data, if it’s not in binary form, is difficult to store and to integrate across sources.

MISTAKE 2: NOT REALIZING THE LIMITS OF UNSTRUCTURED DATA

Given the challenges of gaining insights from unstructured data, firms have been most successful when they use it to augment the speed and accuracy of existing data analysis practices. In general, starting out with the hope of using unstructured data to generate new hypotheses is problematic until companies have learned to use this data to enhance their answers to an existing question.

MISTAKE 3: ASSUMING CORRELATIONS MEAN SOMETHING

The third challenge — and in our opinion the most important — is the difficulty of establishing causal relationships within large pools of overlapping observational data. Very large data sets usually contain a number of nearly identical observations that can lead to spurious correlations — and bad decisions. Similarly, typical machine-learning algorithms identify correlations that may not offer causal — and therefore useful — insights. The skill in making big data valuable is to be able to detect a causal pattern. Doing so often requires looking beyond big data.

One well-known example of big data is Google Trends, which uses Google’s records of aggregate search queries. However, because the data is merely correlational, its usefulness is limited. Initially researchers argued that this data could project the spread of flu. But later researchers found that using search data only marginally improved performance relative to a simple model based on past time patterns.

It’s experimentation, not analyzing big data sets, that allows a firm to understand whether a relationship is predictive rather than merely correlational. For example, a manager who wanted to determine whether a marketing activity was profitable could review observational data to compare the behavior of customers who were, or were not, exposed to that activity.

Successful companies have developed the ability to design, implement, evaluate and act on meaningful experiments. It’s this “test and learn” environment, coupled with the skill to act on insights, that can make big data valuable.

MISTAKE 4: UNDERESTIMATING THE SKILLS NEEDED

Experimentation isn’t the only method that companies can use. Another skill is the ability to build better algorithms. One example is recommender systems, which rely on algorithms that use correlational data to recommend the most relevant products for a customer. However, it’s not the size of the data that matters but the ability to identify the information that best predicts a customer’s preferences. While predictive power may increase with the amount of data, in many instances the improvements in predictions show diminishing returns as data sets get bigger.

Big data can prove valuable when it’s combined with managerial, engineering and analytic skill. This is clear when you compare the price of data to the price of data-processing skills. In many contexts, data is cheap relative to the cost of retaining talent to process it — which suggests that processing skills are more important than the data itself.

¿Qué te ha parecido?

Si encontró algún error gramatical en este artículo, por favor notifíquelo a nuestros editores seleccionando el texto y presionando:“Ctrl + Enter”.

print

Comments are closed.