Jorge González

Big Data representa un avance extraordinario respecto a las técnicas de investigación de mercado convencionales. Big Data esquiva la subjetividad y limitaciones de estas, y abre las puertas a un conocimiento exhaustivo y desprovisto de prejuicios del comportamiento real de las personas y los sistemas: aquel que desvelan los datos de multitud de fuentes de diversa clase y procedencia, tras ser capturados, procesados, cruzados, transformados en patrones y analizados.

Big Data visualización

Adrian Wooldridge, columnista del influyente semanario económico británico The Economist,  acuñó el término Data equity (Capital informativo, o valor de la información en su traducción al español) en su artículo “Building with Big data”, para referirse a la creciente e inexorable importancia del valor que el tratamiento de grandes volúmenes de datos constituye para las empresas. Importancia que según el autor, y cuya opinión comparto, se homologará al capital de marca (Brand equity) en un futuro cercano.

El principal valor de Big Data es su capacidad para proporcionar información precisa y objetiva sobre el comportamiento real de las personas y los sistemas. Lo que permite anticipar sus efectos y, consecuentemente influir sobre los mismos.

Comprender cómo nos comportamos a través de información en tiempo real y libre de sesgos confirmatorios, se ha convertido en una forma de adelantarnos al futuro. La capacidad predictiva de los modelos que genera Big Data, tiene su origen en el volumen, la velocidad y la variedad de información que es capaz de analizar para transmutarla en ventajas competitivas.

Volumen. 

A un ritmo de crecimiento anual del 60%, cada día se generan 2,5 Exabytes (Eb) de información nueva. El equivalente a 2.500 millones de gigabytes, o 532 millones (redondeando) de DVDs . La información que recorre internet cada segundo, es mayor que toda la que había almacenada hace 20 años. Cada minuto se suben 24 horas de video a Youtube, se publican 600 nuevos posts en blogs y se lanzan 34.000 tweets. IDC calcula que el volumen de información global existente alcanzará los 2,7 Zetabytes (Zb) a finales de año y llegará hasta los 8Zb en 2015.

Si 1Zb son 1.000Eb, o lo que es lo mismo 1 billón de gigas, la información que produzcamos hasta 2015 ocupará 1,77 billones de DVDs, o lo que es lo mismo, 8.000 centros de datos que ocuparían aproximadamente 1,5 veces el tamaño de Manhattan.

Se estima que WalMart el mayor minorista del mundo, gestiona 2,5 Petabytes (2,5 millones de gigas) de información que producen cada hora, alrededor de un millón de transacciones con sus clientes. Además bucea entre los posts de Twitter y las actualizaciones de Facebook, para segmentar mejor a sus clientes y lanzarles ofertas más ajustadas a sus gustos y necesidades.

Un 30% de las ventas de Amazon son generadas por su motor de recomendaciones (“los clientes que vieron este producto también compraron”). El gigante del comercio electrónico no sólo realiza un seguimiento de las compras de sus clientes, sino también de los artículos que estuvieron viendo, de cómo navegaron por el sitio, de cómo influyeron las reseñas, promociones y diseños de página, y las similitudes entre grupos individuales.

Sus algoritmos inteligentes, permiten predecir qué libros les gustará leer próximamente a sus clientes, pues aprenden de su comportamiento, basándose en cómo responden a las recomendaciones propuestas y ajustando estas con mayor precisión en cada interacción.

Target  instrumenta el historial de compras de sus clientes para adaptar su comunicación con las mujeres que deduce están embarazadas.

En España, Telefónica Digital ha desarrollado un producto  denominado Smart Steps, que ofrece datos anónimos de la red móvil a empresas privadas y organismos públicos, con los  que pueden medir y  comparar, para comprender qué factores influyen más en el número de personas que visitan un determinado lugar en distintos momentos. Gracias a estos datos, los comerciantes podrán conocer, por ejemplo, los días y las horas en que compran los adolescentes, lo que les ayudará a diseñar y segmentar mejor sus promociones.

Velocidad.

Para muchas aplicaciones, la velocidad de creación de los datos, es incluso más importante que su volumen. La información en tiempo real, hace posible que una compañía, sea mucho más ágil que sus competidores.

Sears puede analizar la elasticidad de los precios de sus productos semanalmente y ajustarlos en función de su stock y los precios de la competencia. Antes, la compañía necesitaba ocho semanas y sólo podía utilizar el 10% de sus datos.

A través de la información de geolocalización procedente de teléfonos móviles Alex “Sandy” Pentland, director del MIT Human Dynamics laboratory y sus colaboradores, pudieron inferir cuánta gente había en los parkings de Macy’s el viernes negro (Black Friday, día que inaugura la temporada de compras navideñas en Estados Unidos). Lo que posibilitó estimar las ventas de la cadena, antes incluso de que Macy’s las registrara.

Variedad.

Big Data toma la forma de mensajes, actualizaciones, e imágenes publicadas en las redes sociales, lecturas de los sensores, señales GPS de los teléfonos móviles, máquinas de autoservicio, transacciones comerciales, consultas de búsqueda en internet, sistemas de navegación de automóviles, aviones y satélites, etc.

La mayoría de las fuentes más importantes de los grandes volúmenes de datos con los que convivimos actualmente, son relativamente nuevas. Las grandes cantidades de información que generan las redes sociales, por ejemplo, no tienen ni una década de antigüedad. LinkedIn apareció en el 2.003, Facebook fue lanzada en el 2.004 y Twitter en el 2.006. Lo mismo sucede con los teléfonos inteligentes y otros dispositivos móviles que ahora proporcionan ingentes flujos de datos vinculados a personas, actividades y lugares. Debido a que estos dispositivos están en todas partes, es fácil olvidar que el iPhone –el dispositivo que definió la categoría de Smartphone (aunque realmente fue IBM quién creó el concepto en 1992)- vio la luz hace apenas cinco años (29 de junio de 2007), y el iPad, lanzado el 3 de Abril de 2010, va por su tercera versión, sin haber cumplido los tres años.

De este modo, las bases de datos estructurados que almacenan la mayor parte de la información corporativa, tendrán que adaptarse a la era Big Data. La constante disminución del coste de todos los elementos de computación (almacenamiento, memoria, procesamiento, ancho de banda…) facilitará el proceso.

Por descontado, una serie de obstáculos de diversa índole, van a tener que ser superados para que las empresas saquen el máximo partido a las oportunidades que Big Data ofrece. Ese será el tema del siguiente post.

¿HABLAMOS?

Jorge González

Creador de THINK&SELL. Consultoría estratégica, creativa y de innovación orientada a la generación de oportunidades que multipliquen el valor de la marca y el ROI a través de una mejor Experiencia de Cliente.

  1. Bitacoras.com a las dijo:

    Información Bitacoras.com…

    Valora en Bitacoras.com: El principal valor de Big Data es su capacidad para proporcionar información precisa y objetiva sobre el comportamiento real de las personas y los sistemas. Lo que permite anticipar sus efectos y, consecuentemente influir sob…..

  2. […] comerciales? ¿Pueden venderlos a terceros? ¿Pueden analizarse y volver a ser vendidos?… Telefónica, por ejemplo lanzó la semana pasada un servicio que ofrece datos anónimos de la localización de […]

  3. […] herramientas disponibles para gestionar el volumen, la velocidad y la variedad de la información que generamos a diario han mejorado considerablemente los últimos años. En […]

Comments are closed.