Las 5 V del Big Data: las cinco dimensiones del Data

Las 5 uves del big Data

 

Si en el periodismo las cinco dobles uves son mandamiento, en el entorno empresarial las 5 V del Big Data son el camino que convierte los grandes volúmenes de información en inteligencia.

El Big data analytics permite explotar un gran volumen de datos para que sean una fuente de inteligencia para los negocios. A continuación hablaremos de las 5 V del Big Data.

Para extraer inteligencia de los grendes volúmenes de datos que manejan las organizaciones, en principio se aplicó el modelo 3-V (volumen, variedad y velocidad). Aún así, dos factores cruciales (veracidad y valor) se han sumado a la ecuación. Son las denominadas 5 V del Big Data.

¿Con qué objetivo?

Se trata de cumplir con un imperativo en un mundo dominado por la sobreinformación. Distinguir entre la información significativa (la señal) de las interferencias aparentemente relevantes (el ruido), como explica el estadista y escritor estadounidense Nate Silver en su obra ‘La señal y el ruido’.

Para facilitar su entendimiento y organización, el big data se puede interpretar desde dos perspectivas:

  • Lo tangible del big data: en esta perspectiva observamos parámetros medibles de forma cuantitativa. La velocidad, el volumen y la variedad se pueden expresar mediante unidades de medición que facilitan su organización.
  • Lo intangible del big data: se trata de la calidad de los datos. La calidad depende del valor y la veracidad. Al no ser parámetros medibles cuantitativamente, sino cualitativamente, el proceso es más complejo.

Las 5 V’s del big data

En este contexto, la comunidad tecnológica ha establecido las 5 V´s del big data, que actúan como directrices para el tratamiento de los datos:

  • Volumen

Uno de los problemas que plantea el big data es el gran volumen de datos a de gestionar. Este torrente de datos, en buena medida procedente de las redes sociales y nuevas plataformas, encierra un potencial inmenso y también un desafío. Su flujo continuo provoca que los datos tengan un ciclo de vida muy corto. Los avances tecnológicos posibilitan, no obstante, nuevas formas avanzadas de almacenamiento, así como de administración, explotación y análisis.

  • Velocidad

El corto ciclo de vida de los datos obliga a que exista una gran velocidad de respuesta y de procesamiento para evitar su obsolescencia. Una rápida respuesta es clave a la hora de optimizar y rentabilizar el uso adecuado de los datos. De esta forma se aumenta la precisión y calidad de los resultados.

  • Variedad

Las nuevas plataformas y redes sociales, además de reducir el ciclo de vida de los datos, han provocado que su procedencia sea de muchas más fuentes. La amalgama incluye textos, imágenes, web data, tweets, audio, vídeo, etc. Esto dota al big data de infinidad de posibilidades, pero también complica su almacenamiento, procesamiento y análisis.

  • Veracidad

La veracidad afecta a la calidad de los datos. Es necesario controlar la integridad y la fiabilidad de los datos. Solo si los datos son buenos, fiables, en definitiva, veraces, las decisiones tomadas en función de estos serán acertadas.

  • Valor

El valor es el factor más importante del big data y, en cierta medida, engloba a todos los demás. Al fin y al cabo, si todos los demás parámetros son correctos, se podrá extraer más información y conocimiento. En consecución, serán datos muy valiosos. El valor supone rentabilizar los datos, extraer toda la inteligencia que encierran y generar ventajas competitivas.

El diseño y despliegue de soluciones y herramientas de big data analytics, con la inteligencia artificial como aliada, debe llevarse a cabo teniendo en cuenta las cinco V´s. Es así como ayudamos a nuestros clientes a ganar en inteligencia, mejorar la tomar de decisiones e imprimir eficiencia a sus procesos. En definitiva, ayudamos a transformar los datos en información y acción para mantener una posición competitiva y generar nuevas oportunidades de negocio.

Entradas destacadas