Big data no se escribe con V (pero debería)

Big data no se escribe con V (pero debería)

El Big Data está, curiosamente, marcado por la letra V.
23 Septiembre 2017

Aunque en un primer momento se hablaba de 3 V como las que marcaban esta tendencia, lo cierto es que ahora ya se habla de las 7 V que están detrás del Big Data, aunque esta cifra no deja de crecer y ya se considera incluso que hay un decálogo.

Variedad, volumen y velocidad

Las tres primeras V hacen referencia a la Variedad, Volumen y Velocidad de los datos que están bajo el paraguas de Big Data. Hay que recordar que esta información se genera todos los días y a todas horas. Y, como ya sabemos, incluye tanto los datos a nivel interno de las empresas como a nivel externo. En este último punto se engloba todo lo relacionado con Internet y las redes sociales.

El volumen, la variedad y la velocidad con la que se están generando todos estos datos hace que muchos empiecen a hablar ya del Super Big Data e, incluso, hay quienes afirman que todo acabará convirtiéndose en el Mega Big Data.

Veracidad, variabilidad, valor y visualización

Sin embargo, muchas veces se ha dicho también que lo importante no es tanto la cantidad de información que tengamos como la calidadde la misma. Por eso, para que el Big Data pueda ser algo realmente útil para las empresas y no acabe convirtiéndose en una bonita “buzzword” de la que nada se extrae, deben entrar en juego las otras 4V en cuestión: Veracidad, Variabilidad, Valor y Visualización de los datos que conforman Big Data.

Así pues, podríamos decir que las 3 primeras V son las que definen y marcan el Big Data en sí, mientras que estas cuatro últimas variables son las que determinan el valor real para las empresas y lo que hará que los negocios puedan gestionar y sacar partido de todos esos datos que tiene a su alcance.

Dicho de otra forma, para que la información acabe transformándose en conocimiento, debe ser tratada y procesada por las correspondientes herramientas y tecnologías, que nos permitirán extraer el valor de toda esta información que se aglutina en el Big Data.

Una de las primeras cosas que se deben realizar en todo proyecto de Big Data es la limpieza de los datos. De hecho, los analistas y expertos advierten de que uno de los principales frenos con los que se topan los proyectos de Big Data es la mala calidad de los datos, ya que esta información puede alterar el resultado y echar al traste toda la inversión acometida, al no haber sido capaces de extraer el verdadero valor de la información que tenemos.

Más V en camino

Por eso, algunos también se atreven a añadir una octava V en esta lista: la Vulnerabilidad de los datos. Por vulnerabilidad deberíamos entender el hecho de que un número creciente de personas se está dando cuenta y posicionándose en contra de que sus datos personales (uno de los elementos vitales de muchas iniciativas comerciales Big Data) están siendo utilizado para analizar en su comportamiento y, en última instancia, venderles cosas.

Es cierto que un creciente número de consumidores (cada vez más expertos en tecnología) están dispuestos a sacrificar algo de privacidad para obtener, como recompensa, los beneficios de la tecnología digital y personalizada, pero también es cierto que quieren hacer esta cesión de sus datos bajo sus propias preferencias y condiciones. Es decir, que, cada vez más, la gente quiere estar informado sobre el uso que se hace de los datos y tener la capacidad de no cederlos en cualquier momento.

Puesto que Big Data no hace más que crecer, algunos empiezan a hablar de nuevas V a añadir a esta lista de características que definen esta tendencia tecnológica. Así, podemos referirnos también a la Validez de los datos. Parecido al término veracidad, validez engloba precisión y corrección de los datos para su uso previsto. Según Forbes, se estima que un 60% del tiempo de un científico de datos se dedica a limpiar sus datos antes de poder hacer cualquier análisis. Como decíamos antes, el beneficio del Big Data y de su análisis es directamente proporcional a lo bueno que sean los datos.

La décima V de la que podríamos hablar relacionada con Big Data es la Volatilidad de los datos que estamos considerando. ¿Cuánto tiempo se deben conservar los datos? ¿Valen para siempre?

Precisamente por la velocidad y el volumen del Big Data, no debemos olvidar la volatilidad de algunos de estos datos.

Así pues, lo importante en cualquier proyecto Big Data no está tanto en la información como en todas esas V que hay que considerar y tener en cuenta, y que nos permitirán encontrar la aguja en el granero. 

¿Qué opinas de este artículo?