Big data: más que números, cifras y experiencias

Fuente: Techtarget

 

Con el creciente número de datos generados día tras día, el reto para las empresas es entender las estadísticas, aprender de las cifras y proyectar adecuadamente las estrategias de su negocio para ofrecer mejores experiencias a sus clientes y usuarios.

Big data, o los grandes volúmenes de datos, es un término que describe cualquier cantidad voluminosa de datos estructurados, semiestructurados y no estructurados, que tienen el potencial de ser extraídos para obtener información. A este respecto Gartner, la consultora de tecnologías de información, define que los datos no estructurados son aquellos que no pertenecen a un modelo no definido o específico. Incluso estima que el 80 por ciento de los datos son no estructurados, como el cuerpo de un correo. En pocas palabras, los datos no estructurados son aquellos que no caben en una base de datos. Por su parte, los datos estructurados son aquellos que pueden ser ingresados en una base, como: fecha, hora, nombres, cuentas de correo, números, etc. En pocas palabras, hay un sinfín de fuentes de datos que producen información nueva cada minuto.

¿Qué pueden hacer las empresas para tomar ventaja de tanta información? ¿Y cómo pueden extraer únicamente los datos que necesitan de entre el océano de datos?

Actualmente, la adopción de soluciones de big data permite que las compañías ocupen datos para su beneficio. Para lograrlo, primero hay que considerar las tres Vs de big data: el Volumen extremo de datos, la gran Variedad de tipos de datos y la Velocidad a la que se deben procesar dichos datos.

Volumen de datos. La organización debe poder extraer un conjunto de datos de entrenamiento que pueda analizarse rápidamente utilizando los diferentes algoritmos candidatos, pero también uno que refleje adecuadamente el conjunto completo de datos. Su organización debe contar con suficientes datos para representar correctamente las incidencias reales, a la vez que considera todos los escenarios posibles para los resultados que está buscando.

Variedad de datos. Conforme los datos no estructurados se vuelven esenciales para los procesos de negocio, se convierten en fuentes necesarias para los modelos predictivos. Esto significa que una empresa debe tener un conjunto de procesos sólidos para escanear, analizar y contextualizar datos no estructurados y transformarlos en conjuntos de datos que alimenten los algoritmos de analítica.

Velocidad de los datos. Cada vez más rápido se reciben grandes cantidades de datos y a menudo no se puede predecir cuándo podrían cambiar, lo que forzaría una necesidad casi continua de creación y preparación de perfiles de datos. La necesidad de grandes velocidades de datos requiere una potente infraestructura de cómputo, capaz de procesar rápidamente grandes volúmenes y variedades de datos sin sobrecargar los servidores. Esto puede requerir cientos o miles de servidores para distribuir el trabajo y operar de manera colaborativa. Pero la computación en la nube ofrece alternativas para el almacenamiento y análisis de datos, de forma que las empresas puedan implementar proyectos de big data sin impactar su propia infraestructura.

En resumen, al planear una estrategia de big data que le permita obtener información útil para la toma de decisiones que definirán las estrategias de su negocio, se deben contemplar los siguientes pasos: consolidación de datos, segmentación, elaboración de reportes, comparación de resultados contra información histórica, toma de decisiones. Y de ahí, volver a empezar, realizando los ajustes necesarios en la segmentación de datos para obtener los reportes que arrojen los resultados deseados.