Cómo usar Big Data para la toma de decisiones

16 octubre 2021

time3.9 min.

Blog MCM

Big Data es mucho más que solo cantidad o volumen de información. Es también sobre generar valor en tiempo real, encontrar hallazgos a partir de datos crudos.; sin importar su cantidad, tipo o la velocidad a la que se generan. Inteligencia artificial (IA), Redes neuronales y Machine Learning (ML) ayudan a las empresas a explotar su información. 

Las organizaciones descubren nuevas perspectivas de su información al aprovechar Big Data. Crean oportunidades para transformar sus negocios, la industria y la calidad de vida. 

Big Data no genera valor por sí mismo, sino que representa un peldaño en el proceso de creación de valor para el negocio. Muchas empresas ya han logrado ver a Big Data como una estrategia habilitadora. En etapas de adopción, el problema es cómo comenzar a hacerlo; con ello les surgen inquietudes:

Falta de habilidades. 

¿Dónde encontrar las habilidades que se requieren para convertir un proyecto de Big Data en una realidad? El procesamiento de datos con frecuencia requiere de la intervención de científicos de datos (data science). 

Adopción lenta

¿Cómo acelerar el tiempo de adopción y reducir el tiempo invertido en implementar una solución? Grandes cantidades de datos requieren de grandes espacios de almacenamiento. La necesidad de inversión suele retrasar la adopción de estrategias Big Data. 

Complejos sistemas IT

¿Cómo detectar y construir relaciones entre los diferentes datos de la organización y sus múltiples recintos de almacenamiento?

Integración desde múltiples fuentes

¿Cómo se relaciona la información ubicada en distintos repositorios de las diferentes áreas?

Para comenzar a producir valor a partir de Big Data, una compañía tiene primero que adquirir la información, analizarla y crear estrategias a partir de hallazgos. Las bases de datos crecen en tamaño, la dimensión y su complejidad demanda de consultas cada vez más rápidas. 

23798578_s

El volumen de datos generados por computadoras, sensores IoT y redes sociales crece de manera constante. Los decrecientes costos por almacenamiento ahora nos permiten mantener la información durante más tiempo. Antes, las principales razones para almacenar información eran auditoría y cumplimiento normativo. Hoy la información histórica representa un activo que las empresas pueden utilizar. 

El aspecto más importante de Big Data es su necesidad de velocidad, requerida durante todas las etapas de la administración de datos. Ya contábamos con la capacidad de almacenar grandes cantidades de información antes de poder mejorar los tiempos de consulta. 

La necesidad de mejorar tiempos forzaba a los administradores de Bases de Datos a optimizar la consulta reduciendo la cantidad de datos almacenados. Solo guardar los más importantes y deshacerse de los no críticos. Una base de datos inmensa (Terabytes) degradaba los tiempos de respuesta de manera importante. 

Tomar decisiones más rápido, con base en datos

Uno de los principales valores de Big Data es el acelerar los procesos de toma de decisión. Dr. Richard Hackatorn propuso un marco de referencia para analizar los tiempos de toma de decisión con base en el análisis de datos. El papel lleva el título “Minimizing Action Distance”.

 

 

El valor de la acción tomada disminuye mientras más tiempo ocurra entre un evento y su ejecución. El marco define 3 tipos de retrasos: 

Data latency

El tiempo transcurrido entre un evento y la integración de los datos para ser puesta a disposición del análisis. 

Analysis latency

El tiempo transcurrido entre el inicio, fin del análisis de datos y la puesta a disposición de los resultados. 

Decision latency

El tiempo que le lleva a una empresa a reaccionar y ejecutar una acción.

La duración de cada etapa aleja el tiempo de reacción de la ocurrencia del evento que la disparó. Mientras más largo sea ese tiempo, el valor de la acción disminuye. 

Es posible incrementar el valor de una acción al enfocarse en reducir cada tipo de retraso. Las empresas deben asegurarse de acelerar la recopilación, almacenamiento, análisis y presentación de los resultados. 

¿Son los discos un problema?

La lectura secuencial de 1 Petabyte desde un disco mecánico puede tomar hasta 58 días. El uso de discos de estado sólido puede reducir ese tiempo a solamente 2 días pero elevar su costo hasta niveles prohibitivos. Por tal razón, la innovación ha buscado otras soluciones para resolver los tiempos de botella y mejorar el tiempo de respuesta. 

Bases de datos distribuidas

Distribuir los datos a lo largo de varios discos puede ayudar a reducir los tiempos de respuesta al permitir la lectura simultánea de información. En una implementación ideal, una base distribuida almacenaría la misma cantidad de información en todos sus discos. Si se dividiera 1 Petabyte a lo largo de 10 discos y leyeran de manera simultánea, el tiempo se reduciría a una décima parte. 

Bases de datos en columnas

Es muy común que los registros en fila mantengan información repetida. El simple cambio de arquitectura a un modelo de columnas puede ayudar a reducir la cantidad de datos a la que se accede aún en con un solo disco. Este modelo no asume que toda la información del registro será consultada y que solamente se tendrá que leer una parte de la información por registro. 

Bases de Datos In-memory

Este tipo de base de datos lleva los niveles de respuesta al siguiente nivel. Eliminan discos del proceso ya que abren bases de datos completas en memoria RAM. Lo anterior puede mejorar el tiempo de respuesta en un factor de 1,000. 

Varios CSP (Proveedores de Servicios en la Nube) ofrecen soluciones de bases de datos optimizadas para reducir los tiempos de respuesta, almacenamiento, análisis y disposición de información. La adopción de estos tipos de base de datos puede reducir la intervención humana en el proceso de análisis de datos. Además, ofrecen distintos niveles de almacenamiento en la nube para datos críticos, accesados de manera frecuente e información histórica.  

Los servicios de conectividad de MCM Telecom le ayudan a conectar su empresa con su infraestructura en la Nube de manera directa, reduciendo el tiempo de latencia, eliminando su variabilidad y maximizando la entrega de paquetes evitando retransmisiones. Una solución de conectividad optimizada para las nubes de los grandes CSP (Proveedores de soluciones en la Nube) puede ayudar a mejorar la experiencia de sus clientes. 

COMPARTIR

  • facebook
  • linkedin
  • instagram