Big Data Analytics: la Nueva Métrica de los Negocios

Big data analytics - uan Pablo Consuegra Microsoft

Juan Pablo Consuegra, director de Mercadeo y Operaciones de Negocios de Microsoft Colombia

En los últimos años, una cantidad creciente de empresas en todo el mundo está iniciando proyectos de Big Data Analytics para informarse en profundidad acerca de métricas y comportamientos del negocio que anteriormente no conocían.

 

Sin embargo, muchas compañías desconocen el tema o no poseen las herramientas tecnológicas para analizar automáticamente las colosales cantidades de información que les ayude comprender más su negocio y mejorar su desempeño con base en decisiones tomadas rápidamente y sobre la marcha.

 

Debido a que tradicionalmente las organizaciones han venido utilizando información extraída de sus sistemas internos de ERP y CRM para tomar sus decisiones, es difícil encontrar patrones y predecir con mayor exactitud el comportamiento de sus clientes y audiencias. En opinión de Juan Pablo Consuegra, director de Mercadeo y Operaciones de Negocios de Microsoft Colombia, “es aquí donde debo incluir no solo los datos resultantes de la interacción de ese cliente conmigo, sino que debo ser capaz de conocer los datos e información del comportamiento de dicho cliente con el ecosistema completo, con toda la cadena de valor e incluso, con sus interacciones del día a día por fuera del ambiente corporativo”.

 

Aparece entonces el concepto de Analítica de Big Data, donde es posible capturar y combinar datos de cualquier tamaño provenientes de diferentes fuentes para obtener información más completa y con mayor detalle, que sería imposible de lograr con un sistema empresarial como los que conocemos hasta hoy.

 

¿ROI sobre los datos?

A pesar de las bondades percibidas de poseer información fresca sobre todas actividades del negocio, los gerentes de tecnología consideran que una implementación de análisis de grandes datos puede ser algo complejo, costoso y prolongado en el tiempo. Para refutar esta creencia, César Ayala, Head Innovation Sales de SAP sale rápidamente al paso argumentando que “puede ser suficiente con revisar cifras de reducción de costos de almacenamiento y velocidad de procesamiento de información en donde algunos estudios indican que en los años 80 se pagaban miles de dólares por 1GB de información, y actualmente solo se pagan algunos centavos de dólar.”

Big Data Analytics - Cesar Ayala - SAP

César Ayala, Head Innovation Sales de SAP

El ejecutivo es claro en afirmar que con la tecnología actual de Big Data “una búsqueda en medio de tan vasta cantidad de información en Internet puede tardar algunos milisegundos”. Es por ello, que resulta asequible para las empresas tomar ventaja de esta innovación que –combinada con las capacidades de analítica predictiva– permite obtener un conocimiento en profundidad de los datos, lo cual sustenta enteramente la inversión.

 

“En los años 80 se pagaban miles de dólares por 1GB de información. Hoy solo se pagan algunos centavos de dólar”.

Un consejo es que los proyectos de analítica se planteen de forma coherente con los requerimientos reales, estar sujetos a los ingresos derivados por su operación y conlleven a disminuir los costos. En opinión de Carlos Hamon, Senior Systems Engineer de EMC, “Si mi proyecto no está enmarcado en estos puntos, aunque tecnológicamente sea exitoso, desde el punto de vista de negocio no lo es; entonces, no debemos decir que Big Data es costoso sino que debemos buscar cuáles son los proyectos adecuados donde Big Data retorne la inversión que estoy dando y contribuya a las ganancias.”

 

Más allá del costo nominal de las soluciones de Big Data, algo que realmente deberíamos considerar es el concepto de ROI aplicado a los datos. “Hoy hablamos de un ‘retorno sobre los datos’ y de un ‘dividendo sobre los datos’, cuando queremos referirnos al ROI de estas soluciones”, continuó Juan Pablo Consuegra. “Es así que en 2014, IDC en su estudio ‘Realizing the Data Dividend’, refiere retornos sobre los datos de cientos de billones de dólares en productividad, operaciones, innovación y conexión con clientes (adquisición, retención y soporte).”

 

Infraestructura y Big Data

Ahora bien, por su naturaleza, el análisis de tal cantidad de datos supone una enorme carga de trabajo para la infraestructura, y como las empresas no tienen una medida única para soportar las cargas de trabajo provenientes del crecimiento exponencial de los datos, “se debe analizar el volumen de datos que serán convertidos en información, el tiempo de respuesta requerido, el tiempo que se conservará la información y el modelo analítico al que serán sometidos”. Así lo asegura Juan Fernando Martínez, Gerente de Mercadeo de Canales Corporativos de Intel, para quien lograr esto “requiere de una infraestructura de procesamiento inicial denso y una plataforma de almacenamiento por niveles, con discos de amplia capacidad para datos en continuo proceso de lectura y escritura”.

 

“El Big Data en combinación con capacidades de analítica predictiva permite obtener un conocimiento en profundidad de los datos, lo cual sustenta enteramente la inversión.”

 

Además, la escalabilidad es fundamental en procesos de análisis de datos, los cuales demandan altas capacidades computacionales. En la actualidad, existen tecnologías como scale-out’, que permite crecer ‘por bloques’ al permitir diseñar una infraestructura inicial que soportar las necesidades preliminares del proyecto y continúa adicionando capacidades de cómputo a medida que los desafíos de los datos aumentan, conservando de paso la inversión inicial.

 

“No necesariamente tener más núcleos o mayor frecuencia significa mejor desempeño o mayor eficiencia,”, prosigue el ejecutivo de Intel. “Para eso existen modelos de medida llamados ‘benchmarks’, que estandarizan puntajes y de esta manera se determina de manera objetiva cuál es la plataforma ideal de procesamiento para el proyecto de datos a implementar.”

 

“No necesariamente tener más núcleos o mayor frecuencia significa mejor desempeño o mayor eficiencia”.

 

Análisis por sobre todo

Sin importar el proveedor de Big Data contratado, los desafíos que representa son comunes a todas las organizaciones y requieren de soluciones transformadoras y disruptivas que trasciendan a todos los procesos de negocios, desde la interacción con clientes vía redes sociales, hasta la producción, empaque, logística, servicio al cliente y marketing.

 

Transformar datos estructurados y no estructurados para convertirlos en activos de alto valor, predecir y prevenir el fraude, mitigar riesgos, resolver problemas complejos con rapidez y utilizar y gestionar de manera óptima los recursos de infraestructura de TI son las principales razones para implementar analítica de Big Data. Esto le ayuda a las organizaciones a tener mejor rendimiento y aprovechar su activo más importante: los datos.

Big Data Analytics - Juan Carlos Puentes SAS

Juan Carlos Puentes, Gerente General Colombia, SAS Institute

“Recordemos que el ADN de una organización es la información y esta proviene de los datos que se apilan incesantemente sobre nubes interminables que según Gartner, crecerán un 80% hasta 2020”, indica Juan Carlos Puentes, gerente general SAS Institute. “Es así como las organizaciones deben escuchar lo que su información les quiere decir y la Analítica es el medio para hacerlo.”

Big Data Analytics

 

Big Data Analytics

Big Data Analytics

Big Data Analytics

  • Fuente: IT Manager
  • Autor: Orlando Gómez

También te puede interesar...

Rackspace managed cloud
¿La Nube Puede Tener Todo Incluido?

En los últimos años, el modelo de Infraestructura como Servicio (IaaS) le ha permitido a numerosas empresas contratar de forma...