La analítica y el Big Data impulsan la innovación empresarial
La evolución hacia la Enterprise Analytical Architecture está impulsada por los retos que plantean los datos multi-estructurados, e las analíticas interactivas o el almacenaje de datos con ruido, según Teradata.
Cuando los datos son utilizados varias veces es necesario minimizar el coste total de propiedad amortizando el coste por adquisición e integración a través de múltiples procesos de negocio. Esto se consigue proporcionando varias aplicaciones de análisis para una de las copias de datos, en lugar de al revés. Una copia siempre será mejor que dos cuando los datos respaldan procesos de negocio cruciales, será es necesario que sean precisos, fiables y certificados, según comentan desde Teradata. En la actualidad aunque el almacenamiento de datos sigue siendo algo necesario, ya no es suficiente por sí solo.
Para optimizar completamente los procesos de negocio es necesario integrar los datos para apoyar los análisis multifuncionales. Esto es indispensables si se quiere poner en marcha un análisis de información procesable de la compañía al completo a través de fronteras funcionales, organizativas y geográficas.
“Implementar un Data Warehouse Integrado sigue siendo la forma más racional de analizar una compañía, por lo que se puede afirmar que los rumores de su desaparición son exagerados”, sostiene Martin Willcox, Director de Producto y Soluciones de Marketing Internacional en Teradata Corporation.
La evolución desde una arquitectura “monolítica” a un Data Warehouse más distribuido ha sido descrito por Gartner con el término Logical Data Warehouse, sin embargo Willcox explica que en Teradata a esa evolución la llaman Unified Data Arquitecture y que “está claro que el futuro de las empresas de Analytical Architecture es diverso. Con el tiempo se incrementará la necesidad de usar e integrar múltiples plataformas de análisis, cada una de ellas optimizada para conseguir diferentes combinaciones de los 5 retos de Big Data”.
La Arquitectura Analítica Empresarial plantea retos como el de los datos multi-estructurados, hay que ser capaz de gestionar de forma relacional los datos multi-estructurados y combinar enfoques “schema on-load” y “schema on-read”, lo que hace que esas estrategias de gestión de información que “sirven para todo” sean cada vez menos rentables.
También plantea un desafío el almacenaje de datos con ruido. Gran parte de los esfuerzos de la industria están orientado a minimizar los costes de almacenaje, sabiendo que el coste unitario de almacenaje es igual al coste unitario de procesamiento, que a su vez es igual al coste total de propiedad.
Las analíticas interactivas suponen otra dificultad. El aumento de nuevos modelos generalistas de programación paralela como MapReduce y Bulk Synchronous Parallel (BSP) para usos intensivos de CPU significa que no hay soluciones milagrosas para Big Data Analytics.
No hay que olvidar que hay que ir más allá para ofrecer verdadero valor de negocio. El objetivo de un proyecto Big Data no es aumentar los conocimientos empresariales, sino cambiar la forma en la que se hacen los negocios compartiendo esos conocimientos con todos los estamentos de la empresa y cambiando los procesos de negocio.
Por último, no hay que olvidar que si se lleva a cabo una búsqueda de “Exploración & Descubrimiento” de la misma forma que se hace con el BI tradicional, se está haciendo mal. Es fundamental cerciorarse de que la adquisición será ágil para ir alineado con el desarrollo rápido y el despliegue de aplicaciones.
Por ello, cada vez más necesario que se aumente el almacenamiento de datos con nuevas arquitecturas que, en muchos casos, están mejor implementadas en nuevas tecnologías.