
La aparición de Fabric en el tablero de juego de las soluciones en el ámbito del análisis de datos cuanto menos ha sido peculiar. Fagocitando (siempre me acuerdo de los dibujos «Erase una vez la vida» cuando utilizo esta palabra) Power BI aunque permitiendo aun su andadura en solitario, ¿hasta cuándo?. Tanto es así, que ha utilizado la misma solución para desplegar un sin fin de servicios (ya existentes en Azure) que cubren todas las necesidades en el ámbito de la gobernanza y el análisis de datos: extracción, ingesta, almacenamiento, transformación, explotación, análisis, IA, tiempo real….
Hay muchas empresas con desconocimiento de qué es Fabric realmente, incluido organizaciones con un despliegue de Power BI, y no tienen claro el alcance de la plataforma y sobre todo, en qué medida Fabric puede aportar valor a sus organizaciones. Para ello, quería escribir este post con 4 tips para identificar si Fabric puede dar solución a sus necesidades concretas:
- Procesos ETL complejos y pesados con tiempos de actualización largos. Power Query y el Editor de consultas de Power BI Desktop es una herramienta espectacular que desde mi punto de vista revolucionó la forma de abordar los procesos de Extracción, Transformación y Carga. Pero es limitado y dependiendo, no tanto del volumen, como de los procesos de transformación que deben realizarse, puede ser insuficiente y limitante a corto plazo. Fabric no sólo proporciona nuevos servicios para la ingesta y transformación como las canalizaciones y los blocs de notas (los flujos de gen2 no son mucho más novedosos, básicamente power query online con la diferencia, que no es poco, en un almacenamiento en lakehouse o warehouse), sino que además aporta la posibilidad de almacenamientos bronce y plata con servicios lakehouse y/o warehouse, dotando de mayor versatilidad a los procesos EITL.
- Necesidad u objetivo de abordar iniciativas de análisis científico de datos o inteligencia artificial. La plataforma ofrece un escenario perfecto para implementar este tipo de proyectos. Infraestructura necesaria, escalable y sobre todo administrada con procesamiento spark y ficheros paquet (en Fabric un poquito más, Delta parket) estándar en entornos de Big Data. Almacenamiento único con conexiones directa a orígenes externos pudiendo usar esta información sin necesidad de moverla. Y por último, bloc de notas para definición, entrenamiento y uso de modelos machine y deep learnig. Todo en el mismo entorno y con un baja curva de aprendizaje. Ojalá hubiese existido este entorno en 2020 cuando hice el postgrado en análisis científico de datos!!!
- Almacenamiento centralizado de información y gobernanza de datos. Fabric ofrece servicios para el almacenamiento de la información de la compañía. Con Power BI los modelos analíticos (me gusta más que modelo semántico) era fundamentalmente el artilugio para el almacenamiento de la información. Este almacenamiento de valor es fantástico para el análisis y la visualización, pero limitado para centralizar la información de la empresa y poder ser explotada más allá de informes analíticos. Además, no permite el almacenamiento de información no estructurada o semi-estructurada y su volumen también es limitado. Fabric introduce OneLake, un lago de datos unificado. Los nuevos servicios de Lakehouse, Warehouse o SQL database entre otros ofrecen un soporte global a todas las necesidades de almacenamiento analítico para todo tipo de información con el objetivo de ser explotado por múltiples herramientas y estrategias. Además, se integra con la solución Purview para la gobernanza de datos.
- Análisis en tiempo real. Este aspecto da un salto importante con la incorporación de nuevos servicios específicos para la captura, almacenamiento y seguimiento y análisis. Esto es, un pipeline completo de análisis en tiempo real. La captura con EventStream permite la conexión no sólo a transacciones en vivo de fuentes empresariales, sino también a sensores IoT y mensajería en streaming. El almacenamiento de Bases de datos KQL tecnología diseñada para el tiempo real con alta velocidad de procesamiento para datos en streaming, esto es grandes volúmenes de datos en streaming en tiempo real. Y por último Paneles real-time para el seguimiento y análisis con conectividad en tiempo real a las Bases de datos KQL, visualización con latencia mínima y alertas.


Conclusiones
La pregunta, ¿debo dar el salto a Fabric?. Para mi la respuesta en general es sí. Porque es el futuro, no sé cuánto aguantará Power BI como «república independiente», y sobre todo, porque se sientan los pilares del análisis y gobernanza de datos en la organización, siendo la tecnología un aliado de gran valor y pocos «problemas».
Pero en concreto, si su organización detecta alguna de las necesidades descritas anteriormente, entonces es un momento perfecto para, con bajo coste, comenzar una adopción de Fabric y abordar una estrategia de dato global, escalable y donde el límite está en lo que la empresa pueda imaginar entorno al dato.
Póngase en contacto con TSBi y le enseñaremos la plataforma y analizaremos como Fabric puede aportar valor en su organización identificando una estrategia de despliegue y adopción.
