Archivo de la categoría: Business Intelligence

Data Warehousing: Kimball vs Inmon, Data Vault y Virtualización

Dos formas completamente diferentes de enfocar el mismo problema. Dos formas no del todo contrapuestas y ambas válidas. Quizá el enfoque departamental de Kimball es un generador de Silos y es quizá por esto que desde la perspectiva del framework de DAMA se habla mucho más de Inmon y de su CIF (Corporate Information Factory)

En el desarrollo conceptual del data warehousing, se destacan dos figuras prominentes: Ralph Kimball y Bill Inmon (que he tenido la suerte de entrevistar hace unas semanas). Aunque ambas perspectivas comparten objetivos similares, difieren considerablemente en sus enfoques metodológicos, dando lugar a dos filosofías distintas en el diseño de estrategias de datos.

La visión de Kimball se fundamenta en la premisa de que los procesos de negocio deben dictar la arquitectura del datawarehouse. Parte de la premisa de la existencia previa de datos, ya sea en forma de datamarts organizados de manera más o menos estructurada, los cuales sirven como la base para la construcción del datawarehouse futuro.

Que sea rápido… y departamentalizado

Para Kimball, la velocidad en el procesamiento de datos destinados a la toma de decisiones es primordial. Por ende, estructura el datawarehouse conforme a patrones dimensionales, con el objetivo de agilizar las consultas y ofrecer una organización más intuitiva y natural de los datos para los usuarios.

La arquitectura propuesta por Kimball se caracteriza por ser una aproximación «bottom-up», donde se parte de los datos y procesos existentes para modelar el datawarehouse de manera que se adapte a ellos. Esta metodología prioriza la eficiencia temporal y la representación intuitiva de los datos sobre la normalización.

Esencialmente el modelo dimensional de Kimball se apoya en el modelo estrella donde las dimensiones no están normalizadas. Si de un lado su construcción resulta más rápida y sencilla puede generar problemas de redundancia.

El esquema en estrella es capaz de filtrar datos a partir de información denormalizada para satisfacer las necesidades de almacenamiento de datos. Se genera una clave única asociada a cada tabla de hechos para identificar cada fila. Este esquema permite realizar cálculos y agregaciones de manera rápida, como el total de ingresos obtenidos y la cantidad total de artículos vendidos al final de cada mes. Estos detalles pueden filtrarse según sea necesario mediante consultas apropiadas. El esquema en estrella se centra en la medición de eventos que incluyen valores numéricos finitos, que se vinculan a claves externas relacionadas con las tablas de dimensiones. Existen varios tipos de tablas de hechos que contienen valores a nivel atómico. Por ejemplo, la tabla de hechos de transacciones almacena datos sobre eventos específicos, como ventas y días festivos, mientras que los hechos de registro incluyen períodos específicos, como información de cuenta al final del año o cada trimestre. Por otro lado, las tablas dimensionales proporcionan datos detallados sobre los atributos o registros que se encuentran en la tabla central.

Que sea conformado y normalizado y a ser posible por entidades primarias

Por otro lado, el enfoque de su colega Inmon, reconocido como el pionero del concepto de data warehouse, presenta una estrategia «top-down» en la resolución del problema. En este enfoque, el primer paso en el desarrollo del datawarehouse consiste en establecer una estructura de datos en tercera forma normal (3FN), completamente normalizada y depurada. Los datos que ingresan a esta estructura suelen ser depurados previamente en un «área de carga» antes de ser integrados en el datawarehouse normalizado. Esto supone otro proceso ETL.

A partir de esta estructura central, se pueden crear datamarts que organicen de manera más lógica y, si se desea, multidimensional, la información contenida en el datawarehouse principal. Esta metodología, como se puede apreciar, es más organizada pero menos flexible que la anterior, ya que aquí es la estructura y la normalización de los datos lo que dicta el proceso de trabajo en lugar de los procesos de negocio existentes.

El enfoque de Inmon se apoya es encialmente en el esquema copo de nieve donde las dimensiones están normalizadas.

El esquema de copo de nieve requiere poco espacio en disco, lo cual es una ventaja significativa. Este modelo no es relativamente fácil de implementar aunque presenta una estructura modular y a las tablas de dimensiones bien definidas. Las tablas de dimensiones suelen contener al menos dos atributos para definir información en múltiples niveles de granularidad. Sin embargo, debido a la presencia de múltiples tablas de dimensiones y relaciones más complejas, el rendimiento del esquema de copo de nieve tiende a ser inferior en comparación con el esquema en estrella. A pesar de esto, el esquema de copo de nieve ofrece el más alto nivel de integridad de datos y baja redundancia gracias a su enfoque en la normalización de datos.

Donde tiramos…

¿Cuál es la preferible? No se puede afirmar que una sea superior a la otra; simplemente, cada una enfatiza diferentes aspectos en el diseño de un datawarehouse. Kimball representa la orientación hacia el usuario final, la flexibilidad y la rápida disponibilidad de la información. Por otro lado, Inmon destaca por su enfoque en el diseño meticuloso y el cumplimiento de normas que aseguren la precisión, integración y coherencia de los datos.

Con el tiempo, los profesionales del data warehousing han aprendido a combinar ambas tendencias en modelos híbridos que incorporan lo mejor de ambas soluciones. Estos modelos suelen cerrar el ciclo de vida de la información mediante procesos ETL (Extract, Transform, Load) y utilizan estructuras dimensionales para representar la información de manera que facilite su explotación.

Las diferencias entre los enfoques de Inmon y Kimball en el desarrollo de un Data Warehouse son notables y van más allá de simplemente variaciones en la estructura interna y el alcance. Estas diferencias afectan también a la intención y el propósito subyacentes de cada modelo.

El enfoque de Inmon se caracteriza por su orientación «top-down», donde se prioriza la construcción de un almacén de datos altamente normalizado y depurado desde el principio. Este enfoque busca asegurar la precisión y coherencia de los datos, estableciendo una sólida base estructural sobre la cual se pueden desarrollar datamarts y otras estructuras de información.

Por otro lado, el enfoque de Kimball es más «bottom-up», centrándose en la rápida disponibilidad de la información para la toma de decisiones. Kimball aboga por estructuras dimensionales que se adapten a las necesidades específicas de los usuarios finales, lo que permite una mayor flexibilidad y agilidad en la explotación de los datos.

En este debate también se encuentra el concepto de Data Vault, que es una metodología de modelado de datos que se ha vuelto popular en los últimos años. El enfoque de Data Vault se centra en la escalabilidad, la flexibilidad y la trazabilidad de los datos. Utiliza una estructura de modelado específica que consiste en hubs, enlaces y satélites, lo que permite una fácil adaptación a los cambios en los requisitos de negocio y una mayor capacidad para rastrear el historial y la procedencia de los datos.

Dicho esto, afirmar que uno de estos enfoques es «correcto» o «incorrecto» sería demasiado simplista. En lugar de eso, es importante comprender las fortalezas y debilidades de cada enfoque y seleccionar el que mejor se ajuste a las necesidades y objetivos específicos de cada proyecto de Data Warehouse. En muchos casos, la combinación de elementos de diferentes enfoques, como lo hacen los modelos híbridos, puede resultar ser la opción más adecuada para obtener los mejores resultados.

El Data Vault

 

El Data Vault es una metodología de modelado de datos diseñada para proporcionar una estructura flexible y escalable en entornos de data warehousing. Se caracteriza por su enfoque en la gestión de datos históricos, la trazabilidad y la capacidad para adaptarse a cambios en los requisitos empresariales. En un modelo de Data Vault, los datos se organizan en tres tipos principales de componentes:

 

Hubs: Representan entidades de negocio fundamentales y actúan como puntos centrales para conectar datos relacionados. Los hubs contienen claves de negocio y son la base para la integración y la trazabilidad de los datos.

 

Enlaces (Links): Establecen las relaciones entre los hubs y representan las asociaciones entre entidades de negocio. Los enlaces contienen claves foráneas que conectan dos o más hubs, permitiendo el modelado de relaciones complejas entre los datos.

 

Satélites: Almacenan atributos descriptivos adicionales relacionados con los hubs y enlaces. Los satélites contienen información detallada sobre los datos, como metadatos, fechas de validez y cualquier otra información contextual relevante.

 

El diseño en forma de Data Vault facilita la escalabilidad y la flexibilidad al permitir la incorporación de nuevos datos y cambios en los requisitos empresariales sin tener que modificar la estructura básica del modelo. Además, su enfoque en la trazabilidad y la gestión de datos históricos lo hace especialmente adecuado para entornos donde es crucial mantener un registro detallado de la evolución de los datos a lo largo del tiempo.

 

El ETL como cuello de botella

 

Cualquier enfoque queramos utilizar siempre nos toparemos con los problemas derivados de los procesos ETL.

 

Minimizar los procesos ETL (Extracción, Transformación y Carga) en datawarehousing puede ser beneficioso para reducir la complejidad y los costos asociados con la gestión de datos. Aquí hay algunas ideas para lograrlo:

 

Incrementar la integración en la fuente: En lugar de extraer datos de múltiples fuentes y luego transformarlos para la carga en el almacén de datos, se puede trabajar en integrar los datos en la misma fuente. Esto implica implementar estándares de integración de datos en las aplicaciones fuente para garantizar la coherencia y la calidad de los datos antes de que se extraigan.

 

Utilizar estructuras de datos flexibles: Emplear modelos de datos flexibles y dinámicos, como el Data Vault, que permiten agregar nuevas fuentes de datos con facilidad y minimizan la necesidad de transformaciones complejas durante el proceso ETL.

 

Automatizar la limpieza y transformación de datos: Utilizar herramientas de calidad de datos y transformación de datos para automatizar tareas como la limpieza, normalización y enriquecimiento de datos. Esto reduce la dependencia de procesos manuales y acelera el flujo de datos a través del proceso ETL.

 

Implementar cambios incrementales: En lugar de realizar extracciones completas de datos cada vez, implementar estrategias de extracción incremental (delta) o de cambio de datos (CDC) para identificar y cargar sólo los datos que han cambiado desde la última ejecución del proceso ETL. Esto reduce la cantidad de datos que se procesan y carga en cada ciclo de ETL.

 

Optimizar el rendimiento de las consultas: Diseñar modelos de datos eficientes y utilizar técnicas de indexación y particionamiento para optimizar el rendimiento de las consultas en el almacén de datos. Esto puede reducir la necesidad de realizar transformaciones complejas durante el proceso de carga.

 

Utilizar herramientas ETL de alto rendimiento: Emplear herramientas ETL de alto rendimiento y escalables que puedan manejar grandes volúmenes de datos de manera eficiente y procesar transformaciones complejas en paralelo para acelerar el proceso ETL.

 

La virtualización: no mover datos más bien consultarlos…

 

La virtualización de datos es una tecnología que puede desempeñar un papel significativo en la reducción o eliminación de los procesos ETL en data warehousing. Al aprovechar la virtualización de datos, las organizaciones pueden acceder y combinar datos de múltiples fuentes en tiempo real, sin necesidad de replicar o mover físicamente los datos a un almacén centralizado. Esto significa que los datos permanecen en su ubicación original y se integran de manera virtual en una capa de abstracción, lo que elimina la necesidad de realizar extracciones y transformaciones complejas.

 

La virtualización de datos permite a los usuarios acceder a los datos de manera transparente y unificada, independientemente de su ubicación física o formato subyacente. Esto significa que los procesos ETL tradicionales, que implican la extracción de datos de múltiples fuentes, su transformación y carga en un almacén de datos centralizado, pueden ser reemplazados por consultas virtuales que acceden y combinan los datos según sea necesario, en tiempo real.

 

Al eliminar la necesidad de replicar y mover grandes volúmenes de datos, la virtualización de datos reduce significativamente la complejidad y el costo asociado con los procesos ETL. Además, al permitir el acceso en tiempo real a los datos, la virtualización de datos puede mejorar la agilidad y la capacidad de respuesta de las organizaciones ante los cambios en los requisitos de negocio y las fuentes de datos. En resumen, la virtualización de datos ofrece una alternativa eficaz para minimizar o incluso eliminar los procesos ETL en datawarehousing, al tiempo que proporciona una integración de datos ágil y flexible.

 

Libro: 20 cosas que tienes que saber sobre Data Management

Si es verdad que el 75% de los activos de las empresas Standard & Poor ‘s no son físicos: ¿De qué estamos hablando? ¡De Datos! Qué sería de empresas como Booking, AirBNB, Facebook sin sus datos (y los nuestros) esto es motivo más que suficiente para entender la importancia del Data Management.

Hubo un tiempo en que dijimos a las empresas que tenían que mirar sus datos: nació el business intelligence. Hubo un tiempo en el que quisimos democratizar el uso de los datos y nació el data-driven. Pasado un tiempo, comprendimos que gracias a la virtualización y la nube no es necesario mover los datos y nació Data Virtualization. Algunos me dicen que en el fondo nada ha cambiado. Tenemos una tecnología impresionante, el cloud y el cómputo en la nube disparan el potencial de todo, pero también disparan la entropía.

No estamos en la “transformación digital”, no se trata de algo que llega y al que hay que adaptarse, se trata de hablar de “hábito de evolución digital”. Porque se trata de un proceso continuo no de algo puntual. Un proceso que necesita la Data Governance de la misma forma que necesita otros aspectos relacionados con los datos (Data Quality, Data Analyzing, Data Virtualization, etc.)

Estamos en la era de los Metadatos. Si es verdad que la Inteligencia de Negocio ha cristalizado la estrategia (pasando de “qué” hacer a “como” hacerlo), la Data Virtualization ha permitido liberar los datos de vínculos físicos; la Data Governance va a focalizar sus esfuerzos en los metadatos. Ya no importa la cantidad de datos que podamos tratar ni como lo tratamos. Necesitamos saber que estos datos nos dicen y quien decide que digan algo. Sin Data Governance no existe el Data Management, es la visión de DAMA y la comparto completamente.

Desde hace unos cuantos años me dedico a la gestión de datos, aunque existe un framework referente super importante como el DmBok 2 de DAMA que utilizo a diario, me pareció interesante desarrollar algo muy didáctico para todos aquellos que se acercan al mundo del Data Management. Podríamos decir que este libro es una especie de diccionario alargado para comprender mejor este mundo tan fascinante de los datos.

¡Ahora más que nunca el dato no es una opción es el negocio!

Hablaremos de: Data Literacy, Metadatos, Data Governance, Business Glossary, Data Dictionary, Data Catalog, ETL, ELT , Master Data, Data Lake, Data Warehouse,OLAP, ROLAP, MOLAP, DOLAP y HOLAP, Data Fabric, Data Mesh, Enfoque Declarativo vs Enfoque Procedural, Data Vault, Data Monetization, CDC, Data Virtualization y DmBoK2

Para comprar el libro : https://www.amazon.es/cosas-tienes-saber-sobre-Management/dp/8409483882libr

El enfoque declarativo en el Data Management y la ventaja de Irion EDM

de Michele Iurillo* y ChatGPT

Este artículo se ha escrito a 4 manos.. (si se puede decir) de un lado he usado ChatGPT con preguntas muy concretas, del otro he añadido elementos para complementar la información. Imaginarlo como un experimento sobre el argumento del momento y una forma de concretar más el enfoque declarativo en Data Management que es uno de los puntos fuertes de la tecnología de Irion EDM.

El enfoque declarativo se refiere a una forma de expresar un problema o una solución en términos de lo que se desea lograr, en lugar de cómo se desea lograrlo. En lugar de especificar los pasos detallados para resolver un problema, se especifica el resultado deseado.

En programación, el enfoque declarativo se utiliza para escribir código que especifica qué se desea lograr, en lugar de cómo se desea lograrlo. Por ejemplo, en lugar de escribir código que especifica cómo recorrer una lista de elementos y realizar una determinada acción en cada uno de ellos, se escribe código que especifica que se desea realizar esa acción en cada elemento de la lista. El lenguaje de programación se encarga de resolver cómo realizar esa acción.

El enfoque declarativo se utiliza en varios campos, como en bases de datos, en donde los lenguajes declarativos son aquellos que se centran en describir los resultados deseados en una consulta, en lugar de describir cómo se obtienen esos resultados. SQL es un ejemplo de un lenguaje declarativo utilizado en las bases de datos relacionales.

En resumen, enfoque declarativo es una forma de abordar un problema o una solución enfatizando en lo que se quiere lograr en lugar de cómo se quiere lograrlo, permitiendo al sistema o lenguaje de programación encargarse de las tareas de implementación.

Algunos ejemplos de lenguajes de programación declarativos son:

  1. SQL (Structured Query Language): Es un lenguaje declarativo utilizado para acceder y manipular bases de datos relacionales. En lugar de especificar cómo recuperar los datos, se especifica qué datos se desean recuperar mediante consultas.
  2. Prolog: Es un lenguaje de programación lógico declarativo utilizado en inteligencia artificial y programación de sistemas expertos. Permite al programador especificar reglas y hechos, y luego utilizar un motor de inferencia para obtener conclusiones.
  3. Haskell: Es un lenguaje de programación funcional declarativo utilizado para construir sistemas concurrentes y distribuidos. En lugar de especificar cómo se deben realizar las operaciones, se especifican las operaciones que se desean realizar y el lenguaje se encarga de resolver cómo realizarlas.
  4. XSLT: (Extensible Stylesheet Language Transformations) es un lenguaje declarativo utilizado para transformar documentos XML en otro formato, como HTML o PDF. El programador especifica cómo se deben transformar los datos, en lugar de cómo se deben recuperar.
  5. RDF: (Resource Description Framework) es un lenguaje declarativo utilizado para describir recursos y relaciones entre ellos. Es ampliamente utilizado en la web semántica y el enriquecimiento de metadatos.

Enfoque Procedural

El enfoque procedural se refiere a una forma de expresar un problema o una solución en términos de los pasos específicos que deben seguirse para lograr un resultado. En lugar de especificar el resultado deseado, se especifican los pasos detallados para resolver el problema.

En programación, el enfoque procedural se utiliza para escribir código que especifica cómo se deben realizar las tareas, en lugar de qué tareas se deben realizar. Por ejemplo, en lugar de escribir código que especifica que se desea realizar una determinada acción en cada elemento de una lista, se escribe código que especifica cómo recorrer la lista y realizar la acción en cada elemento.

Los lenguajes de programación procedurales son aquellos que siguen un enfoque de programación estructurada, en donde se divide el código en bloques lógicos y se organizan en funciones y procedimientos

Algunos ejemplos de lenguajes de programación procedurales son:

C: Es un lenguaje de programación de alto rendimiento y de bajo nivel, que es ampliamente utilizado para desarrollar sistemas operativos, dispositivos embebidos y aplicaciones de bajo nivel. Es un lenguaje de programación estructurado, con un enfoque en la programación procedural.

Pascal: Es un lenguaje de programación estructurado, desarrollado para la enseñanza de la programación en las universidades. Es ampliamente utilizado para desarrollar aplicaciones de escritorio, juegos y aplicaciones científicas.

Fortran: es un lenguaje de programación procedural desarrollado para cálculo científico y numérico, es utilizado en aplicaciones como simulación de sistemas, modelado de fluidos y análisis estadísticos.

Basic: es un lenguaje de programación procedural muy fácil de aprender para principiantes. Fue diseñado para enseñar a los estudiantes de programación básica

¿Por qué es mejor el enfoque declarativo en Data Management?

El enfoque declarativo en Data Management tiene varias ventajas sobre el enfoque procedural. Algunas de estas ventajas son:

  1. Mayor claridad: El enfoque declarativo permite especificar los resultados deseados de manera clara y concisa, lo que ayuda a reducir el riesgo de errores y aumenta la eficiencia en el manejo de datos.
  2. Mayor flexibilidad: Al especificar los resultados deseados en lugar de los pasos para lograrlos, el enfoque declarativo permite adaptarse fácilmente a cambios en los datos o en los requisitos del sistema.
  3. Mayor escalabilidad: Al permitir la separación entre la especificación de los resultados y su implementación, el enfoque declarativo permite escalar el sistema de manejo de datos sin tener que modificar el código.
  4. Mayor portabilidad: Al separar la especificación de los resultados de su implementación, el enfoque declarativo permite el uso de diferentes sistemas o tecnologías para implementar la especificación.
  5. Mayor eficiencia: Al permitir que el sistema se encargue de implementar la especificación, el enfoque declarativo permite obtener resultados más rápidamente y con menos recursos.

En resumen, el enfoque declarativo en Data Management ofrece una mayor claridad, flexibilidad, escalabilidad, portabilidad y eficiencia en la gestión de datos. Al permitir especificar los resultados deseados en lugar de los pasos para lograrlos, permite una mayor escalabilidad, flexibilidad y portabilidad.

DELT(™) ELT Declarativo

DELT es una de las tecnologías propietarias de Irion. El motor orquesta y sincroniza el plan de procesamiento y control de datos con algoritmos inteligentes, lo que permite a los profesionales de la gestión de datos -que utilizan la plataforma Irion EDM®- trabajar en un entorno autoadaptativo y basado en metadatos.

Las ventajas principales son:

  • El enfoque declarativo permite al motor DELT™ alcanzar altos niveles de rendimiento al maximizar el paralelismo de las fases de procesamiento.
  • La arquitectura DELT™ está diseñada para trabajar eficazmente con grandes volúmenes de datos mediante motores orientados a conjuntos.
  • El ingeniero de datos se encarga de los aspectos semánticos de las soluciones delegando en la plataforma la gestión automática de las estructuras de datos.
  • La integración de motores con tecnologías heterogéneas, como Query, Script, Rule, R, Python, Masking, Profiling, permite utilizar la herramienta más adecuada para cada situación.

Para info: http://irion-edm.com/es

ETL, CDC, ELT y DELT(TM)

Una de las cosas más fascinante que he encontrado dentro de IRION es sin duda el enfoque Declarativo. Es algo tan sencillo y tan potente. En años de Data Management siempre me he topado con problemáticas de gestión de datos. De procesos de extracción, de manos en la masa de datos, proyectos interminables, lentos, procesos de cargas sin fin, etc. 

 

Este artículo es fruto de mi afán de entender las cosas bien. Quería aclararme bien mi storytelling para la introducción de Irion en el mercado Español. Lo más bonito de mi trabajo es el aprendizaje que cada día los diferentes clientes y proyectos me aportan. Pero vamos con orden ¿que es un enfoque declarativo? Volviendo a mis antiguos apuntes de programación “Los programas se pueden clasificar por el paradigma del lenguaje que se use para producirlos. Los principales paradigmas son: imperativos, declarativos y orientación a objetos.” Sin ir mucho más lejos, SQL es declarativo, lanzar una query quiere decir quiero obtener un resultado concreto no me interesa saber de qué forma lo haces a nivel interno ya que los programas que usan un lenguaje declarativo especifican las propiedades que la salida debe conocer y no especifican cualquier detalle de implementación. El ejemplo más típico es el de la Paella, si voy a comer una a un restaurante simplemente pido “una paella”, no comunicó al camarero que quiero que se vayan sofriendo pollo y conejo con algo de ajo, aceite y romero, para luego poner las verduras, para luego poner el tomate el pimienton, todo ello con el caldo para luego verter el arroz… No somos expertos de cualquier cosa (aunque mi paella debido a los años de vida en Valencia no está nada mal por ser italiano) y cuando no llegamos a algo o no sabemos hacer algo delegamos en trabajo en alguien que sepa hacerlo mejor, más rápido y más bueno (sobre todo si de paella se trata).

 

Pero nosotros nos ocupamos de datos, muchos datos, estructurados, no estructurados en una gran cantidad de fuentes externas, de proveniencia histórica o reciente. Datos que tenemos que Gobernar y tener bien aseados a nivel de calidad. Datos que tenemos que rectificar, reconciliar, mantener historicizados. Datos que tenemos que “documentar” porque es el regulador que nos lo impone y de ellos tenemos que tener una trazabilidad total y el proceso tiene que ser repetible. Hasta ayer, hoy todo esto se nos hacía muy complejo, estos datos tenían que limpiarse, adaptarse, extraerse, copiarse, y por ello existen diferentes enfoques el más histórico y utilizado ha sido el ETL.

 

ETL Extract Transform Load

 

Ya hemos hablado largo y tendido de todas las problemáticas de los procesos ETL en otro artículo. Justo para introducir el tema, ETL son las siglas de Extract-Transform-Load. El término ETL describe el proceso de mover datos y hacer manipulaciones con ellos. Las herramientas ETL suelen tener funciones de conexión a múltiples plataformas de datos y aplican transformaciones a los datos en la memoria. Después, presumiblemente, el resultado se registra en algún lugar. Los algoritmos ETL también pueden escribirse en la mayoría de los lenguajes de programación modernos, pero muchas organizaciones consideran que esta opción es menos preferible debido a la sobrecarga que supone escribir el código desde cero y a la complejidad desconocida del soporte posterior. 

 

Llegó un momento en que nos dimos cuenta de era inutil repetir estos procesos de cargas, y las nuevas tecnologías y los nuevos enfoques nos han brindando el CDC (Change Data Capture)

 

CDC Change Data Capture

 

CDC es uno de los patrones ETL para copiar datos. Se utiliza para auditar cada cambio en un registro: ya sea que cambie alguno de los valores o que se elimine un registro. Antiguamente, este patrón se implementa con herramientas ETL comparando la última copia de los datos con el origen o comprobando la marca de tiempo de actualización del registro de origen. El rendimiento era pésimo y había una enorme posibilidad de perder algunas de las actualizaciones. Las herramientas de CDC han cambiado las cosas drásticamente, utilizan registros de transacciones para rastrear los cambios, por lo que ningún cambio pasa desapercibido, y ni siquiera afecta al rendimiento de la base de datos de origen. Hay dos métodos diferentes para detectar y recoger los cambios: el data el versionado, que evalúa las columnas que identifican las filas que han cambiado (por ejemplo, las columnas last-update- columnas de fecha y hora, columnas de número de versión, columnas de indicador de estado), o mediante lectura de registros que documentan los cambios y permiten replicarlos en sistemas secundarios. El CDC nos brindó muchas mejoras sobre todo en términos prestacionales, herramienta como Qlik ha hecho de CDC un mantra sobre todo cuando su producto ha querido salir del mundo OLAP. Pero… Llegó la nube y lo cambió todo, almacenamiento y cómputo de alta disponibilidad han creado un nuevo escenario. 

 

ELT Cargamos primero…

 

El enfoque ETL fue una vez necesario debido a los altos costos de la computación y el almacenamiento en las instalaciones. Con el rápido crecimiento de los almacenes de datos basados en la nube y la caída en picado de los costos de la computación y el almacenamiento basados en la nube, hay pocas razones para seguir haciendo la transformación antes de la carga en el destino final. De hecho, dar la vuelta a los dos permite a los analistas hacer un mejor trabajo de forma autónoma.

En pocas palabras ahora los analistas pueden cargar los datos antes de transformarlos, no tienen que determinar de antemano exactamente qué conocimientos quieren generar antes de decidir el esquema exacto que necesitan obtener y esta es una gran ventaja.

En su lugar, los datos de la fuente subyacente se replican directamente en un almacén de datos, que comprende una «única fuente de verdad». Los analistas pueden entonces realizar transformaciones en los datos según sea necesario. Los analistas siempre podrán volver a los datos originales y no sufrirán transformaciones que puedan haber comprometido la integridad de los datos. Esto hace que el proceso de inteligencia de negocio sea incomparablemente más flexible y seguro.

 

DELT(™)

 

Delt es una de las tecnologías propietarias de IRION. El motor orquesta y sincroniza el plan de procesamiento y control de datos con algoritmos inteligentes, lo que permite a los profesionales de la gestión de datos -que utilizan la plataforma Irion EDM®- trabajar en un entorno autoadaptativo y basado en metadatos.

Las ventajas principales son:

  • El enfoque declarativo permite al motor DELT™ alcanzar altos niveles de rendimiento al maximizar el paralelismo de las fases de procesamiento.
  • la arquitectura DELT™ está diseñada para trabajar eficazmente con grandes volúmenes de datos mediante motores orientados a conjuntos.
  • El ingeniero de datos se encarga de los aspectos semánticos de las soluciones delegando en la plataforma la gestión automática de las estructuras de datos.
  • la integración de motores con tecnologías heterogéneas, como Query, Script, Rule, R, Python, Masking, Profiling, permite utilizar la herramienta más adecuada para cada situación.

 

Un enfoque declarativo permite concentrarse en lo que se quiere obtener. Esto es lo que importa. 

 

 

 

Vivo en el futuro y esto es lo que hacemos con los datos. Horizonte 2030

Como acto central del Data Management Spain Summit 2018 en la UPV de Gandia he tenido el honor de participar en una mesa redonda con diferentes expertos del sector.

Aquí he querido resumir mi intervención. El moderador Esteban Rodrigo nos ha pedido una proyección y un esfuerzo en pensar de qué forma los datos van a influir en nuestras vidas en el futuro. Aquí he querido anotar algunos puntos de mi intervención ya que el moderador nos ha pedido tres argumentos.

Reconocimiento Semántico, Chatbots y Domótica

Quizás porque vivo solo, o quizá porque soy un fan de las nuevas tecnología desde algunos meses soy un feliz usuarios de “Google Home” este aparatito que te escucha y te contesta. De momento tiene muchas limitaciones pero el potencial de todo esto es brutal. Ya ni siquiera necesitamos teclear algo “Ok Google”, “Siri dime que”, “Alexa dónde está..” El potencial de estos instrumentos me hace entender que en el 2030 estaremos rodeados de aparatos que, como el genio de la lámpara, van a poder asistirnos en todo. Sobre todo la personas mayores van a poder aprovecharse de esta tecnología, la domótica puede por fin despegar, tu vivienda, tu coche, tu despacho pasa a ser algo activo. La velocidad de procesamiento y la facilidad de encontrar informaciones de forma muy rápida van a dibujar un futuro lleno de datos, de controles, de chatbots. Quizá podamos vivir más plenamente nuestro tiempo libre o quizá no tengamos más tiempo libre. Hablaba de todo ello la semana pasada con Andres “Chatbot” Pulgarin (https://www.linkedin.com/in/andrespulgarin/) verdadero experto en Chatbot que me comentaba que están en un proceso con un importante fabricante de aviones para que todo el mantenimiento de los aaparatos se haga con controles vocales en vez de manuales escritos. Será suficiente llamar y pedir “estoy en el avión modelo x del año ¿donde puedo encontrar el sistema de refrigeración?” y en décimas de segundo el chatbot indicará cuántos pasos se tienen que hacer para dirigirse en la zona, cuales paneles desmontar etc. y dejando al final de todo el proceso un log con lo que se ha pedido por parte de quien y en qué avión”. En el 2030 con el reconocimiento vocal semántico,  la potencia de procesamiento y la gran cantidad de informaciones disponibles las máquinas van a darnos respuestas incluso filosóficas basándose en Aristotele o Heidegger. Vamos a ser testigos de una nueva ontología del lenguaje cibernético. Las acciones siguen las palabras pero esta vez las palabras no serán de seres humanos.

2 – Virtualización de Datos Total

Aunque se ha intentado reglamentar en estos años el uso de los datos con regulaciones restrictivas, el Big Data permite analizar metadatos y comportamientos sin que esto afecte a la privacidad de las personas. La suma de grandes cantidades de datos nos va a permitir estudiar patrones. Las empresas en el futuro se intercambiarán datos “no sensibles” para poder crear valor añadido a esta información. Para todo ello la tecnología de punta va a ser la Virtualización de datos que va a permitir tratar los datos sin moverlos de sus fuentes. En el 2030 compras y alianzas de empresas se van a desarrollar en función de los datos que tienen en su posesión. Las relaciones y las informaciones van a ser más importantes de las transacciones. La análisis predictiva se alimenta de grandes cantidades de datos, ya hoy en día algunos sitios web entienden el embarazo de una mujer antes que ella misma lo sepa simplemente analizando sus compras.

3 – Inteligencia Artificial las máquinas nos escuchan

Chatbots, Sensores, IoT van a generar un montón de aparatos inteligentes, no serán sólo los ordenadores y los móviles, cualquier máquina va a poder interactuar con nosotros. Neveras, Microondas, las luces del comedor, el aire acondicionado, la calefacción, la regadera automáticas serán máquinas que escuchan a nosotros y al entorno y que actuarán de consecuencia. Usaremos lenguaje natural. Ya hoy mi reloj me ha dicho dos veces que tengo que moverme de aquí. Y aun no estamos en el 2030 cuando directamente la silla me levantará para obligarme a hacer mis entrenos de Triatlón aunque no tenga gana.

Tampoco voy a poder excusarme diciendo que llueve porque mi reloj sabe que no es cierto.

Business Intelligence: Presente y Futuro

En otro articúlo hablamos tendencias y recomendaciones de los expertos BI analizando diferente estudios y publicaciones sobre este fascinante argumento. Hoy me quiero centrar en los nuevos enfoques.

Se prevé que los ingresos globales en el mercado de inteligencia de negocios (BI) y analítica alcancen los USD 16.900 millones en 2016, un aumento del 5,4 por ciento a partir de 2016, según el último pronóstico de Gartner, Inc.

A medida que el análisis se ha vuelto cada vez más estratégico para la mayoría de las empresas y central para la mayoría de los roles empresariales, cada negocio es un negocio analítico, cada proceso empresarial es un proceso analítico y cada persona es un usuario analítico.

Cambio de enfoque: Procesos de BI no Proyectos

Ya no se habla de un proyecto de Business Intelligence sino de un proceso de Inteligencia de Negocio. Las empresas ya no pueden prescindir de estas herramientas para entender sus datos.

En otro articulo hablamos de como las empresas tienen que cambiar su “mentalidad” sobre los datos. Estos tienen que fluir y son un dominio de todos los departamentos y no solo de IT o de Gerencia. Una vez garantizada la seguridad de los datos sensibles (sobre todo a raiz de la nueva normativa GPRD) y una vez garantizado el acceso libre a datos departamentales va a ser posible traer un beneficio solido a la información. La figura del CIO está suplantando la del Director de Sistemas a la hora de decidir la governance de los datos y esta es una buena noticia. El tanto auspicado BI de Autoservicio se hace realidad.

En los últimos cinco años, ha habido un cambio hacia la creación de software de inteligencia empresarial que ofrece simplicidad y facilidad de uso para los miembros del personal en toda la empresa. En el proceso, un ejecutivo de datos, un gerente de ventas o el jefe de marketing puede comenzar a analizar los datos en minuto.

“Descubrimiento de datos” es el término usado para describir el acto de descubrir oportunidades que están ocultas en los datos contenidos en los sistemas empresariales de la empresa.

El descubrimiento de datos no trata sólo de informes, sino de seguir su línea de pensamiento a través de todos sus datos, incluidas las cuadrículas, las visualizaciones y los cuadros de mando.

Otro cambio en la inteligencia de negocios puede verse en la rápida disminución de los costos. Hoy en día el software de inteligencia de negocios es significativamente más barato y cada dia lo es más gracias a la combinación de Cloud + Saas (pago por uso). Hubo un periodo que la BI era algo muy técnico y tenia un nicho de mercado muy concreto. Hoy con la llegada de los grandes (en concreto PowerBI de Microsoft) y las nuevas tecnología que van más allá de los cubos OLAP algo distinto se mueve.

La integración de un paquete de inteligencia de negocios ya no requiere el uso de consultores caros y, a menudo, no se necesita hardware físico. Hoy en día el BI se ejecuta en la «nube». La virtualización y el Cloud han creado nuevas tecnologías como los llamados: LDW (Logical Datawarehouse), y esto lo cambia todo.

Para aquellos que trabajamos en proyectos de inteligencia de negocios desde 10-15 años, nos acostumbramos a proyectos complejos con tiempos de implementación largos. Hemos pasado por algunos fracasos debido a reporting sin sentidos con datos sin normalizar. Hoy el tiempo de implantación de una solución BI es de un par de semanas… Puede ser algo menos si la empresa sabe lo que quiere y si existe ya un DW consolidado.

Los analistas de Gartner afirman que hay una preocupación creciente con respecto a los beneficios de los informes de autoservicio (tiempo y eficiencia) en comparación con los informes basados en la tecnología de la información que tienen medidas de governance en vigor. Las empresas tendrán que asegurarse de que sopesan los beneficios de un fácil acceso a los datos en lugar de implementar una estructura de gobierno que proteja al negocio de fugas de datos o informes inexactos. Confiar de tu gente y permitirle que manejen informaciones sensibles es el primer paso para crecer como empresa y como profesionales sin olvidarse del GPRD

Inteligencia de Negocio Colaborativa

La colaboración a través de herramientas de inteligencia de negocios ha evolucionado mucho en los últimos años. Colaborar significa tener enfoques diferentes para diferentes personas. Para algunos, se trata de enviar informes por correo electrónico, agregar notas y anotaciones contra informes, para otros hacer disparar determinados procesos en el momento de no alcanzar algún indicador. (BI + BPM = Negociatica) Ahora todo se puede vincular fuertemente con los beneficios del negocio, ya que el personal no solo analiza los datos, sino que está utilizando los datos para aumentar el valor del negocio. La BI genera ventaja competitiva. La colaboración será mucho más prominente en los próximos años.

«Una organización colaborativa desbloquea el potencial, la capacidad y el conocimiento de cada empleado, generando así valor, innovación y mejorando la productividad en su lugar de trabajo.» – Deloitte Access Economics

Análisis Avanzados y Predictivos… en serio

Los análisis avanzados y predictivos permiten a una empresa utilizar datos pasados para predecir la probabilidad de acciones futuras por parte de los consumidores. Análisis avanzados y predictivos. Pueden ser utilizados para realizar un análisis de la cesta de la compra para la optimización de la venta al por menor o del beneficio (vender los productos correctos en el precio correcto a las personas correctas).

Articulo completo en Linkedin.

Business Intelligence: todas las respuestas a todas las preguntas

Targit05Hoy en día una empresa necesita información. Muchas veces esta información duerme en los ERP y en los demás sistemas informativos. Despertarla es sencillo y crucial, hay que crear un datawarehouse y dotarse de una herramienta de inteligencia de negocio para poder analizar la gran cantidad de datos que tenemos y que puede transformarse en una brújula en un mar en tempestad.

¿Qué tendencias se observan en las ventas?

Con un Software de Business Intelligence su empresa se actualiza constantemente con los datos más recientes. Todos sus colaboradores pueden, entre otras ventajas, tener acceso directo a la información acerca de las ventas y al margen de contribución que puede analizarse desde distintos ángulos, por ejemplo grupos de productos, segmentos de mercado y de clientes, campañas, etc. Si el software tiene una curva de aprendizaje rápida, en pocos minutos cualquier departamento puede crear sus informes descargando de trabajo al director de tecnología.

¿Cuánto tenemos en stock?

Targit01Un Software de Business Intelligence le permite encontrar respuesta a todas las preguntas cazando los datos escondidos en la gran variedad de sistemas de información de la empresa, independientemente, de las versiones y las plataformas. Por esto es tan importante tener un Datawarehouse y realizar Datamarts por departamentos y cubos olap genéricos y específicos.

¿Cómo podemos conseguir los precios de compra más bajos?

Se analizan las compras, las ventas y otros aspectos relevantes en la gestión de un establecimiento o de una cadena minorista, el detalle de la información los decides tu analizando los datos de cada empleado o el establecimiento de forma individual hasta llegar una visión general de todo el negocio. Puedes analizar la confirmación de las entregas, los porcentajes de error, los descuentos y la calidad de servicio, entre otros. Se pueden utilizar los análisis relevantes a la hora de negociar con los proveedores. Con una herramienta de Business Intelligence tu empresa va a tener mas informaciones sobre el producto de los mismos fabricantes.

Targit03¿Las ventas dependen de la temporada? ¿Cómo?

Todos los datos pueden analizarse desde diferentes perspectivas temporales de una forma simple y fácil, y los datos actuales se pueden comparar con los datos almacenados. Así es más sencillo satisfacer la creciente demanda en temporada alta y asegurarse de tener siempre los productos adecuados en stock. Un software de Business Intelligence nos permite de encontrar patrones escondido de comportamiento de las ventas.

¿Qué productos son más (o menos) rentables?

En cuestión de minutos puede crear análisis que muestren qué productos han generado, por ejemplo, el 80% de las ventas de la empresa o rankings que expongan, por ejemplo, 20 productos ordenados según el margen de contribución. Cualquier empresa debería conocer no solo la rentabilidad de la empresa sino de cada producto y sobre todo de cada cliente. Si es una empresa de comercio entran en juego las categorías de producto y los roles que estas van asumiendo dentro de la distribución espacial de la misma.

iphone-ipad-pc1¿Qué campañas de marketing han dado los mejores resultados?

Si hay que examinar los datos más exhaustivamente, es fácil para todos los usuarios

finales de un Software de Business Intelligence profundizar en la información relevante para obtener una imagen más detallada. Los colaboradores reciben una base sólida para la toma de decisiones y así pueden reaccionar rápidamente ante los cambios en el mercado.

¿Cómo podemos mejorar la colaboración con nuestros proveedores?

Un Software de Business Intelligence tiene que ser tan “user-friendly” que incluso los menos diestros en informática pueden sacar informaciones en el sistema. Esto permite implementarlo en toda la organización, desde la oficina central hasta los establecimientos e incluso para los partners de negocio y los proveedores externos. Con ello, un Software de Business Intelligence mejora la comunicación y la colaboración tanto a nivel interno como externo.

Si tu empresa necesita mirar las cosas de forma diferente… Llamanos 664.85.09.74

Nuevo #Webinar de #Targit Decision Suite #Dynamics #NAV #AX #BI #SQLServer el 21 de Enero

Licensing-Guide-headerLos datos externos están ganando importancia entre los distintos sectores industriales y departamentos. Por ejemplo, en la última encuesta sobre el uso de datos en el marketing realizada por Gartner, uno de los temas más importantes fue que el 42% de los datos utilizados en el marketing proceden de fuentes externas. Y el marketing no es el único que sigue esta corriente. El poder de emplear datos externos y descubrir nuevas visiones es más relevante ahora que nunca.

Únete a  Targit el 21 de enero de 3 pm a 4 pm CET y experimenta cómo sacar el máximo partido de tus datos, no solo analizando figuras internas, sino uniendo datos desde distintas fuentes – externas o internas – y descubre cómo llevar tu negocio a otro nivel. Inscribete de forma gratuita aqui.

TARGIT_ICON_Webinars_2

Targit permite a todos los usuarios de poder crear directamente sus informes de forma rápida y sencilla. Clientes como Grupo Milar, Sinersis lo pueden avalar aquí en España. También empresas del calibre de Mercedes, Giant Bicycle, Pizza Hut, Vodafone utilizan nuestra suite para sacarle partido a las grandes informaciones procedentes de sus Datawarehouse SQL.

TARGIT_ELEMENT_Circle_Courage_CMYKSeguramente hay mas de un caso de éxito a nivel mundial que pueda haceros entender porque probar Targit.. De momento os recomiendo este http://www.Targit.com/es/solutions/customer-cases/customer-case-listing/milar

También es posible descargar la versión de prueba de 30 días y conectarla en pocos minutos a sus cubos de Analisys Services. http://www.Targit.com/es/software/try-Targit/trial-download

Mas info sobre Targit aqui

Join us for a Webinar on Jan 21
Space is limited.
Reserve your Webinar seat now at: http://bit.ly/181GSKo

Targit Decisión Suite 2014: apuesta por el Big Data y Microsoft Dynamics

Targit00Targit Business Intelligence y Analytics anunció el lanzamiento de su recientemente mejorada Decisión Suite 2014. Con seis áreas distintas de la funcionalidad mejorada y nuevas capacidades, este producto insignia de la compañía Targit gana una vez más el mérito de lo que BARC ha nombrado el número uno en el mundo por su innovación.

Siempre ha sido nuestro objetivo traer una visión aplicable a toda la organización para capacitar a las empresas en tomar mejores decisiones de negocio lo más rápido posible“, dice el CEO de Targit Morten Sandlykke. “Esa es nuestra filosofía de empresa y lo hemos conseguido una vez más con la actualización Decisión suite de este año 2014. En Targit, nunca nos detenemos en nuestros esfuerzos para seguir nuestros avances tecnológicos

Las nuevas características incluyen:

Targit06Nuevas herramientas de descubrimiento de datos: investigaciones muestran que sólo el 10 por ciento de los datos en el almacén de datos es utilizada por la mayoría de las empresas. Con el Nuevo asistente Inteligente y la nueva aplicación Estadística, Targit ayuda a poner un filtro en lo que es relevante. El wizard presenta datos basados ​​en su popularidad tanto por el usuario específico y todos los demás usuarios del sistema de seguimiento automático de todo el uso de mejorando la performance en los datos más relevantes en busqueda. Otras opciones de clasificación incluyen la búsqueda por Contexto, Relevancia, y la búsqueda alfabética. Para el gerente de almacén de datos, la nueva aplicación de Estadísticas Targit recoge estadísticas de consumo del usuario para una mejor gestión de Datawarehouse.

Big Data

Targit07Nuevas conexiones Big Data: Nuevas conexiones nativas de conocidos y de confianza plataformas de datos grandes. Conecte directamente a Microsoft Analytics System Plataform (anteriormente Microsoft SQL Server Parallel Data Warehouse), Google BigQuery, Hortonworks (HDP), Cloudera (CDH), HDInsight, MongoDB, EXASOL o SAS.

Fácil “mashup” de datos de diferentes fuentes tanto internas como externas. -Construidas Pre plug-ins incluyen Microsoft CSV, Azure Data Market, Directorio, Excel, OData, ODBC y Quandl, diseñada para ser la manera más fácil de combinar fuentes de datos en un solo análisis o informe sin conocimientos de desarrollador necesarios.

Medidores personalizados: El nuevo Constructor Gauge permite a los usuarios crear sus propios indicadores, la personalización de su experiencia y la forma en que quieren ver sus datos mostrados.

Nuevo objeto de visualización: Targit está allanando el camino para muchas nuevas visualizaciones. Con el lanzamiento de 2014 se ofrece un gráfico de bala, añadiendo al catálogo de opciones tales como gráficos de barras, mapas, gráficos de burbujas, y más.

Nuevo Targit en cualquier lugar: Nuevo cliente “en el dispositivo” que ofrece cuadros de mando y los guiones gráficos de manera más amplia en toda la organización en los dispositivos móviles, equipo de la tienda, y cualquier otro dispositivo con un navegador de Internet. El client es compatible con una amplia distribución de la analítica para toda la organización.

La próxima generación de Business Intelligence está aquí con la Decisión suite 2014“, dice Targit CTO Morten Middelfart. “Análisis y soluciones de descubrimiento de datos están en constante evolución. En Targit, nos aseguramos de que estamos evolucionando más rápido con las visualizaciones personalizadas, herramientas de descubrimiento de datos más intuitivos y capacidades Big Data.”

“Sin olvidare del mundo Dynamics y con una apuesta muy clara y fuerte para el Big Data, Targit confirma de ser empresa líder en nuestro sector” ha declarado Michele Iurillo Ceo de Synergo! Partner de Targit en España. “Nuestros clientes notan como la suite va en la dirección correcta, y todo es cada vez más rápido en cada reléase”.

TARGIT_ELEMENT_Circle_Courage_CMYKAcerca de Targit

Targit, http://www.Targit.com, es el fabricante de la solución más intuitiva del mercado de Business Intelligence y Analytics para todos los usuarios de la empresa, la Decisión Targit Suite. Con más de 18 años de experiencia en el segmento de Business Intelligence y Analytics y más de 300.000 usuarios a nivel mundial, Targit se ha considerado siempre como un gran jugador en la industria de Gartner y BARC. La compañía es un Microsoft Gold Certified Partner, reconocida por el desarrollo de aplicaciones fuertes. La Decisión Targit Suite es la única plataforma de BI y análisis que ofrece cuadros de mando en tiempo real, análisis de auto-servicio, la presentación de informes de fácil uso, las capacidades móviles impresionantes, y la tecnología de descubrimiento de datos más simple del mercado en una solución única y cohesionada. Targit ofrece a las empresas el valor de actuar.

Para obtener más información acerca de lo que Targit puede hacer para su negocio o para saber cómo llegar a ser un socio, por favor visite http://www.Targit.com.

Sobre Synergo!

(http://www.synergo.es) Es una empresa “des-estructurada” de consultoría integral. Todos los facilitadores de Synergo! trabajan en red y cada perfil suma conocimiento a los proyectos transversales que son necesarios en las empresas y en los colectivos empresariales. Las diferentes áreas de Synergo! son: inteligencia de negocio, estrategia, formación en habilidades directivas y liderazgo, gestión de procesos BPM, logística, marketing, imagen y arquitectura corporativa, comunicación y social media. Eliminando los costes de estructura la propuesta de valor puede estar al alcance de empresas de cualquier tamaño, la experiencia es en entorno multinacionales y la eficacia son parte del ADN de Synergo! cerca de Synergo!

Targit BI Suite te proporciona un instrumento de uso fácil que te ayuda monitorizar y optimizar todos tus indicadores de prestación.

La Suite visualiza tus datos en cuadros, gráficos y medidores dinámicos – en el menor número de clics.

Targit BI Suite permite crear análisis e informes a todos en tu organización. El instrumento estándar de BI suministra una interfaz unida e intuitiva con la que todos pueden obtener la información específica que necesitan, independientemente del rol organizacional.

Quiero que me hagan una demo personalizada de Targit

TARGIT_ICON_News_2 TARGIT_ICON_Trial_Demo_2 TARGIT_ICON_Tv_2 TARGIT_ICON_Webinars_2

LogoTargit

Targit BI Decision Suite
Targit01
Targit02
Targit03
Targit04
Targit05
Targit06
Targit07
Targit08
Targit09
Targit10
Targit11

Nuevo Webinar de Synergo! y Targit! sobre BI en entorno #Dynamics #NAV #AX #BI #SQLServer el 10 de Julio

iphone-ipad-pc1Targit es unas de las soluciones que mejor se integra al mundo Dynamics. Quizá usted tenga ya otra solución de Business Intelligence o quizá su empresa se encuentra en búsqueda activa de solucionar las demanda de información que los diferentes departamentos.
El día 10 de Julio tenemos un interesante Webinar gratuito sobre la suite Targit aqui el link: http://bit.ly/1iUEVUk

Targit permite a todos los usuarios de poder crear directamente sus informes de forma rápida y sencilla. Clientes como Grupo Milar, Sinersis lo pueden avalar aquí en España. También empresas del calibre de Mercedes, Giant Bicycle, Pizza Hut, Vodafone utilizan nuestra suite para sacarle partido a las grandes informaciones procedentes de sus Datawarehouse SQL.

TARGIT_ELEMENT_Circle_Courage_CMYKSeguramente hay mas de un caso de éxito a nivel mundial que pueda haceros entender porque probar Targit.. De momento os recomiendo este http://www.Targit.com/es/solutions/customer-cases/customer-case-listing/milar

También es posible descargar la versión de prueba de 30 días y conectarla en pocos minutos a sus cubos de Analisys Services. http://www.Targit.com/es/software/try-Targit/trial-download

Mas info sobre Targit aqui

Join us for a Webinar on July 10
Space is limited.
Reserve your Webinar seat now at:
http://bit.ly/1iUEVUk