Todas las entradas de: micheleiurillo

Data Fabric: Soluciones convergentes para evitar un mosaico de herramientas complejas

Según Gartner, el Data Fabric es una arquitectura y un conjunto de servicios de datos que proporciona una funcionalidad consistente en una variedad de entornos, desde los locales hasta la nube. Data fabric simplifica e integra la gestión de datos en las instalaciones y en la nube, acelerando la transformación digital. ¿Cómo vamos a convencer a las empresas de que los datos son absolutamente transversales? ¿Cómo podemos realizar una valoración sólida de los datos? ¿Puede el data fabric ayudarnos en esto? ¿Podemos someter los silos de datos?

Gartner define el data fabric como un concepto de diseño que sirve como capa integrada (tejido) de datos y procesos de conexión. Una estructura de datos utiliza el análisis continuo de los activos de metadatos existentes para apoyar el diseño, el despliegue y el uso de datos integrados y reutilizables en todos los entornos, y es una necesidad para las organizaciones impulsadas por los datos: «El enfoque de la estructura de datos puede mejorar los patrones tradicionales de gestión de datos y sustituirlos por un enfoque más receptivo. Ofrece a los gestores de D&A la posibilidad de reducir la variedad de plataformas de gestión de datos integradas y ofrecer flujos de datos interempresariales y oportunidades de integración«.

Por eso es necesario un enfoque «todo en uno», es decir, una plataforma que pueda operar en toda la cadena de datos, desde la ingesta de datos hasta su explotación y visualización.

Un enfoque totalmente virtual (un sistema LDW basado en consultas) tiene la limitación de no poder materializar todos los procesos y, sobre todo, no permite una auditoría completa a lo largo del tiempo y en entornos muy regulados, como la banca y los seguros. El almacén de datos lógicos es un enfoque que puede resolver algún requisito específico, pero no tiene cabida en los procesos estructurados. El regulador no sólo puede preguntarnos cómo se realiza un determinado proceso de extracción y su linaje, también puede querer ver la réplica de un determinado proceso en una fecha concreta para ver todas las transformaciones y todos los procesos que han intervenido.

En contra de las herramientas Patchwork

Normalmente, cuando nos acercamos a una empresa para cualquier tipo de proyecto de datos, nos encontramos con un escenario típicamente fragmentado. Las empresas suelen incorporar herramientas según una lógica más bien comercial del momento histórico de la empresa. Así que es normal encontrar un mosaico de muchas herramientas diferentes: Tendremos fuentes de datos, diferentes almacenes de datos de distintos proveedores, motores analíticos, motores de reporting, cubos OLAP, etc. En el mejor de los casos, pueden proceder del mismo proveedor, pero aún así hay que resolver algunos problemas. ¿Cómo hacemos la automatización del flujo de trabajo? ¿Cómo gestionamos los metadatos? ¿Cómo documentamos los procesos? ¿Qué pasa con la responsabilidad? ¿Cómo respondemos al regulador? Es entonces cuando nos preguntamos a nivel de arquitectura que quizá deberíamos haber hecho de otra manera.

Un enfoque de gestión de datos empresariales (EDM), en el que todos los activos de datos se concentran en una única plataforma, sería la solución óptima. Además, según DAMA, la eliminación de los silos y la plena responsabilidad deberían estar en el centro de cualquier proyecto de datos. ¿Puede el concepto de Data Fabric ser una solución? Según Gartner, los data fabrics reducen el tiempo de diseño de la integración en un 30%, el despliegue en un 30% y el mantenimiento en un 70%, ya que los diseños tecnológicos se basan en la capacidad de utilizar/reutilizar y combinar diferentes estilos de integración de datos. Además, los data fabrics pueden aprovechar las habilidades y tecnologías existentes de los data hubs, data lakes y data warehouses, al tiempo que introducen nuevos enfoques y herramientas para el futuro. En este sentido, aunque un buen enfoque es disponer de una plataforma «todo en uno» con plenas capacidades de interoperabilidad, la implantación de un data fabric no requiere ninguna de las inversiones tecnológicas del cliente.

Articulo completo: https://www.linkedin.com/pulse/data-fabric-soluciones-convergentes-para-evitar-un-mosaico-iurillo/

Articulo original en ingles en DataVersity: https://www.dataversity.net/data-fabric-convergent-solutions-to-avoid-complex-tools-patchwork/

La arquitectura de Datos según DAMA

Según DAMA, el objetivo de la Arquitectura de Datos es ser un puente entre la estrategia comercial y la ejecución de la tecnología, porque la  Arquitectura de Datos es más valiosa cuando apoya completamente las necesidades de toda la empresa.

La arquitectura se refiere a una disposición organizada de elementos componentes destinados a optimizar la función, el rendimiento, la viabilidad, el coste y la estética de una estructura o sistema global. Dentro del mundo de los datos mas específicamente, hablamos de arquitectura, cuando, tenemos que lidiar, gestionar, mitigar toda la complejidad de la información.

El término arquitectura se ha adoptado para describir varias facetas del diseño de los sistemas de información. ISO/IEC 42010:2007 Ingeniería de Sistemas y Software – Descripción de la Arquitectura (2011) define la arquitectura como «la organización fundamental de un sistemaencarnado en sus componentes, sus relaciones entre sí y con el medio ambiente, y los principios que rigen su diseño y evolución«.

Multidominio de la Arquitectura

La práctica de la arquitectura se lleva a cabo en diferentes niveles dentro de una organización (empresa, dominio, proyecto, etc.) y con diferentes áreas de enfoque (infraestructura, aplicación y datos).

La disciplina de la Arquitectura Empresarial abarca arquitecturas de dominio, incluyendo negocios, datos, aplicaciones y tecnología. Las prácticas de arquitectura empresarial bien gestionadas ayudan a las organizaciones a comprender el estado actual de sus sistemas, promover el cambio deseable hacia el estado futuro, permitir el cumplimiento de la normativa y mejorar la eficacia. DAMA y el DmBok2 entiende la arquitectura de la información desde las siguentes perspectivas:

Los “Outcomes” de la Arquitectura de Datos, tales como los modelos, definiciones y flujos de datos en varios niveles, usualmente referidos como artefactos de la Arquitectura de Datos

Actividades de la Arquitectura de Datos, para formar, desplegar y cumplir las intenciones de la Arquitectura de Datos

La ontologia de la Arquitectura de Datos y su impacto en la organización, como colaboraciones, mentalidades y habilidades entre los diversos roles que afectan a la Arquitectura de Datos de la empresa

Debido a que la mayoría de las organizaciones tienen más datos de los que las personas individuales pueden comprender, es necesario representar los datos de la organización en diferentes niveles de abstracción para que puedan ser comprendidos y la administración pueda tomar decisiones al respecto

Los artefactos de la arquitectura de datos

Los artefactos de la Arquitectura de Datos incluyen especificaciones utilizadas para describir el estado existente, definir los requisitos de datos, guiar la integración de los datos y controlar los activos de datos tal como se presentan en la estrategia de datos (que se supone alguien ya ha diseñado). La Arquitectura de Datos de una organización se describe mediante las normas que rigen la forma en que se recogen, almacenan, organizan, utilizan y eliminan los datos.

Si el primer punto de cualquier estrategia de datos es entender cuales son los activos actuales de la organización desde la perspectiva del negocio, el segundo punto será entender como nos organizamos, el tercer punto sin duda es el conocimiento de  arquitectura técnica (ya no desde la perspectiva de negocio) en su diseño y a partir de una gestión pro-activa de los metadatos.

DAMA recomienda redactar un documento de diseño de la Arquitectura de Datos. Es un modelo formal de datos de la empresa, que contiene nombres de datos, definiciones completas de datos y metadatos, entidades y relaciones conceptuales y lógicas, y reglas de negocio. Se incluyen modelos de datos físicos, pero como producto del modelado y diseño de datos, en lugar de la Arquitectura de Datos.

Los artefactos que crean los arquitectos constituyen valiosos metadatos.  Lo ideal sería que los artefactos arquitectónicos se almacenaran y gestionaran en un repositorio de artefactos de arquitectura empresarial.

Las organizaciones con visión de futuro deberían incluir a profesionales de la gestión de datos (por ejemplo, los arquitectos de datos empresariales o los administradores de datos estratégicos) cuando diseñen nuevas ofertas de mercado, porque hoy en día éstas suelen incluir hardware, software y servicios que capturan datos, dependen del acceso a los datos, o ambos.

Desde mi perspectiva,  un proceso de gestion de producto siempre necesita el enfoque multiple que solo un equipo multidisciplinario puede facilitar. Una especie de “Comunidad del Anillo” acostumbrada a trabajar en equipo sin dispersion, sin recelos y sin silos de información estancos que son el freno del conocimiento empresarial.

Según el DMBok2, el objetivo de la Arquitectura de Datos es ser un puente entre la estrategia comercial y la ejecución de la tecnología. Como parte de la Arquitectura Empresarial, los Arquitectos de Datos:

  • Preparar estratégicamente a las organizaciones para hacer evolucionar rápidamente sus productos, servicios y datos a fin de aprovechar las oportunidades comerciales inherentes a las tecnologías emergentes
  • Traducir las necesidades comerciales en requisitos de datos y sistemas para que los procesos tienen sistemáticamente los datos que requieren
  • Gestionar la entrega de datos e información compleja en toda la empresa Facilitar la alineación entre el negocio y la TI
  • Actuar como agentes de cambio, transformación y agilidad

Estos impulsores de negocios deberían influir en las medidas del valor de la Arquitectura de Datos.

Los arquitectos de datos crean y mantienen el conocimiento organizacional sobre los datos y los sistemas a través de los cuales se mueven. Este conocimiento permite a una organización gestionar sus datos como un activo y aumentar el valor que obtiene de sus datos mediante la identificación de oportunidades para el uso de los datos, la reducción de costos y la mitigación de riesgos.

El articulo completo aquí.

Las mesas redondas del #DMS2021

A estas alturas del año es el momento de empezar a pensar en el http://datamanagementsummit.org de este año. Uno de los momentos mas interesante es sin duda cuando los expertos se sientan alrededor de «un argumento» estas son las mesas redonda que he pensado para la edición española que se hará el 20-21 de Octubre y la Italiana que se realizará el 23-24 de Noviembre.

 

Gobierno de datos, gestión del cambio y mentalidad ágil para alcanzar los objetivos de Quick Wins

Si seguimos el enfoque DAMA-I y su marco de referencia DmBok2, el Gobierno de Datos es el núcleo de la Gestión de Datos. La implementación de un proceso de Gobierno de Datos requiere una importante gestión del cambio. ¿Cuántas herramientas pueden ser útiles para crear una mentalidad ágil en las empresas? Si es cierto que la elección de la herramienta para el gobierno de datos es el último paso, ¿cómo motivar a los equipos y fomentar los QuickWins que pueden ayudar a la implementación?

 

Data Intelligence y Green Data: la nueva moda en la gestión de datos

La inteligencia de datos es la combinación de: Analítica avanzada, reconocimiento de imágenes, realidad aumentada, inteligencia artificial, aprendizaje automático, aprendizaje profundo, VMI y PIM. Green data es el diseño y gestión de la fase de crecimiento de los datos como si se tratara de un vegetal, desde la siembra y la plantación hasta la recogida de sus frutos.

 

Data Fabric una forma fácil de llegar a la Valuación de Datos

Según Gartner, Data Fabric es una arquitectura y un conjunto de servicios de datos que proporciona una funcionalidad coherente en diversos entornos, desde los locales hasta la nube. Data Fabric simplifica e integra la gestión de datos en las instalaciones y en la nube acelerando la transformación digital. ¿Cómo vamos a convencer a las empresas de que los datos son absolutamente transversales? ¿Cómo podemos realizar una sólida valoración de los datos? ¿Puede Data Fabric ayudarnos en esto?

 

Analítica avanzada: No más ETL, no más almacenes de datos para el nuevo esfuerzo de conocimiento en tiempo real

La analítica ha cambiado, las empresas no la utilizan mirando al pasado, sino mirando al futuro. La cultura del análisis ha matado definitivamente al reporting. La toma de decisiones necesita los datos de hoy y de mañana. ETL, ELT, ET(L), Virtualización de Datos y sobre todo DataLake y la Nube han cambiado la arquitectura de las empresas.

 

ETL, CDC, ELT y DELT(TM)

Una de las cosas más fascinante que he encontrado dentro de IRION es sin duda el enfoque Declarativo. Es algo tan sencillo y tan potente. En años de Data Management siempre me he topado con problemáticas de gestión de datos. De procesos de extracción, de manos en la masa de datos, proyectos interminables, lentos, procesos de cargas sin fin, etc. 

 

Este artículo es fruto de mi afán de entender las cosas bien. Quería aclararme bien mi storytelling para la introducción de Irion en el mercado Español. Lo más bonito de mi trabajo es el aprendizaje que cada día los diferentes clientes y proyectos me aportan. Pero vamos con orden ¿que es un enfoque declarativo? Volviendo a mis antiguos apuntes de programación “Los programas se pueden clasificar por el paradigma del lenguaje que se use para producirlos. Los principales paradigmas son: imperativos, declarativos y orientación a objetos.” Sin ir mucho más lejos, SQL es declarativo, lanzar una query quiere decir quiero obtener un resultado concreto no me interesa saber de qué forma lo haces a nivel interno ya que los programas que usan un lenguaje declarativo especifican las propiedades que la salida debe conocer y no especifican cualquier detalle de implementación. El ejemplo más típico es el de la Paella, si voy a comer una a un restaurante simplemente pido “una paella”, no comunicó al camarero que quiero que se vayan sofriendo pollo y conejo con algo de ajo, aceite y romero, para luego poner las verduras, para luego poner el tomate el pimienton, todo ello con el caldo para luego verter el arroz… No somos expertos de cualquier cosa (aunque mi paella debido a los años de vida en Valencia no está nada mal por ser italiano) y cuando no llegamos a algo o no sabemos hacer algo delegamos en trabajo en alguien que sepa hacerlo mejor, más rápido y más bueno (sobre todo si de paella se trata).

 

Pero nosotros nos ocupamos de datos, muchos datos, estructurados, no estructurados en una gran cantidad de fuentes externas, de proveniencia histórica o reciente. Datos que tenemos que Gobernar y tener bien aseados a nivel de calidad. Datos que tenemos que rectificar, reconciliar, mantener historicizados. Datos que tenemos que “documentar” porque es el regulador que nos lo impone y de ellos tenemos que tener una trazabilidad total y el proceso tiene que ser repetible. Hasta ayer, hoy todo esto se nos hacía muy complejo, estos datos tenían que limpiarse, adaptarse, extraerse, copiarse, y por ello existen diferentes enfoques el más histórico y utilizado ha sido el ETL.

 

ETL Extract Transform Load

 

Ya hemos hablado largo y tendido de todas las problemáticas de los procesos ETL en otro artículo. Justo para introducir el tema, ETL son las siglas de Extract-Transform-Load. El término ETL describe el proceso de mover datos y hacer manipulaciones con ellos. Las herramientas ETL suelen tener funciones de conexión a múltiples plataformas de datos y aplican transformaciones a los datos en la memoria. Después, presumiblemente, el resultado se registra en algún lugar. Los algoritmos ETL también pueden escribirse en la mayoría de los lenguajes de programación modernos, pero muchas organizaciones consideran que esta opción es menos preferible debido a la sobrecarga que supone escribir el código desde cero y a la complejidad desconocida del soporte posterior. 

 

Llegó un momento en que nos dimos cuenta de era inutil repetir estos procesos de cargas, y las nuevas tecnologías y los nuevos enfoques nos han brindando el CDC (Change Data Capture)

 

CDC Change Data Capture

 

CDC es uno de los patrones ETL para copiar datos. Se utiliza para auditar cada cambio en un registro: ya sea que cambie alguno de los valores o que se elimine un registro. Antiguamente, este patrón se implementa con herramientas ETL comparando la última copia de los datos con el origen o comprobando la marca de tiempo de actualización del registro de origen. El rendimiento era pésimo y había una enorme posibilidad de perder algunas de las actualizaciones. Las herramientas de CDC han cambiado las cosas drásticamente, utilizan registros de transacciones para rastrear los cambios, por lo que ningún cambio pasa desapercibido, y ni siquiera afecta al rendimiento de la base de datos de origen. Hay dos métodos diferentes para detectar y recoger los cambios: el data el versionado, que evalúa las columnas que identifican las filas que han cambiado (por ejemplo, las columnas last-update- columnas de fecha y hora, columnas de número de versión, columnas de indicador de estado), o mediante lectura de registros que documentan los cambios y permiten replicarlos en sistemas secundarios. El CDC nos brindó muchas mejoras sobre todo en términos prestacionales, herramienta como Qlik ha hecho de CDC un mantra sobre todo cuando su producto ha querido salir del mundo OLAP. Pero… Llegó la nube y lo cambió todo, almacenamiento y cómputo de alta disponibilidad han creado un nuevo escenario. 

 

ELT Cargamos primero…

 

El enfoque ETL fue una vez necesario debido a los altos costos de la computación y el almacenamiento en las instalaciones. Con el rápido crecimiento de los almacenes de datos basados en la nube y la caída en picado de los costos de la computación y el almacenamiento basados en la nube, hay pocas razones para seguir haciendo la transformación antes de la carga en el destino final. De hecho, dar la vuelta a los dos permite a los analistas hacer un mejor trabajo de forma autónoma.

En pocas palabras ahora los analistas pueden cargar los datos antes de transformarlos, no tienen que determinar de antemano exactamente qué conocimientos quieren generar antes de decidir el esquema exacto que necesitan obtener y esta es una gran ventaja.

En su lugar, los datos de la fuente subyacente se replican directamente en un almacén de datos, que comprende una «única fuente de verdad». Los analistas pueden entonces realizar transformaciones en los datos según sea necesario. Los analistas siempre podrán volver a los datos originales y no sufrirán transformaciones que puedan haber comprometido la integridad de los datos. Esto hace que el proceso de inteligencia de negocio sea incomparablemente más flexible y seguro.

 

DELT(™)

 

Delt es una de las tecnologías propietarias de IRION. El motor orquesta y sincroniza el plan de procesamiento y control de datos con algoritmos inteligentes, lo que permite a los profesionales de la gestión de datos -que utilizan la plataforma Irion EDM®- trabajar en un entorno autoadaptativo y basado en metadatos.

Las ventajas principales son:

  • El enfoque declarativo permite al motor DELT™ alcanzar altos niveles de rendimiento al maximizar el paralelismo de las fases de procesamiento.
  • la arquitectura DELT™ está diseñada para trabajar eficazmente con grandes volúmenes de datos mediante motores orientados a conjuntos.
  • El ingeniero de datos se encarga de los aspectos semánticos de las soluciones delegando en la plataforma la gestión automática de las estructuras de datos.
  • la integración de motores con tecnologías heterogéneas, como Query, Script, Rule, R, Python, Masking, Profiling, permite utilizar la herramienta más adecuada para cada situación.

 

Un enfoque declarativo permite concentrarse en lo que se quiere obtener. Esto es lo que importa. 

 

 

 

Nueva etapa profesional…

Hoy inicia una nueva aventura, se abre una nueva etapa profesional en Irion. En particular quiero agradecer Giovanni ScavinoAlberto Scavino por la confianza y Egle Romagnolli por el soporte. Me uno a un equipo de alto nivel con 150 profesionales del #DataManagement
#Irion #EDM es una plataforma abierta, escalable y eficiente basada en el innovador y disruptivo paradigma «declarativo» para implementar y gestionar las fases de un proceso de #DataManagement. Proporciona toda la funcionalidad necesaria de principio a fin en una arquitectura modular preparada para #DataFabric. Irion EDM está totalmente orientado a los #metadatos gracias a su enfoque declarativo, puede delegar la ejecución de todos los procesos. Basado en #SQL es intuitivo fácil de configurar, incluso para no técnicos.

Irion apre il mercato in Spagna grazie a Michele Iurillo

Data Management Summit International un viaje inesperado

Parafrasando el Hobbit queria escribir unas lineas para agradecer diferentes personas y empresas y daros algunas pistas mas sobre el Data Management Internacional

La idea de hacer un evento internacional surgió directamente de los patrocinadores del evento del año pasado. Veníamos de una decisión de transformar el evento presencial en online por el tema de la pandemia de covid 19 y lo que paso fue que el evento creció mucho llegado a niveles inesperados en termino de patrocinador.

Si bien el DMS es una evento consolidado en España e Italia hacer una edición internacional podía ser una apuesta desacertada. Así no fue y la cosa que mas nos ha sorprendido es la cantidad y la calidad de los profesionales que se han apuntado al evento internacional sin conocer la agenda, los protagonistas y la formula.

Al dia de hoy tenemos 200 inscritos provenientes de 13 países diferente y una lista de espera que crece cada dia mas sobre todo porque estamos anunciado los protagonistas que va a ser parte activa en el evento.

Tengo que agracer el entusiasmo y el apoyo por parte de DAMA International y le debo mucho a Loretta Mahon Smith que por prima me brindó la oportunidad de reconocer el evento como algo importante por la comunidad de DAMA a nivel mundial.

Como mucho de vosotros saben yo he apostado ya desde unos años en el framework de DAMA siendo uno de los primeros en certificarme en España y siendo uno de los promotores del capitulo español, asociado del capitulo italiano y gracias a la colaboración con el rep oficial FIT Academy he conseguido traer la formación CDMP en España solventando la demanda de la misma que nacio in primis en mis clientes para luego llegar a mas. Mas de 20 profesionales se han certificado y el capitulo español esta creciendo mucho gracias a esto.

Volviendo al DMS vamos a tener la posibilidad de tener cono nosotros nombre de referencia del mundo del data management como Rober Seiner, George Firican, Scott Taylor y Doug Laney, esto me llena de orgullo ya que todos estos profesionales son mis referentes personales y la idea de tenerlo en el evento es motivo di grande satisfacción y de responsabilidad.

Dentro de los agradecimientos no podían faltar las dos empresas que han decidido patrocinar el evento internacional. Anjana Data y About Data Governance dos empresas muy ligada al evento desde el principio.

Un agradecimiento especial va a Intelligence Partner que ha podido traernos todo el potencial de la infraestructura de Google para el evento.

Actividades Claves en el diseño de una estrategia de Gobierno de Datos

Este encierro forzado por el #Covid19 y la preparación de los cursos de Data Governance para la certificación de DAMA-I me permiten compartir con vosotros algunas buenas prácticas a la hora de diseñar un estrategia de Data Governance

Como ya he escrito en otros artículos y publicaciones sobre la materia, no considero la Data Governance como un proyecto sino más bien como un proceso continuo y sostenido en el tiempo. Es fundamental un acercamiento por fases e incremental para poder organizar los datos de la organización sin traumas y sin fisuras. Hacer las cosas bien nos permite tener que rectificar lo menos posible. Las 4 fases clásicas se acercan mucho al enfoque PMO ya que tenemos una iniciación, una planificación, una ejecución y un cierre que realmente no es como tal sino más bien un proceso continuo de mejora.

Siguiendo el enfoque del marco de DAMA tenemos algunas pautas que nos pueden ayudar:

Evaluar el grado de preparación de la organización

Habrá que considerar las características culturales y ambientales, así como las aspiraciones de la organización y sobre todo será necesario evaluar la madurez de la DM: ¿qué hace la organización con los datos? ¿Qué piensan las empresas y los individuos sobre el uso organizativo de los datos? Será necesario evaluar la capacidad de cambio: dado que la DG requiere un cambio de comportamiento, si antes el acceso a los datos era sencillo y desordenado, un proceso de Gobierno de Datos trae consigo un cambio fundamental, quizás al principio haya cierta resistencia y ganas de saltarse el sistema de control, pero poco a poco la organización se irá adaptando si las cosas se hacen bien desde el principio, más que dotarse de una herramienta desde el minuto uno será más necesario tener claro que el gobierno de los datos es algo que la organización no puede pasar por alto.

¿Tienen un programa o una estructura de gestión del cambio? ¿Han gestionado el cambio anteriormente? Esta fase también ayudará a comprender los posibles puntos de «resistencia» que siempre hay.

Articulo completo aquí: https://www.linkedin.com/pulse/actividades-claves-en-el-dise%C3%B1o-de-una-estrategia-gobierno-iurillo/

Todas las novedades de TARGIT Decision Suite 2019 Update 3

Articulo original de Tommy Jensen https://www.linkedin.com/in/tommy-jensen-5ba4bb5/

No se trata de una simple release es mucho mas, adelanta muchos aspectos que veremos en Decision Suite 2020.

De todas las novedades nos gustaria destacar estas:

  • Nueva programación y administración central de presentaciones de diapositivas que se ejecutan en diferentes monitores y/o ubicaciones
  • Capacidad de presentación de diapositivas y soporte para nuestra nueva función TABS en TARGIT Anywhere 
  • Motor de informes actualizado con soporte para iteraciones avanzadas de secciones de informes (secuencias de páginas) para ofrecer una experiencia de informes aún más potente.

Incrustación genérica: Si estás pensando que TARGIT ya tiene funciones de embeed tienes razón. Pero esta actualización lo hace mejor. La versión anterior tenía un enfoque único para diferentes «sistemas host». Esta actualización le permite incrustar de la misma manera independientemente del «sistema host» que esté utilizando. 

El Embedded Genérico sólo requiere una inserción de permalinks generados por TARGIT (rutas lógicas a los cuadros de mando que desea embeber) en su código HTML. Una sola inserción y funciona.

Además, la Actualización 3 hace que mantener y cambiar cualquier contenido incrustado sea un juego de niños. ¿Incrustar una presentación de diapositivas con información estacional? Ahora puede actualizarla con la nueva información estacional a través del cliente de escritorio TARGIT.

Programar la publicación: Puede programar el contenido para que se ejecute en los monitores en diferentes días e incluso horas del día sin necesidad de reconfigurar monitores individuales. Además, puede configurar cada monitor como destino para cualquier cosa que publique. La programación lo maneja todo de forma tan elegante – simplemente se publica en un destino definido a través de un enlace. 

Emocionante, ¿verdad? Esto se debe a que esta característica es súper robusta y flexible. Incluso si cierra su IIS (Information Server) y/o el servidor TARGIT, las presentaciones de diapositivas bajo demanda continuarán ejecutándose.

Pestañas: Utilice el cliente TARGIT Windows y Anywhere de la misma manera que utiliza su navegador. Abra cualquier número de pestañas y copie y pegue objetos libremente entre ellas. Cada pestaña representa su propio documento «aislado», por lo que los ejercicios no se aplican a todas las pestañas.

La función de historial ha sido completamente reescrita para servir a cada pestaña individual. Ahora cada pestaña tiene su propia lista de historial plano «personal». Además, el historial de cada pestaña vuelve a una «estructura más plana» para mejorar la legibilidad.

Ahora tiene la opción de abrir cualquier número de pestañas que muestren sus cuadros de mando o informes favoritos y moverlos para una mejor visualización en sus monitores. Incluso puede guardar las pestañas como un marcador. 

Iteración de la página de informe: TARGIT elimina el tedio de su proceso de elaboración de informes. Esta característica lo hace aún mejor al cubrir la necesidad de iterar o agrupar por múltiples páginas. La capacidad de hacer iteraciones/agrupaciones sobre una secuencia de páginas le permite ejecutar una secuencia de valores en un conjunto específico de páginas, una característica que realmente apreciará por los informes extensos.

Por ejemplo, supongamos que el informe de sus sucursales/tiendas ahora se puede expandir para iterar en varias páginas. Obtendrá una segmentación más rica y comprensible de informes complejos, incluyendo la capacidad de diseñar páginas de subtotal para cada sucursal/tienda.

OpenID: Reescribimos toda la ruta de seguridad. Ahora funciona como un inicio de sesión de Google o Facebook, utilizando autenticación multifactorial que confirma su identidad a través de un token adicional que se le envía a través de texto o correo electrónico.

Desde una integración más fácil hasta un inicio de sesión más rápido y seguro, la nueva actualización es un paso crucial en la evolución y el futuro próximo de TARGIT Decision Suite. Es parte de un plan más grande donde el producto funcionará en la nube (¡pronto!).

Nota: La aplicación Android se lanzará en noviembre. Tenga en cuenta que la aplicación Android disponible en Google Store en la fecha de esta versión no es compatible con la actualización 2019 Update 3.

Family Officer: cuando la gestión patrimonial apunta a la innovación a través de las Startups

¿Qué es realmente un Family Officer? El término existe en Estados Unidos desde finales del siglo XIX, cuando los Rockefeller decidieron rodearse de personas de confianza capaces de gestionar su inmenso patrimonio a largo plazo. 

La terminología anglosajona es mucho más reciente en nuestro país, pero el Family Officer no es otra cosa que un gestor patrimonial proactivo que busca el rendimiento en la innovación y tiene mucho que ver con el mundo de las startups.

Si bien su objetivo es garantizar la sostenibilidad de la empresa familiar el Family Officer no es un notario, ni un abogado, ni un asesor financiero, sino una especie de conductor encargado de reclutar y supervisar la acción de estos diversos profesionales, con el fin de preservar y hacer madurar las inversiones. Muchas veces se trata de una persona de la familia que asume este rol,  otras veces es un profesional a dedicación exclusiva o multicartera.

Tiene que buscar la innovación, invirtiendo en activos empresariales que no necesariamente provengan de su entorno industrial.

Hay entre 3.000 y 5.000 «super gerentes» de este tipo en los Estados Unidos, pero todavía son pocos en España y su labor es algo oscura. 

El Family Officer está llamado a actuar profesionalmente para asegurar una consideración informada en la gestión del patrimonio familiar consolidado, controlando el riesgo, los resultados de la planificación y ayudando también a la familia a identificar el código de valores intangibles, tiene que ser capaz de proteger la identidad familiar a lo largo del tiempo, de modo que cada generación pueda actuar como custodio de la siguiente generación. Tiene que buscar la innovación, invirtiendo en activos empresariales que no necesariamente provengan de su entorno industrial. 

FOs y las Startups

Buscar inversión para una startup sigue siendo un reto para muchos emprendedores aunque con el paso del tiempo se van incrementando las posibilidades gracias al mayor conocimiento de este modelo de compañía y la apertura de los ecosistemas al resto de la sociedad. Entre las alternativas que se ponen sobre la mesa para encontrar financiación se se encuentrar los Family Officers. Muchos de ellos tienen la doble finalidad de invertir para mover capital y dar rentabilidad a medio y largo plazo y captar la innovación presente en las startups para su propia empresa o industria. El enfoque multidisciplinario a veces es fundamental para esto y no se limitan a mirar en su propio jardín. «Si invierto en una empresa de marketing digital esta empresa puede ayudar a innovar mis acciones de marketing dentro de mi empresa matriz, lo mismo con la logística u otros campos.»

Family Officers e Impact Investing

La inversión de impacto se refiere a las inversiones «realizadas en empresas, organizaciones y fondos con la intención de generar un impacto social o medioambiental medible y beneficioso, junto con un rendimiento financiero». Las inversiones de impacto proporcionan capital para abordar cuestiones sociales y/o medioambientales.

Los grandes patrimonios familiares tienen muchas formas de utilizar sus activos. Pueden hacerlo a través de fundaciones o buscando inversiones de impacto. Hemos pasado del concepto de la Responsabilidad Social Corporativa a algo más fuerte.

No alt text provided for this image

Los inversionistas de impacto buscan activamente colocar capital en negocios, organizaciones sin fines de lucro y fondos en industrias como las de energía renovable, servicios básicos como vivienda, salud y educación, microfinanzas y agricultura sostenible. 

Los grandes patrimonios familiares tienen muchas formas de utilizar sus activos. Pueden hacerlo a través de fundaciones o buscando inversiones de impacto. Hemos pasado del concepto de la Responsabilidad Social Corporativa a algo más fuerte.

Los inversores mainstream a menudo temen pisar este terreno, dejando el campo a los aventureros capitalistas de riesgo y a las organizaciones no gubernamentales (ONG) que actúan como «primeros inversores institucionales». Según un estudio de McKinsey “Se puede pronosticar que la inversión de impacto crecerá a más de 300.000 millones de dólares para 2020, pero incluso esa sería una pequeña fracción de los 2,9 billones de dólares que probablemente serán administrados por empresas de capital privado (PE) de todo el mundo en 2020. Las inversiones de impacto en la India han demostrado cómo se puede emplear el capital de forma sostenible y cómo puede satisfacer las expectativas financieras de los inversores. Examinamos 48 salidas de inversores entre 2010 y 2015 y encontramos que produjeron una tasa de rendimiento interno (TIR) media de alrededor del 10 por ciento. La tercera parte superior de las operaciones arrojó una TIR media del 34%, lo que indica claramente que es posible lograr salidas rentables en las empresas sociales.”.

Es evidente que el Impact Investing va a estar presente dentro de las empresas familiares y los grandes gestores patrimoniales en los próximos años. Son muchos los Family Officers que se están activando en este sentido.

Un foro para los FO en España: El Family Officers Summit

Hay demasiados eventos enfocados al mundo de las startups, pero no hay ningún foro dedicado a los Family Officers y a los gestores patrimoniales familiares que quieran invertir en Innovación a través de startups.

Family Officer Summit nace para dar respuesta a este colectivo y para ayudar a las startups emergentes en encontrar financiación de tipo A y B.

En los próximos meses vamos a desvelar más sobre la fórmula, el formato, el lugar y el contenido pero seguramente vamos a aplicar nuestra metodología de «conversaciones controladas» en Dinámica de Grupo ya experimentada en otros eventos como el Data Management Summit como eje portante, ya que creemos en la suma de conocimientos y en la confrontación constructiva a la hora de abordar las diferentes temáticas. ¿Que busca un Family Officer a la hora de invertir en una Startup? ¿Cuáles son las problemáticas que las Startup encuentran a la hora de acercar este perfil de inversor? ¿Cómo mejoramos el matching entre Family Officer y Startups? Para dar respuesta a todo esto ha nacido el http://familyofficersummit.com.

Cómo evaluar una herramienta de #DataGovernance con 20 indicadores

Seguimos con los artículos sobre Data Governance, hoy nos ocupamos de cómo analizar las diferentes herramientas presentes en el mercado y elegir la más adecuada a nuestro entorno.

Muchas veces las grandes empresas para “no arriesgarse” eligen herramientas y tecnologías guiándose por el Magic Quadrant de Gartner, sin saber que esto no es sinonimo de garantía de buen funcionamiento y fácil implementación.

En el panorama del Data Governance existen: grandes vendors que incorporan una herramienta de gobierno dentro en su ecosistema, empresas que siguen levantando ronda de capitales sin tener realmente clientes, y otras realidades quizá más específicas, poco conocidas y a veces muy eficaces. Estár en Gartner es algo parecido a las estrellas Michelin de los restaurantes, ganarla supone estar debajo de una lupa y actuar para mantenerse en el puesto olvidando la satisfacción de los comensales.

El dato es el mayor activo de nuestras empresas, hay que gestionarlo o como me gusta decir “meta gestionarlo” por ello si aun no habeis pensado en una herramienta de DG es el momento de mirar alrededor pero sin guiarse exclusivamente con Gartner, Barc etc..

Como experto, recomiendo mirar un poco más allá y os propongo una serie de indicadores para poder evaluar la mejor herramienta de Data Governance, por vosotros mismos.

Al finalizar el articulo os dejo con una sencilla hoja excel para poder hacer la evaluación.

Aquí os relato cuales son los indicadores que deberían guiarnos en la elección de la herramienta perfecta.

1. Multitenencia. El término «multi arrendamiento de software» se refiere a una arquitectura de software en la que una única instancia de software se ejecuta en un servidor y sirve a varios arrendatarios. Un límite muy importante en una herramienta de Gobernanza de Datos es no poder gestionar más de una instancia y la multiplicidad de roles y de proyectos. En tema de Roles a veces el Data Owner de un determinado proyecto tiene el rol de Data Steward en otro o en otro dominio. Una herramienta de DG debe tener un enfoque Multi Tenencia si o si.

2. Despliegue en Cloud. ¿La herramienta permite un despliegue en Cloud? Aunque su sistema no necesite este despliegue hay que pensar a futuro. ¿Es compatible con AWS, Azure, Google Cloud? ¿Es compatible con sus sistemas de almacenamiento?

3. ¿Con Licencia o Open Source?. Hasta hace unos años,el hecho de tener que pagar una licencia y su mantenimiento eran sinónimo de solvencia. Hoy en día muchas empresa prefieren apostar por herramientas open source junto con unos servicios profesionales especializados, ya que muchas veces estas herramientas son igual de solventes y no tan cerradas como las herramientas comerciales.

4. ¿Sistema abierto o ecosistema cerrado? Muchas veces la tecnología nos marca nuestras elecciones en término de software, generando el problema del Ghost TI. Aunque sea natural intentar mantener un marco global tecnológico esto es imposible de asumir en grandes corporaciones. Cuanto más intenten presionar el sistema cuanto más el fenómeno del ghost IT se presenta con todos los problemas de seguridad que ello conlleva. Realmente no sabemos si el ecosistema tecnológico actual va ser el mismo dentro de 5 años. Los expertos recomiendan que una herramienta de Governance sea completamente independiente del resto de tecnología, tampoco necesita grandes recursos ya que trabaja con metadatos y no con todos los datos. Es perfectamente factible por ejemplo que su eco sistema SAP tenga una herramienta diferente.

5. Usabilidad del Business Glossary. Es necesario evaluar si el software de gobierno de datos le permite crear taxonomías, gestionar términos de negocio, importar términos de negocio en masa. La mayoría de las empresas tienen trabajo desarrollado en Excel u otra herramienta como Confluence razón para averiguar que todo el trabajo previo se pueda recuperar. Si este trabajo aún no se ha desarrollado es mejor optar por una herramienta fácil e inmediata que no necesite por ejemplo, formación o certificaciones para poder usarse.

6. Atributos personalizados. ¿Cómo nombra y describe el software los atributos personalizados? Más allá de nombrar el atributo, es importante proporcionar una definición, una descripción corta (con un poco de fondo), una descripción larga (unos pocos párrafos de mayor profundidad), un ejemplo y una clasificación de seguridad (indicando el nivel de seguridad, por ejemplo, pública, interna o confidencial). Algunos software permiten trabajar templates de forma abierta y esta es una gran ventaja. Controle que su suite pueda trabajar con plantillas, esto agiliza mucho el trabajo.

7. Relaciones personalizadas. Al evaluar las relaciones personalizables, tenga en cuenta los acrónimos, las abreviaturas, los sinónimos, los reemplazos/sustituciones (que indican términos obsoletos), los activos asignados, los valores permitidos (vinculando el término comercial a los datos de referencia asociados) y las políticas y reglas de datos. Sobre todo compruebe que la herramienta tiene una gestión de versionado, es importante poder regresar o evaluar un término o una relación. Tiene que haber una trazabilidad total sobre los términos para saber “quién” ha cambiado el “qué” y “cuándo”.

8. Administración de datos. Los administradores de datos deben ser capaces de gestionar artefactos tales como términos de negocio, políticas de datos, estándares de datos, reglas de calidad de datos, métricas de calidad de datos, reglas de datos maestros, tareas de datos maestros (p. ej., duplicados) y cualquier otro artefacto que sea totalmente configurable (p. ej., regulación).

9. Roles personalizados. Las funciones personalizadas pueden incluir el propietario de los datos, el DGO, el Data Steward, las partes interesadas, los expertos en la materia y los responsables, los auditores externo etc. Elija una herramienta que no tenga roles cerrados y mejor aun que tenga plantillas de roles para poder crear nuevos criterios y reglas en cualquier momento.

10. Workflows de autorización. Es importante definir los workflows de autorización. Por ejemplo, puede incluir a los administradores regionales, los administradores mundiales y la tecnología de la información en el caso de un cambio de código de entrada multinacional. A veces alguna herramienta de DG presentan un verdadero BPMS para la definición de Workflows. ¿Este término del Glosario es el último? ¿Quién lo modificó? ¿Que se modificó? ¿Es una versión aprobada por el DGO? etc.

11. Reglas de datos maestros. Evalúe si la herramienta le permitirá crear reglas de enriquecimiento de datos, crear reglas de validación de datos, crear relaciones entre entidades, crear reglas de correspondencia de registros, establecer umbrales de confianza y crear reglas de consolidación de registros.

12. Linaje de datos. ¿La herramienta le permite documentar el linaje de datos, incluyendo los trabajos que se ejecutan en paralelo? ¿Permite una visualización gráfica del flujo de datos? ¿Tiene compliance RDA y GDPR?

13. Análisis de Impacto. ¿La herramienta creará un análisis de impacto, específicamente para los activos identificados en el linaje de datos? ¿Es posible visualizar gráficamente (con una base de datos de grafo) el impacto?

14. Jerarquía de los artefactos de datos. La herramienta debería permitirle vincular políticas, reglas, términos y datos de referencia, incluso debería generar de forma automática los informes a partir de los metadatos y de su manejo.

15. Elaboración de perfiles de diversas fuentes de datos. Esto incluye manuales (scripts SQL), automatizados (herramientas para proveedores) y diversas fuentes de datos. No solo datos estructurados sino también no-estructurados y sobre todo informes y reporting (SASMicrostrategy, etc). No podemos saber cómo será nuestro ecosistema tecnológico dentro de 5 años así que no podemos saber cuáles fuentes de datos vamos a utilizar. La solución más coherente sería tenerlo todo virtualizado con herramientas como C3Querona o Denodo

16. Cuadro de mando de la calidad de los datos. No subestime el valor de un cuadro de mando, que enumera las métricas de gobierno de la información, los objetivos, las actualizaciones periódicas de estado y la línea de base. Su herramienta tiene que tener la capacidad de utilizar reglas de calidad básica a nivel interno y poder conectarse con motores de calidad de datos externos. Si la herramienta no tiene un buen sistema de visualización de datos que por lo menos pueda utilizar frontends externos (como Power BI, Tableau) para ello.

17. Registro de los problemas y las alertas sobre datos. El registro de problemas de datos debe rastrear los problemas, el administrador asignado, los datos asignados, la fecha resuelta y el estado actual (por ejemplo, cerrado, el administrador hablando con el departamento de políticas, etc.). No se trata solo de generar un log sino un proceso de control de resolución de problema (con un sistema de ticketing o pudiendo relacionarse con herramientas externa como JiraConfluence o Slack.

18. Proceso de resolución de problemas de datos. Asegurar que el proceso de gestión y resolución de problemas esté completamente documentado. (además nos lo exige la regulación en muchos casos)

19. Apoyo a la auditoría interna/externa. Cada repositorio debe tener un propietario de datos y será auditado para verificar el cumplimiento de políticas específicas de gobierno de datos, tales como 1) la presencia de un diccionario de datos, 2) si las reglas han sido documentadas y 3) quién determina los controles de acceso. El software tiene que poder generar roles para auditores externos.

20. KPI de gobierno de datos

Hay muchos KPI posible en DG aquí algunas ideas: Glosario de negocios Número de términos del candidato, número de términos pendientes de aprobación, número de datos de referencia aprobados – Número de valores de código del candidato, número pendiente de aprobación, número de asuntos de datos aprobados Número de asuntos de datos pendientes, número de asuntos de datos resueltos en el último período de calidad de datos Índice de calidad de datos por aplicación, por elemento de datos críticos Vectores de información Por administrador de datos, propietario de datos, repositorio de datos, aplicación, dominio de datos.

Conclusiones

El dato es el mayor activo de nuestras empresas, hay que gestionarlo o como me gusta decir “meta gestionarlo” por ello si aun no habeis pensado en una herramienta de DG es el momento de mirar alrededor pero sin guiarse exclusivamente con Gartner, Barc etc..

Para facilitaros la labor hemos realizado un fichero excel con todo los indicadores, usted va a poder modificar los criterios y dar más o menos peso a las características que sean oportunas para su proyecto de Data Governance. Para descargar el fichero el el link es el siguiente. LINK.

Addendum

En estos días me he topado con lo que declara DAMA en su DMBook2 sobre la gestión de los meta-datos. Cito textualmente (la traducción es mia del original ingles):

«Un sistema de Gestión de Metadatos debe ser capaz de extraer Metadatos de muchas fuentes. Diseñar la arquitectura para que sea capaz de escanear las diversas fuentes de metadatos y actualizar periódicamente el repositorio. El sistema debe soportar las actualizaciones manuales de metadatos, solicitudes, búsquedas y búsquedas de metadatos por parte de varios grupos de usuarios.

Un entorno de metadatos gestionado debería aislar al usuario final de las diversas y dispares fuentes de metadatos. La arquitectura debe proporcionar un único punto de acceso para el repositorio de metadatos. El punto de acceso debe suministrar todos los recursos de metadatos relacionados de forma transparente al usuario. Los usuarios deben poder acceder a los metadatos sin ser conscientes de los diferentes entornos de las fuentes de datos. En las soluciones analíticas y de datos grandes, la interfaz puede tener funciones definidas por el usuario (UDF) para dibujar en varios conjuntos de datos, y la exposición de los metadatos al usuario final es inherente a esas personalizaciones. Con menos dependencia de UDF en las soluciones, los usuarios finales recopilarán, inspeccionarán y utilizarán los conjuntos de datos de forma más directa y, por lo general, los metadatos de soporte estarán más expuestos