Explorando las Diferentes Tipologías de JOIN en SQL: Ejemplos Prácticos

Cuando se trata de manipular datos en SQL, las sentencias JOIN son una herramienta poderosa para combinar información de múltiples tablas. Sin embargo, entender las diferentes tipologías de JOIN puede ser clave para escribir consultas eficientes. Vamos a explorar algunas de las más comunes con ejemplos prácticos.

  1. INNER JOIN:
    • Este JOIN devuelve solo las filas que tienen coincidencias en ambas tablas.
    SELECT clientes.nombre, pedidos.producto
    FROM clientes
    INNER JOIN pedidos ON clientes.id = pedidos.cliente_id;
  2. LEFT JOIN:
    • Devuelve todas las filas de la tabla izquierda y las coincidencias de la tabla derecha.
    SELECT empleados.nombre, departamentos.nombre
    FROM empleados
    LEFT JOIN departamentos ON empleados.departamento_id = departamentos.id;
  3. RIGHT JOIN:
    • Similar al LEFT JOIN pero devuelve todas las filas de la tabla derecha y las coincidencias de la izquierda.
    SELECT departamentos.nombre, empleados.nombre
    FROM departamentos
    RIGHT JOIN empleados ON departamentos.id = empleados.departamento_id;
  4. FULL OUTER JOIN:
    • Devuelve todas las filas cuando hay una coincidencia en cualquiera de las tablas.
    SELECT clientes.nombre, pedidos.producto
    FROM clientes
    FULL OUTER JOIN pedidos ON clientes.id = pedidos.cliente_id;
  5. SELF JOIN:
    • Se utiliza cuando necesitas combinar una tabla consigo misma. Por ejemplo, para encontrar empleados que tienen el mismo gerente.
    SELECT a.nombre, b.nombre AS gerente
    FROM empleados a
    INNER JOIN empleados b ON a.gerente_id = b.id;

Entender estas tipologías de JOIN y cuándo utilizarlas puede mejorar tus consultas SQL y tu capacidad para extraer información valiosa de tus bases de datos. ¿Has utilizado alguna de estas antes?

Esplorando la Tendenza di Rimpatriare Dati dal Cloud: Cause e Riflessioni

Oggi, vorrei immergerci in una tendenza interessante che sta guadagnando popolarità nel mondo della tecnologia: il rimpatrio dei dati e delle applicazioni dal cloud. Sebbene il cloud abbia agito come catalizzatore di trasformazione, alcune organizzazioni stanno optando per riportare una parte del loro ambiente tecnologico in casa. Cosa spinge questa tendenza e cosa possiamo imparare da essa?

🔗 Il Ritorno a Casa dal Cloud: Mentre le aziende migrano verso il cloud alla ricerca di scalabilità e flessibilità, alcune stanno riconsiderando questa scelta. Il rimpatrio implica riportare risorse informatiche e dati dai fornitori di servizi cloud alle infrastrutture interne. Può sembrare una mossa audace, ma è motivata da una serie di cause fondamentali.

🌐 Cause Comuni del Rimpatrio:

  1. Costi ed Efficienza: A volte, i costi di utilizzo continuo del cloud possono superare le aspettative. Il rimpatrio consente di controllare le spese e ottimizzare le risorse in base alle necessità specifiche.
  2. Regolamentazione e Conformità: Alcune industrie sono soggette a rigorose normative su dove devono essere conservati i dati. Il rimpatrio può essere una risposta a queste restrizioni legali.
  3. Latenza e Prestazioni: Alcune applicazioni richiedono bassa latenza e prestazioni ottimali. In questi casi, il rimpatrio può essere preferibile per avere un controllo diretto sull’infrastruttura.
  4. Complessità della Gestione: Man mano che gli ambienti cloud crescono, la gestione può diventare complessa. Il rimpatrio può semplificare l’amministrazione riportando determinati carichi di lavoro in un ambiente interno.
  5. Sicurezza e Privacy: Per alcune organizzazioni, la sicurezza e la privacy sono fondamentali. Il rimpatrio offre un maggiore controllo sulla sicurezza dei dati e delle applicazioni.

🌟 Lezioni per la Trasformazione Tecnologica: Il rimpatrio non è un segno di insuccesso nell’adozione del cloud, ma un esempio di flessibilità e adattabilità. Ci ricorda che la tecnologia è un mezzo per un fine e che ogni organizzazione ha esigenze uniche.

🚀 Guardando Avanti: La tecnologia continuerà a evolversi e le decisioni di rimpatrio o adozione del cloud dipenderanno dalla strategia e dalle circostanze di ciascuna azienda.

#Tecnologia #Cloud #Rimpatrio #TrasformazioneDigitale #Adattabilità #TendenzeTecnologiche

Condividiamo le nostre prospettive! Hai mai considerato il rimpatrio o hai esperienze da condividere? Conversazioni coinvolgenti ci guidano verso un futuro tecnologico più informato.

L’Incredibile Longevità di SQL: Radici del Successo e il Potere del Paradigma Dichiarativo

Oggi, vorrei gettare luce su un linguaggio che ha attraversato epoche e rivoluzioni digitali, rimanendo saldamente al centro della gestione dei dati: SQL. La sua longevità è più che un semplice fatto storico; è il risultato di principi profondamente radicati e del potere del paradigma dichiarativo.

🔗 Un Viaggio Attraverso il Tempo: SQL, Structured Query Language, è nato negli anni ’70 e da allora ha attraversato ogni evoluzione tecnologica con eleganza e resilienza. Ma quale è il segreto di questa longevità senza pari?

🌟 Principi Fondamentali del Successo di SQL:

  1. Universalità: SQL è universalmente riconosciuto e utilizzato. Le aziende di tutte le dimensioni e settori lo abbracciano per la sua affidabilità e capacità di gestire complessità.
  2. Semplicità ed Espressività: La semplicità di SQL non ne mina la potenza. Le sue istruzioni chiare ed espressive permettono di manipolare e recuperare dati in modo intuitivo.
  3. Flessibilità: SQL si adatta alle mutevoli esigenze dei dati. Che si tratti di interrogare un database o di elaborare un vasto insieme di dati, SQL offre le basi per farlo in modo efficiente.
  4. Approccio Dichiarativo: E qui risiede il cuore del successo. L’approccio dichiarativo di SQL ci consente di dire «cosa» vogliamo ottenere, piuttosto che «come» ottenerlo. Questo paradigma sposta il focus dalla logica di esecuzione ai risultati desiderati.

🔍 Il Potere del Paradigma Declarativo:

L’approccio dichiarativo rappresenta un cambio di paradigma fondamentale. Ci affrancano dalla gestione dei dettagli operativi e ci consentono di concentrarci sui problemi e sulle soluzioni a un livello più elevato.

In un mondo in continua evoluzione, l’importanza del paradigma dichiarativo diventa ancora più evidente. Ci libera da codici intricati, consentendoci di adattarci agilmente alle mutevoli esigenze aziendali.

🚀 Riflettiamo e Innoviamo:

L’eccezionale longevità di SQL ci insegna che la solida base di principi e il paradigma dichiarativo possono portare a un successo duraturo. La storia di SQL non è solo un tributo al suo passato, ma anche un monito per abbracciare principi fondamentali mentre innoviamo nel futuro.

#SQL #GestioneDati #ParadigmaDichiarativo #Tecnologia #Innovazione #Longevità

Condividiamo riflessioni e esperienze su questo viaggio attraverso la tecnologia. La longevità di SQL ci ispira a perseguire l’innovazione con radici solide.

Finalmente disponibile in Amazon mi ultimo libro: Dowshifting, Decrescita e Impresa Liquida

Non una semplice traduzione dal libro giá uscito 5 anni fa in Spagnolo. Una riedizione ampliata e aggiornata che dopo la pandemia ha trovato nuovi spunti e nuove materie di confronto.

Siamo in un ambiente instabile, per un po’ di tempo ci siamo divertiti. Ma le cose sono cambiate, dobbiamo passare dalla zona di comfort alla zona di inquietudine. Dobbiamo capire che ci sono nuovi paradigmi e nuovi modi di vedere le cose. Dobbiamo agire e smettere di lamentarci nel ricordo di quanto era bello prima, di quanto era comodo avere uno stipendio fisso a fine mese, di quanto era comodo comprare ciò che non potevamo permetterci, la crisi ci ha liberato da molte schiavitù e come diceva Einstein l’unica crisi è la crisi dell’incompetenza. Incompetenza lavorativa, etica e politica e fallimento del sistema inteso come «esisto, spendo e pretendo».

Essere liberi dalle buste paga significa rischiare, essere liberi dalle buste paga significa essere liberi di vivere la nostra vita nel modo che più ci piace e facendo ciò che ci piace. Al nostro ritmo e senza essere incanalati nei ritmi altrui.

La falsa sicurezza che il sistema ci offre serve a impedirci di pensare. La paura di fallire, di non riuscire ad andare avanti ci blocca. La paura è il più efficace inibitore del cambiamento. È per questo che non cambiamo.

«Il denaro è lo sterco del demonio», ma ne abbiamo bisogno per sentirci persone. Questo è assurdo. Paghiamo il prezzo della sicurezza perdendo parte del nostro cervello. 

Ma non vogliamo una vita frugale. Vogliamo sembrare non essere. Vogliamo che gli altri abbiano un’immagine di successo di noi. Perciò non viviamo realmente la nostra vita, cerchiamo continuamente di vivere la vita degli altri, compriamo, consumiamo senza alcun rispetto, senza alcuna logica.

“Un’opportunità significa essere disposti ad agire. Essere disposti ad agire significa essere disposti a correre un rischio. Essere disposti a rischiare significa essere disposti ad accogliere il cambiamento. (Michael Levine)”

Indice dei contenuti

  • 1 – Contro la pazzia 12
      • Downshifting ed equilibrio personale 13
      • La nuova rivoluzione non è collettiva, è individuale 14
      • Morire di fame… 15
      • Ma non siamo pazzi 15
      •   La grande invenzione dei Social 19
      • Il sottobosco “social” 25
      • Il talento non ci da da mangiare… la perseveranza sì 27
  • 2 – La crisi, un cómodo alibi sociale 29
      • Chi è stato vittima di tutto questo? 35
      • Vecchio a 40 anni 35
      • Europa e USA: siamo diversi 36
      • Dove usare il nostro talento… 39
  • 3 – Punto di svolta 40
      • Chi sono? 40
      • Qual è la mia filosofia di vita? 42
      • Perché sono arrivato qui? 42
      • Quali sono gli obiettivi più importanti della mia vita? 42
      • Quali sono le mie aspirazioni piú profonde? 43
      • Dove vado? 43
      • Che valori e principi mi guidano? 44
      • Cosa voglio conseguire? 44
      • In cosa credo? Quali sono i miei ideali? 44
      • Che ruolo voglio svolgere nella vita? 45
      • Quali fattori mi rendono irripetibile? 45
      • Cosa è decisivo per il mio successo personale? 45
      • Situazioni che generano un punto di svolta 46
      • Seneca e la visione stoica dell’imprenditorialità 47
  • 4 – Racconti per pensare 51
      • Un downshifting imposto 52
      • Un downshifting volontario 62
  • 5 – La mappa delle paure 68
      • Paura della povertá 68
      • Paura della solitudine 69
      • Paura della esclusione sociale 70
      • Paura dell’incertezza 70
      • Paura della paura 71
  • 6 – Capire la “impermanenza” (transitorietá) 76
      • La schiavitú dello stipendio 77
      • Un giorno il sistema scoppió… 77
      • La impermanenza (transitabilitá) 78
  • 7 – La Decrescita è la risposta? 81
      • Collettivizzare la rivoluzione 83
      • Vivere con meno (less is sexy) 84
      • Se la politica prendesse l’iniziativa 92
      • Nuove idee per le transazioni 93
      • Il Wir e le Criptovalute 94
      • Podemos e Movimento 5 Stelle 98
      • La societá é malata di crescita 99
      • Le regole il vero nemico della Frugalitá 105
      • Come le politiche dell’UE ci colpiscono 111
      • Che la «convivialità» ritorni 112
  • 8 – La grande menzogna della crescita sostenibile e il ricatto dei mercati 121
      • Se un peto sposta lo Spread 126
      • Malati di crescita 135
  • 9 – Downshifting in un mondo impermanente 140
      • Vivere per lavorare o lavorare per vivere? 141
      • Slow Movement un’idea italiana una prospettiva internazionale 143
      • Un appello ai giovani universitari 144
      • L’Anno sabbatico 146
      • Il Downshifting Manager 146
      • Into The Wild 148
      • Mappa strategica del Downshifting 152
      • Conto economico downshifting 154
      • Com’è la vita là fuori… 158
      • Invidia e falsita 159
      • Il giorno zero 160
      • Ricadute e perseveranza 162
      • Downshifting nutrizionale 163
      • Libri che ti cambiano la vita 165
      • Pochi secondi a volte possono essere molto preziosi per la nostra salute 173
      • Quando l’industria ci inganna con le etichette.. 175
      • La grande truffa della piramide alimentare 175
      • Fare sport… Yes We Can 176
  • 10 – La impresa liquida in mondo impermanente 178
      • Nuovi valori e nuove competenze 179
      • Cloud management 182
      • Il “mio posto di lavoro” non esiste 182
      • No company (la «no impresa») 183
      • Circondatevi di teste pensanti 184
      • Benessere 185
      • Lo shock del Futuro 186
      • La dichiarazione di Consulenza Artigiana 190
      • Un altro tipo di azienda è possibile 193
  • 11 – Strumenti per l’impresa liquida 196
      • Il viaggio inutile (storia vera) 197
      • Mobilitá nel lavoro 198
      • Quanto vale il nostro tempo 200
      • Uffici virtuali e Co-Working 201
      • Qualsiasi luogo è un buon posto per lavorare 203
      • Videoconferenze, web meeting e webinar: lo smart working in sintesi 206
      • Strumenti di collaborazione 212
      • Social Networks senza esserne schiavi 214
      • Twitter è uno strumento di business? 215
      • Software libero, più sicuro, più sostenibile 217
      • Tecnologia dell’informazione come servizio 220
      • Strumenti gratuiti per l’impresa liquida 223
  • 12 – Alcune teorie 226
      • Jerry Mander, el fin del capitalismo 226
      • La teoria di Keynes 228
      • Principio de Peter 231
      • La teoría del dare 233
      • Economia comportamentale 234
      • Teoria della crescita endogena 237
      • Teoria della selezione avversa 239
      • Teoria delle Reti 240
      • Economia delle piattaforme 243
      • Il Minimalismo “Less is More” 245
      • La ontologia del linguaggio 247
      • La teoria del denaro libero di Silvio Gesell 248
  • 13 – Conclusioni: Non finisce qui 249
      • Ringraziamenti 252
  • Bibliografía 252
  • Disponibile su Amazon in Kindle e Copertina Semirigida

Libro: 20 cose da sapere sul Data Management

C’è stato un tempo in cui abbiamo detto alle aziende che dovevano esaminare i loro dati: è nata la business intelligence. C’è stato un tempo in cui volevamo democratizzare l’uso dei dati: è nata la data-driven. Dopo un po’, ci siamo resi conto che grazie alla virtualizzazione e al cloud non era necessario spostare i dati, ed è nata la Data Virtualization. Alcune persone mi dicono che fondamentalmente non è cambiato nulla. Abbiamo una tecnologia straordinaria: cloud computing, questo ha cambiato molte cose.

Non siamo nella «trasformazione digitale», non si tratta di qualcosa che arriva e a cui bisogna adattarsi, ma é meglio parlare di «abitudine all’evoluzione digitale». Perché si tratta di un processo continuo, non di un evento isolato. Un processo che ha bisogno della Data Governance così come ha bisogno di altri aspetti legati ai dati (Data Quality, Data Analysing, Data Virtualisation, ecc.).

Siamo nell’era dei metadati. Se è vero che la Business Intelligence ha cristallizzato la strategia (passando dal «cosa» fare al «come» farlo), la Virtualizzazione dei dati ha liberato i dati dai legami fisici; la Data Governance concentrerà i suoi sforzi sui metadati. Non importa più quanti dati possiamo gestire e come li gestiamo. Dobbiamo sapere cosa ci dicono questi dati e chi decide cosa ci dicono. Senza Data Governance non c’è Data Management, questa è la visione di DAMA e io la condivido pienamente.

Mi occupo di gestione dei dati da alcuni anni e, sebbene esista un framework di riferimento importantissimo come il DmBok 2 di DAMA che utilizzo quotidianamente, ho pensato che sarebbe stato interessante sviluppare qualcosa di molto didattico per tutti coloro che si stanno avvicinando al mondo del Data Management. Potremmo dire che questo libro è una sorta di dizionario esteso per comprendere meglio questo affascinante mondo dei dati.

Ora più che mai i dati non sono un’opzione, sono il business!

Libro su Amazon

Libro: 20 cosas que tienes que saber sobre Data Management

Si es verdad que el 75% de los activos de las empresas Standard & Poor ‘s no son físicos: ¿De qué estamos hablando? ¡De Datos! Qué sería de empresas como Booking, AirBNB, Facebook sin sus datos (y los nuestros) esto es motivo más que suficiente para entender la importancia del Data Management.

Hubo un tiempo en que dijimos a las empresas que tenían que mirar sus datos: nació el business intelligence. Hubo un tiempo en el que quisimos democratizar el uso de los datos y nació el data-driven. Pasado un tiempo, comprendimos que gracias a la virtualización y la nube no es necesario mover los datos y nació Data Virtualization. Algunos me dicen que en el fondo nada ha cambiado. Tenemos una tecnología impresionante, el cloud y el cómputo en la nube disparan el potencial de todo, pero también disparan la entropía.

No estamos en la “transformación digital”, no se trata de algo que llega y al que hay que adaptarse, se trata de hablar de “hábito de evolución digital”. Porque se trata de un proceso continuo no de algo puntual. Un proceso que necesita la Data Governance de la misma forma que necesita otros aspectos relacionados con los datos (Data Quality, Data Analyzing, Data Virtualization, etc.)

Estamos en la era de los Metadatos. Si es verdad que la Inteligencia de Negocio ha cristalizado la estrategia (pasando de “qué” hacer a “como” hacerlo), la Data Virtualization ha permitido liberar los datos de vínculos físicos; la Data Governance va a focalizar sus esfuerzos en los metadatos. Ya no importa la cantidad de datos que podamos tratar ni como lo tratamos. Necesitamos saber que estos datos nos dicen y quien decide que digan algo. Sin Data Governance no existe el Data Management, es la visión de DAMA y la comparto completamente.

Desde hace unos cuantos años me dedico a la gestión de datos, aunque existe un framework referente super importante como el DmBok 2 de DAMA que utilizo a diario, me pareció interesante desarrollar algo muy didáctico para todos aquellos que se acercan al mundo del Data Management. Podríamos decir que este libro es una especie de diccionario alargado para comprender mejor este mundo tan fascinante de los datos.

¡Ahora más que nunca el dato no es una opción es el negocio!

Hablaremos de: Data Literacy, Metadatos, Data Governance, Business Glossary, Data Dictionary, Data Catalog, ETL, ELT , Master Data, Data Lake, Data Warehouse,OLAP, ROLAP, MOLAP, DOLAP y HOLAP, Data Fabric, Data Mesh, Enfoque Declarativo vs Enfoque Procedural, Data Vault, Data Monetization, CDC, Data Virtualization y DmBoK2

Para comprar el libro : https://www.amazon.es/cosas-tienes-saber-sobre-Management/dp/8409483882libr

El enfoque declarativo en el Data Management y la ventaja de Irion EDM

de Michele Iurillo* y ChatGPT

Este artículo se ha escrito a 4 manos.. (si se puede decir) de un lado he usado ChatGPT con preguntas muy concretas, del otro he añadido elementos para complementar la información. Imaginarlo como un experimento sobre el argumento del momento y una forma de concretar más el enfoque declarativo en Data Management que es uno de los puntos fuertes de la tecnología de Irion EDM.

El enfoque declarativo se refiere a una forma de expresar un problema o una solución en términos de lo que se desea lograr, en lugar de cómo se desea lograrlo. En lugar de especificar los pasos detallados para resolver un problema, se especifica el resultado deseado.

En programación, el enfoque declarativo se utiliza para escribir código que especifica qué se desea lograr, en lugar de cómo se desea lograrlo. Por ejemplo, en lugar de escribir código que especifica cómo recorrer una lista de elementos y realizar una determinada acción en cada uno de ellos, se escribe código que especifica que se desea realizar esa acción en cada elemento de la lista. El lenguaje de programación se encarga de resolver cómo realizar esa acción.

El enfoque declarativo se utiliza en varios campos, como en bases de datos, en donde los lenguajes declarativos son aquellos que se centran en describir los resultados deseados en una consulta, en lugar de describir cómo se obtienen esos resultados. SQL es un ejemplo de un lenguaje declarativo utilizado en las bases de datos relacionales.

En resumen, enfoque declarativo es una forma de abordar un problema o una solución enfatizando en lo que se quiere lograr en lugar de cómo se quiere lograrlo, permitiendo al sistema o lenguaje de programación encargarse de las tareas de implementación.

Algunos ejemplos de lenguajes de programación declarativos son:

  1. SQL (Structured Query Language): Es un lenguaje declarativo utilizado para acceder y manipular bases de datos relacionales. En lugar de especificar cómo recuperar los datos, se especifica qué datos se desean recuperar mediante consultas.
  2. Prolog: Es un lenguaje de programación lógico declarativo utilizado en inteligencia artificial y programación de sistemas expertos. Permite al programador especificar reglas y hechos, y luego utilizar un motor de inferencia para obtener conclusiones.
  3. Haskell: Es un lenguaje de programación funcional declarativo utilizado para construir sistemas concurrentes y distribuidos. En lugar de especificar cómo se deben realizar las operaciones, se especifican las operaciones que se desean realizar y el lenguaje se encarga de resolver cómo realizarlas.
  4. XSLT: (Extensible Stylesheet Language Transformations) es un lenguaje declarativo utilizado para transformar documentos XML en otro formato, como HTML o PDF. El programador especifica cómo se deben transformar los datos, en lugar de cómo se deben recuperar.
  5. RDF: (Resource Description Framework) es un lenguaje declarativo utilizado para describir recursos y relaciones entre ellos. Es ampliamente utilizado en la web semántica y el enriquecimiento de metadatos.

Enfoque Procedural

El enfoque procedural se refiere a una forma de expresar un problema o una solución en términos de los pasos específicos que deben seguirse para lograr un resultado. En lugar de especificar el resultado deseado, se especifican los pasos detallados para resolver el problema.

En programación, el enfoque procedural se utiliza para escribir código que especifica cómo se deben realizar las tareas, en lugar de qué tareas se deben realizar. Por ejemplo, en lugar de escribir código que especifica que se desea realizar una determinada acción en cada elemento de una lista, se escribe código que especifica cómo recorrer la lista y realizar la acción en cada elemento.

Los lenguajes de programación procedurales son aquellos que siguen un enfoque de programación estructurada, en donde se divide el código en bloques lógicos y se organizan en funciones y procedimientos

Algunos ejemplos de lenguajes de programación procedurales son:

C: Es un lenguaje de programación de alto rendimiento y de bajo nivel, que es ampliamente utilizado para desarrollar sistemas operativos, dispositivos embebidos y aplicaciones de bajo nivel. Es un lenguaje de programación estructurado, con un enfoque en la programación procedural.

Pascal: Es un lenguaje de programación estructurado, desarrollado para la enseñanza de la programación en las universidades. Es ampliamente utilizado para desarrollar aplicaciones de escritorio, juegos y aplicaciones científicas.

Fortran: es un lenguaje de programación procedural desarrollado para cálculo científico y numérico, es utilizado en aplicaciones como simulación de sistemas, modelado de fluidos y análisis estadísticos.

Basic: es un lenguaje de programación procedural muy fácil de aprender para principiantes. Fue diseñado para enseñar a los estudiantes de programación básica

¿Por qué es mejor el enfoque declarativo en Data Management?

El enfoque declarativo en Data Management tiene varias ventajas sobre el enfoque procedural. Algunas de estas ventajas son:

  1. Mayor claridad: El enfoque declarativo permite especificar los resultados deseados de manera clara y concisa, lo que ayuda a reducir el riesgo de errores y aumenta la eficiencia en el manejo de datos.
  2. Mayor flexibilidad: Al especificar los resultados deseados en lugar de los pasos para lograrlos, el enfoque declarativo permite adaptarse fácilmente a cambios en los datos o en los requisitos del sistema.
  3. Mayor escalabilidad: Al permitir la separación entre la especificación de los resultados y su implementación, el enfoque declarativo permite escalar el sistema de manejo de datos sin tener que modificar el código.
  4. Mayor portabilidad: Al separar la especificación de los resultados de su implementación, el enfoque declarativo permite el uso de diferentes sistemas o tecnologías para implementar la especificación.
  5. Mayor eficiencia: Al permitir que el sistema se encargue de implementar la especificación, el enfoque declarativo permite obtener resultados más rápidamente y con menos recursos.

En resumen, el enfoque declarativo en Data Management ofrece una mayor claridad, flexibilidad, escalabilidad, portabilidad y eficiencia en la gestión de datos. Al permitir especificar los resultados deseados en lugar de los pasos para lograrlos, permite una mayor escalabilidad, flexibilidad y portabilidad.

DELT(™) ELT Declarativo

DELT es una de las tecnologías propietarias de Irion. El motor orquesta y sincroniza el plan de procesamiento y control de datos con algoritmos inteligentes, lo que permite a los profesionales de la gestión de datos -que utilizan la plataforma Irion EDM®- trabajar en un entorno autoadaptativo y basado en metadatos.

Las ventajas principales son:

  • El enfoque declarativo permite al motor DELT™ alcanzar altos niveles de rendimiento al maximizar el paralelismo de las fases de procesamiento.
  • La arquitectura DELT™ está diseñada para trabajar eficazmente con grandes volúmenes de datos mediante motores orientados a conjuntos.
  • El ingeniero de datos se encarga de los aspectos semánticos de las soluciones delegando en la plataforma la gestión automática de las estructuras de datos.
  • La integración de motores con tecnologías heterogéneas, como Query, Script, Rule, R, Python, Masking, Profiling, permite utilizar la herramienta más adecuada para cada situación.

Para info: http://irion-edm.com/es

Como solventar el problema del loop login en Mac OS X en un MacBook 3.1 antiguo que no tiene modalidad R [solucionado]

He perdido 3 dias y al final leyendo mucho material incluso en aleman he llegado a la solución.

Lo que no vale en un MacBook 3.1 finales 2007

  • Primero no es posible hacer <option> – <R> 
  • No es posible hacer un boot desde USB porque no tenia otro mac y los experimentos
  • con Transmac y diferentes USB no han dado resultado porque el mac no admite boot de USB con la opción <alt>

Solución

Al arrancar este Mac que estaba en alguna parte sin usarse como 4 años empecé a ver el bucle de inicio de sesión: la máquina arranca bien, pero al poner el nombre de usuario y la contraseña, el sistema se cuelga durante unos 20 segundos antes de volver a mostrar la ventana de inicio de sesión. Está claro que algo se ha estropeado, y afortunadamente he podido solucionarlo.

Intenté las soluciones sugeridas – arrancar en modo seguro e iniciar la sesión (seguía teniendo el mismo problema); ejecutar una comprobación del sistema de archivos en modo de usuario único (no se informaba de ningún error); borrar las listas de la ventana de inicio de sesión; y cambiar la contraseña – pero no tuvieron ningún efecto. Pude entrar en la cuenta de administrador temporal que doy a Apple cuando la máquina se envía para el servicio, así que supe que era algo específico de mi cuenta diaria. Pude entrar en el modo de usuario único (manteniendo pulsado Comando-S justo después del sonido de arranque) y examinar el archivo /var/log/system.log. Esto es parte de la naturaleza UNIX subyacente de MacOSX, y fue el único lugar que encontré que daba pistas sobre lo que estaba pasando. Aquí está una parte del archivo de registro que se produce justo después de pulsar retorno en la pantalla de inicio de sesión:

oginwindow[23]: USER_PROCESS: 23 console

com.apple.launchd[1] (com.apple.UserEventAgent-LoginWindow[86]): Exited: Terminated

ReportCrash[106]: Formulating crash report for process lsregister[104]

La pista clave está en negrita – el proceso de lsregister está fallando. Encontré una pista para la solución en una publicación del blog de 2003 de un tipo llamado Rick cuando dijo Después de un par de horas de búsqueda, y un poco de suerte (pude conectarme desde otra máquina y ver el registro del sistema informar de los bloqueos), descubrí que la caché de Launch Services estaba dañada, y estaba causando que lsregister fallara. Su publicación estaba relacionada con MacOSX 10.2.6, y desde entonces el nombre del archivo de caché de Launch Services ha cambiado. Lo encontré en el mismo lugar (el directorio /Library/Caches), pero ahora hay más de uno y toman la forma de «com.apple.LaunchServices-023uid.csstore» donde uid varía dependiendo del número de userid apropiado. He eliminado todos los archivos de Launch Services de /Library/Caches, he reiniciado y he podido iniciar la sesión sin problemas. El único efecto secundario fue que la lista de aplicaciones que se lanzan al iniciar la sesión desapareció (la pestaña «Elementos de inicio de sesión» del panel de preferencias de la cuenta) y tuvo que ser reconstruida.

Ahora el Mac funciona aunque no puedo hacer mucho con el… 

Recapitulando:

Arrancar con modalidad S

al root#

 /sbin/fsck -fy

/sbin/mount -uw

 

Borrar todos los ficheros : «com.apple.LaunchServices-****.csstore” en la carpeta /Library/Caches con RM (foto)

hacer otro 

 

 /sbin/fsck -fy

 

Reiniciar… y ahora el Login Loop ya ha desaparecido…

 

Los nuevos retos de la gestión de datos para el 2022 (y algunas reflexiones)

Algunas reflexiones sobre lo que está pasando dentro de las empresas en los últimos años y como algunas de ellas están enfocando las actividades para el 2022. Algunas de estas reflexiones y retos serán parte del contenido de las mesas redonda de la edición 2022 del Data Management Summit

El fin de año conlleva reflexionar sobre lo que se ha visto en el 2021 para lanzarse al vacío del 2022. El vacío porque normalmente “la vida tiene muchas más fantasías que nosotros” y el mundo empresarial está en una encrucijada muy importante. La pandemia ha supuesto la completa revisión de los procesos de trabajo distribuidos y ha sido un acelerador brutal del mundo de los datos. Hace años ya decía “no existe mi puesto” ahora existe mi lugar dentro de una organización que puede ser incluso virtual. Hace años publiqué un libro titulado “Downshifting, Decrecimiento y Empresa Desestructurada” y leerlo ahora da bastante risa porque muchas de estas “premoniciones” se han materializado. 

Todo gira alrededor del Dato…

Y aquella empresa que aún no lo ha entendido está muerta o agonizando. El dato es un activo primordial y da exactamente igual donde se trabaja. En una corporación, en un rascacielo del centro de Madrid o en mi casita de Menorca. Los profesionales se están librando del “curro” y empiezan a vivir de “proyectos”. El mundo del trabajo es dinámico y tus conocimientos de hoy no sirven para lo que viene mañana. Los datos fluyen desde que nos levantamos hasta el último de nuestros días. Muchos de nosotros ni siquiera sabemos cuántos GB generamos cada día. Es más fácil saber cuantos KW gastamos (y las facturas de las eléctricas son bien complicadas) que cuantos datos hemos estado generando, no solo en el trabajo sino en nuestro dia a dia.

Pagar por datos

La famosa frase “si es gratis tu eres el producto y no el cliente” es la que mejor define todo esto. Pero.. ¿Porque la industria, con la excusa de generar mi bienestar se queda prácticamente con todo lo que hago? En el futuro las grandes empresas se encontrarán en el medio de dos gigantes: la ética del dato y las nuevas regulaciones en materia de privacidad. Ahora no ha existido una conciencia global sobre lo que supone la cesión de tus datos pero esto va a cambiar en los próximos años. En el 2022 empezaremos a ver un nuevo fenómeno, las empresas van a ofrecer algo más a cambio, para el uso de tus datos. 

Alguien ha empezado a cuestionarse todo esto ya hace un tiempo. En su libro ‘¿Quién controla el futuro?‘, de 2013, Jaron Lanier, un personaje que parece salido de Matrix, se fijó en aquellas personas que, haciendo traducciones, ayudaron a Google a perfeccionar su traductor. Ninguno de ellos vio un euro por su trabajo, evidentemente, pero el buscador se benefició, tanto por el trabajo gratuito como por la mayor visibilidad de sus anuncios. 

“Lanier postula que la clase media está cada vez más marginada de la economía en línea. Al convencer a los usuarios de entregar información valiosa sobre sí mismos a cambio de servicios gratuitos, las compañías pueden acumular gran cantidad de datos prácticamente sin costo alguno. Lanier llama a estas empresas «servidores sirena», en alusión a las sirenas de Ulises. En lugar de pagar a cada individuo por su contribución a la base de datos, los servidores sirena concentran la riqueza en manos de los pocos que controlan los centros de datos.” (Fuente Wikipedia)

A parte iniciativas esporádicas como Datum oh Kubik Data más bien relacionada al advertising puro vamos a ver a partir del próximo año muchas empresas que están dispuestas a pagar para que nuestros datos personales y biométricos puedan ser almacenados en sus servidores.

Come cambia el Gobierno del Dato con el nuevo paradigma de la banca abierta

El nuevo entorno del Open Banking está transformando el mundo de la banca debido a un nuevo paradigma en el que los servicios financieros operan en un ecosistema completamente digitalizado. Esto ha conllevado a la completa reinvención de las prácticas y los procesos de los modelos bancarios tradicionales. Un cambio epocal hacia el Open Business y la economía basada en la completa interoperabilidad y las APIs, consecuencia, en parte, de las nuevas regulaciones como PSD2. El cambio de paradigma va a generar nuevas formas de enfocar el gobierno de datos siempre más ligado a la completa trazabilidad de los procesos. No solo roles, definiciones y metadatos sino también procesos materializados en el tiempo para satisfacer las necesidades regulatorias.

¿Cómo acelerar la adopción de Open Linked Data en el mundo de la administración pública?

Si es verdad que Open Data es el movimiento digital al que están adhiriendo paulatinamente gobiernos e instituciones de todo el mundo su adopción sigue siendo difícil. Se lanzan experimentos y portales de datos abiertos pero sin duda el punto de inflexión es el lanzamiento de las iniciativas comunitarias como el Data Governance Act: La UE está trabajando para reforzar diversos mecanismos de intercambio de datos. El objetivo es fomentar la disponibilidad de datos que puedan utilizarse para impulsar aplicaciones y soluciones avanzadas en inteligencia artificial, medicina personalizada, movilidad ecológica, fabricación inteligente y otros muchos ámbitos. 

Los Estados miembros han acordado un mandato de negociación sobre una propuesta de Ley de Gobernanza de Datos (DGA). La Ley trataría de establecer mecanismos sólidos para facilitar la reutilización de determinadas categorías de datos protegidos del sector público, aumentar la confianza en los servicios de intermediación de datos y promover el altruismo de datos en toda la UE.

Además, la DGA prohíbe vincular los servicios de intermediación con otros servicios como el almacenamiento en la nube o la analítica empresarial, servicios que están excluidos del ámbito de aplicación de la DGA. Esta medida contra la vinculación pretende evitar que las grandes plataformas tecnológicas creen un bloqueo comercial que pueda perjudicar a los competidores más pequeños.

Si saber cómo se mueven los usuarios en el metro de Madrid puede ser útil para reforzar el servicio público, el mismo dato en mano de cualquier empresa cuyo fin (y faltaría más) es el beneficio propio y de sus accionistas no es la misma cosa. Sin embargo regalamos datos continuamente para ver gatitos y delante de una pandemia no queremos colaborar. Almacenamos continuamente datos obsoletos y sin ningún sentido en una especie de síndrome de diogene digital que no cesa debido que el almacenamiento ya no es un coste tan importante. El problema es que este mismo comportamiento se hace en las empresas que no entienden que es mejor tener pocos datos de calidad que mucho sin ningún sentido, no existe algoritmo que puede ordenar y extraer conclusiones certeras de un dato sin sentido. Por esto los científicos de datos se frustran cada día limpiando datos en vez de entenderlo.

La convergencia de los diferentes modelos de calidad de datos

Sin datos de calidad es imposible tomar decisiones. Existen diferentes modelos y marcos de trabajo, desde DAMA hasta ISO. ¿Cómo medir la calidad de los datos, cómo gestionar los procesos de calidad de forma automática? ¿Cómo evitar las corrupciones de los Data Lakes? ¿Por qué no conseguimos que la calidad de los datos pueda ser un proceso horizontal dentro de la empresa? Esencialmente porque somos perezosos, desde quien atiende las llamadas en un call center hasta quien diseña el proceso de las mismas. 

Los procesos de enriquecimiento son el valor de la calidad, pero ¿cómo evitar el fenómeno garbage-in garbage-out? ¿Qué hacer con tantos datos de baja calidad?

Normalmente nos encontramos con estos inconvenientes: datos erróneos que no se corrigen, sino que se vuelven a crear, además los mismos datos son introducidos en diferentes sistemas, registros creados con valores erróneos o ausentes, falta de coincidencia entre los datos creados en diferentes sistemas, lo que hace que se tenga que hacer un trabajo adicional en fases posteriores, datos erróneos creados durante la transacción, lo que provoca una acción posterior de corrección o adición de datos, problemas de latencia entre la creación de los datos maestros y los de las transacciones y su consumo por parte de las aplicaciones de informes y transacciones posteriores

La gran pregunta quizá sea:  ¿Cómo convencer a las empresas de que el ciclo de vida de la calidad de los datos incluye la muerte de los mismos?  El GDPR lo instruye… pero ¿alguien lo pone en práctica?

¿Dónde están estos datos? Legacy, nubes, virtualización, la proliferación de fuentes de datos tan dispares ha vuelto a poner en el centro la Data Architecture.

¿Data Mesh o Data Fabric?

De la misma manera que los equipos de ingeniería de software pasaron de las aplicaciones monolíticas a las arquitecturas de microservicios, se puede decir que Data Mesh es la versión de la plataforma de datos con microservicios. El patrón de arquitectura Data Mesh adopta la ubicuidad de los datos aprovechando un diseño orientado al dominio y al autoservicio. Es evidente que quien conecta a estos dominios y sus activos de datos asociados debe ser una capa de interoperabilidad universal que aplica la misma sintaxis y los mismos estándares de datos, impulsados una gestión proactiva metadatos y datos maestros con el apoyo de un catálogo de datos empresarial y su gobierno. El patrón de diseño de la Data Mesh está compuesto principalmente por 4 componentes: fuentes de datos, infraestructura de datos, conductos de datos orientados al dominio e interoperabilidad. La capa crítica es la capa de interoperabilidad universal, que refleja los estándares agnósticos de dominio, así como la observabilidad, la procedencia, la auditabilidad y la gobernanza.Sobre la auditabilidad tenemos un problema cuando el enfoque es totalmente virtual ya que el regulador puede pedirnos de auditar datos y procesos en el tiempo, en algún lugar tendrá que persistir los datos y por ello en entornos fuertemente regulado al enfoque Data Fabric tiene mas logica. 

Data Fabric fomenta una única arquitectura de datos unificada con un conjunto integrado de tecnologías y servicios, diseñado específicamente para ofrecer datos integrados, enriquecidos y de alta calidad, en el momento adecuado, con el método correcto y al consumidor de datos adecuado. 

Según Gartner, Data Fabric es una arquitectura y un conjunto de servicios de datos que proporciona una funcionalidad consistente en una variedad de entornos, desde las instalaciones hasta la nube. Data Fabric simplifica e integra la gestión de datos en las instalaciones y en la nube acelerando la transformación digital.

Al menos tres de los pilares estrechamente interconectados identificados por Gartner para el tejido de datos están directamente relacionados con los metadatos:

Catálogo de datos aumentado: un catálogo de información disponible con características distintivas destinadas a apoyar un uso activo de los metadatos que pueda garantizar la máxima eficiencia de los procesos de gestión de datos;

Gráfico de conocimiento semántico: representación gráfica de la semántica y las ontologías de todas las entidades implicadas en la gestión de los activos de datos; obviamente, los componentes básicos representados en este modelo son los metadatos;

Metadatos activos: metadatos útiles que se analizan para identificar oportunidades de tratamiento y uso más fácil y optimizado de los activos de datos: archivos de registro, transacciones, inicio de sesión de usuarios, plan de optimización de consultas.

Cuando el Data Fabric está centrado en los metadatos nos proporciona todas las demás ventajas que son muy importantes a la hora de priorizar las medidas sobre los activos de datos.

Sea Data Fabric o Data Mesh han venido para cambiar completamente el modo de diseñar la arquitectura de datos.

El valor del dato el fulcro de la gestión

Desde la aparición del libro Infonomics de Doug Laney nos hemos dado cuenta que un activo se llama así porque supone un valor. Si antes solo nos centrabamos en la utilidad de este activo ahora nos estamos dando cuenta que tiene un valor monetario.

Si damos un valor a todos los datos, y especialmente a los metadatos, podremos responder a preguntas muy interesantes como ¿Cuáles son los propietarios de datos que gestionan los datos más valiosos para la empresa? ¿Cómo debemos priorizar las acciones de calidad en función del valor que representan estos activos de datos? Si una herramienta de gobernanza tiene el paradigma de Governance by Design, nos permite dar un valor interno (es decir, de la organización) y externo en función de la pérdida de este activo o la venta del mismo. ¿Cuánto valen los datos del cliente para nuestro competidor?

Data Governance y Data Valuation siempre van a ir de la mano. 

Las empresas están llenas de datos que no analizan y sobre todo no procesan de forma transversal. Si una compañía aérea solo se centra en analizar sus ventas directa y en el canal y gobierna los dominios de forma vertical está perdiendo mucha información. ¿Qué pasa cuando el número de pasajeros se confrontan con el departamento de operaciones o en el mantenimiento de los aviones? Unas pocas décimas de ahorro en operaciones puede valer tanto como un incremento de pasajeros. Ahorro de costes sin influir sobre el personal y sin renunciar a la seguridad es posible. Los números siempre nos dicen la verdad sea la que encontramos sea la que queremos encontrar (y esto es lamentable).

El problema de los sesgos en la gestión de datos

Desde que tengo Netflix encuentro auténticas perlas de conocimiento. A parte los documentarios sobre Miles Davis o Marcus Miller (uno de los dos quizá sea en Amazon Prime) he visto “Coded Bias” de Joy Buolamwini, una científica informática que descubrió que su cara no era reconocida por un sistema de reconocimiento facial mientras desarrollaba aplicaciones en un laboratorio del departamento de ciencia de la computación de su universidad, a partir de allí descubrió que los datos con los que entrenaron aquel tipo de sistemas eran principalmente de hombres blancos. Esto explicaba por qué el sistema no reconocía su cara afroamericana. El problema no son los datos.

La verdad es que estos sistemas, creados en los años 70, fueron concebidos con el fin de identificar a sospechosos contrastando fotografías contenidas en bases de datos policiales. Incluso hoy en día los sistemas policiales de reconocimiento facial se construyen con bases de datos históricas. No toman en consideración que muchos datos son incompletos, sesgados, reflejo de detenciones ilegales y de racismo policial, lo cual explica, además, que la prevención de delitos mediante esta tecnología posea un alto margen de error.

Y no es todo, la tecnología de reconocimiento facial fue desarrollada gracias al incremento exponencial de caras que se podían obtener desde la Web. Es decir, se hizo sin el consentimiento de las personas. Su uso no fue ético, lo que inhabilitaba desde el comienzo a casi todos estos sistemas. Tengamos claro que la IA sólo nos beneficiará en la medida en que su diseño y uso no perpetúen ni amplifiquen injusticias sociales.

Salta a la vista la sanción que Mercadona tuvo que pagar recientemente por un experimento piloto que desarrolló en 48 tiendas. Según explica la propia compañía, el sistema «aplicaba un filtro tecnológico y una segunda verificación visual establecía que la persona identificada tenía una orden de alejamiento vigente del establecimiento».

Sin embargo, la AEPD ha concluido que se ha vulnerado el Reglamento General de Protección de Datos. En concreto el artículo 6 (Licitud del tratamiento) y el artículo 9 (Tratamiento de categorías especiales de datos personales).¿Cómo diferenciaba el sistema de Mercadona quienes tenían orden judicial? La empresa se basaba en sus propios juicios contra quienes hurtaban y solicitaban al juez que se decretara precisamente esta medida. Quizá una «buena idea», pero donde la AEPD les imputa el hecho de haber empezado antes de realizar la evaluación de impacto. Un informe de impacto donde no se valoraron los riesgos respecto a los propios trabajadores de la empresa y el de los clientes vulnerables como menores, Según la Agencia, se trataban datos biométricos sin base suficiente ni se cumplían los requisitos básicos de interés público objetivo.

Pero el problema de los sesgos no solo aplica al reconocimiento facial sino hasta en la forma de querer interpretar datos. Algunos ejemplos: Nos fijarnos más en cosas que están asociadas con conceptos que usamos mucho o recientemente. En otras palabras, hacemos asociaciones que no siempre son correctas. A veces buscamos patrones e historias en datos dispersos, aun cuando no haya conexión real. Otro ejemplo es simplificar cálculos y probabilidades, lo que se traduce en soluciones fáciles (y la mayoría de las veces erróneas) para problemas complejos.

Si ya nosotros generamos Sesgos todo esto se está transladando a nuestros algoritmos y los resultados serán erroneos: persona de color que Facebook interpreta como “monos” o deduciones de riesgos en entidades financieras basadas en reglas de negocio erronea “si esta mujer esta separada va a tener menos ingresos, etc.”

Gaia X: que no sea una carta a los Reyes Magos

Una de las iniciativas estratégicas más importantes a nivel de gestión de datos es contrastar el poderío de las empresas norteamericanas en el monopolio del cloud. La Comunidad Europea se ha metido las pilas sobre todo porque, incluso China, ha empezado a desarrollar su propia infraestructura en la nube.

El Ministerio de Asuntos Económicos y Transformación Digital, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, está impulsando la creación de un hub nacional de Gaia-X, cuyo objetivo es acelerar la capacidad europea en materia de compartición de datos y soberanía digital. 

El objetivo de esta iniciativa es desplegar un ecosistema sólido en el ámbito de la compartición de datos, principalmente industriales. Con ello, además, España aspira a liderar espacios de datos en sectores estratégicos como sanidad o turismo. 

Este ecosistema debería convertirse en el referente donde las industrias sectoriales acudan para crear comunidad en torno al dato, busquen nuevas soluciones y fomenten la innovación basada en datos e IA en su sector. 

Mientras tanto, muchas empresas que habían iniciado la aventura de Gaia-X con mucho entusiasmo parecen haberse desilusionado. Muchos se quejan de la excesiva burocracia de Gaia-X. El proyecto europeo de la nube era cada vez más complejo y amenazaba con abrumar a las empresas. Este 2022 tiene que presentar un cambio de marcha en el proyecto. Los europeos no podemos perder el tren del futuro.

El 2022 Gartner ha señalado estas diferentes TOP Trend Tech

  • Generative Artificial Intelligence (AI)
  • Data Fabric (de esto hemos hablado ampliamente en este artículo)
  • Cloud-Native Platforms (CNPs)
  • Autonomic Systems
  • Decisión Intelligence (DI)
  • Composable Applications
  • Hyper Automation
  • Privacy-Enhancing Computation (PEC)
  • Cybersecurity Mesh
  • AI Engineering
  • Total Experience (TX)
  • Empresa distribuida

Con el aumento de los modelos de trabajo remoto e híbrido, las organizaciones tradicionales centradas en la oficina están evolucionando hacia empresas distribuidas compuestas por trabajadores dispersos geográficamente.

«Esto requiere que los CIOs realicen importantes cambios técnicos y de servicio para ofrecer experiencias de trabajo sin fricción, pero hay otra cara de la moneda: el impacto en los modelos de negocio. Para todas las organizaciones, desde el comercio minorista hasta la educación, su modelo de entrega tiene que configurarse para adoptar los servicios distribuidos” según Gartner.

La pandemia ha sido el gran acelerador de la transformación digital ampliando la brecha entre quien han salido beneficiados y quien se han perdido completamente. La visión de todos los bares y restaurantes vacíos alrededor de Plaza Picasso a Madrid nos ha hecho reflexionar “sirve tener una oficina en el centro de Madrid?”. Cuando Smart Working sea el modelo aplicado al 80% de la semana laboral quien llenará estos lugares? Tiene sentido alquilar unas oficinas de 10 plantas en un rascacielo de Madrid para tenerlas vacías? Quizá dos plantas serán suficientes? El Smart Working ha venido para quedarse. 

Conclusiones…

Vuelvo a mi experimento literario de hace unos años citando a mi mismo que es bastante triste…

Estamos en un entorno inestable, hemos estado pasándolo bien un rato. Pero las cosas han cambiado tenemos que movernos de la zona de la comodidad a la zona de inquietud. Debemos entender que hay nuevos paradigmas y nuevas formas de ver las cosas. Tenemos que actuar y dejar de lloriquear en el recuerdo de qué bonito era esto antes, de que cómodo era tener un sueldo fijo a final de mes, que cómodo era comprarse lo que no podíamos permitirnos, la crisis nos ha librado de muchas esclavitudes y como decía Einstein la única crisis es la crisis de la incompetencia. Incompetencia laboral, ética y política y el fracaso del sistema entendido como “yo existo, gasto y pretendo”.

Ser libre de las nóminas quiere decir asumir riesgos, ser libre de las nóminas quiere decir ser libres de vivir nuestra vida de la forma que más nos complazca y haciendo lo que nos gusta. Con nuestro ritmo y no encauzados en ritmos de otros.

La falsa seguridad que el sistema nos brinda sirve para no hacernos pensar. El miedo al fracaso, el miedo a no poder tirar para adelante nos congela. Y el miedo es el más eficaz inhibidor del cambio. Por esto no cambiamos.

 “El dinero es el estiércol del demonio” pero lo necesitamos para sentirnos personas. Esto es absurdo. Nosotros pagamos el precio de la seguridad perdiendo parte de nuestro cerebro. 

Pero no queremos una vida frugal. Queremos parecer no ser. Queremos que los demás tengan de nosotros una imagen de éxito. Por ello no vivimos realmente nuestras vidas, buscamos continuamente vivir la vida de otros, compramos, consumimos sin ningún respeto, sin ninguna lógica.”

La inestabilidad es la regla

En lo laboral y en lo profesional. Esto me excita muchísimo. He estado reinventándome por lo menos 5 veces en mi vida. Este 2022 va a ser lo de siempre: “Destination Unknow”.

Disfrutemos de los disruptivos, actuemos contra el miedo, bailemos con el caos y sobre todo aprendamos a gestionar los datos. Sin sesgos, sin prisas pero sin pausas. Los datos son la brújula en el mar de la tempestad que supone el cambio continuo. Feliz 2022.

La arquitectura de Datos según DAMA

Según DAMA, el objetivo de la Arquitectura de Datos es ser un puente entre la estrategia comercial y la ejecución de la tecnología, porque la  Arquitectura de Datos es más valiosa cuando apoya completamente las necesidades de toda la empresa.

La arquitectura se refiere a una disposición organizada de elementos componentes destinados a optimizar la función, el rendimiento, la viabilidad, el coste y la estética de una estructura o sistema global. Dentro del mundo de los datos mas específicamente, hablamos de arquitectura, cuando, tenemos que lidiar, gestionar, mitigar toda la complejidad de la información.

El término arquitectura se ha adoptado para describir varias facetas del diseño de los sistemas de información. ISO/IEC 42010:2007 Ingeniería de Sistemas y Software – Descripción de la Arquitectura (2011) define la arquitectura como «la organización fundamental de un sistemaencarnado en sus componentes, sus relaciones entre sí y con el medio ambiente, y los principios que rigen su diseño y evolución«.

Multidominio de la Arquitectura

La práctica de la arquitectura se lleva a cabo en diferentes niveles dentro de una organización (empresa, dominio, proyecto, etc.) y con diferentes áreas de enfoque (infraestructura, aplicación y datos).

La disciplina de la Arquitectura Empresarial abarca arquitecturas de dominio, incluyendo negocios, datos, aplicaciones y tecnología. Las prácticas de arquitectura empresarial bien gestionadas ayudan a las organizaciones a comprender el estado actual de sus sistemas, promover el cambio deseable hacia el estado futuro, permitir el cumplimiento de la normativa y mejorar la eficacia. DAMA y el DmBok2 entiende la arquitectura de la información desde las siguentes perspectivas:

Los “Outcomes” de la Arquitectura de Datos, tales como los modelos, definiciones y flujos de datos en varios niveles, usualmente referidos como artefactos de la Arquitectura de Datos

Actividades de la Arquitectura de Datos, para formar, desplegar y cumplir las intenciones de la Arquitectura de Datos

La ontologia de la Arquitectura de Datos y su impacto en la organización, como colaboraciones, mentalidades y habilidades entre los diversos roles que afectan a la Arquitectura de Datos de la empresa

Debido a que la mayoría de las organizaciones tienen más datos de los que las personas individuales pueden comprender, es necesario representar los datos de la organización en diferentes niveles de abstracción para que puedan ser comprendidos y la administración pueda tomar decisiones al respecto

Los artefactos de la arquitectura de datos

Los artefactos de la Arquitectura de Datos incluyen especificaciones utilizadas para describir el estado existente, definir los requisitos de datos, guiar la integración de los datos y controlar los activos de datos tal como se presentan en la estrategia de datos (que se supone alguien ya ha diseñado). La Arquitectura de Datos de una organización se describe mediante las normas que rigen la forma en que se recogen, almacenan, organizan, utilizan y eliminan los datos.

Si el primer punto de cualquier estrategia de datos es entender cuales son los activos actuales de la organización desde la perspectiva del negocio, el segundo punto será entender como nos organizamos, el tercer punto sin duda es el conocimiento de  arquitectura técnica (ya no desde la perspectiva de negocio) en su diseño y a partir de una gestión pro-activa de los metadatos.

DAMA recomienda redactar un documento de diseño de la Arquitectura de Datos. Es un modelo formal de datos de la empresa, que contiene nombres de datos, definiciones completas de datos y metadatos, entidades y relaciones conceptuales y lógicas, y reglas de negocio. Se incluyen modelos de datos físicos, pero como producto del modelado y diseño de datos, en lugar de la Arquitectura de Datos.

Los artefactos que crean los arquitectos constituyen valiosos metadatos.  Lo ideal sería que los artefactos arquitectónicos se almacenaran y gestionaran en un repositorio de artefactos de arquitectura empresarial.

Las organizaciones con visión de futuro deberían incluir a profesionales de la gestión de datos (por ejemplo, los arquitectos de datos empresariales o los administradores de datos estratégicos) cuando diseñen nuevas ofertas de mercado, porque hoy en día éstas suelen incluir hardware, software y servicios que capturan datos, dependen del acceso a los datos, o ambos.

Desde mi perspectiva,  un proceso de gestion de producto siempre necesita el enfoque multiple que solo un equipo multidisciplinario puede facilitar. Una especie de “Comunidad del Anillo” acostumbrada a trabajar en equipo sin dispersion, sin recelos y sin silos de información estancos que son el freno del conocimiento empresarial.

Según el DMBok2, el objetivo de la Arquitectura de Datos es ser un puente entre la estrategia comercial y la ejecución de la tecnología. Como parte de la Arquitectura Empresarial, los Arquitectos de Datos:

  • Preparar estratégicamente a las organizaciones para hacer evolucionar rápidamente sus productos, servicios y datos a fin de aprovechar las oportunidades comerciales inherentes a las tecnologías emergentes
  • Traducir las necesidades comerciales en requisitos de datos y sistemas para que los procesos tienen sistemáticamente los datos que requieren
  • Gestionar la entrega de datos e información compleja en toda la empresa Facilitar la alineación entre el negocio y la TI
  • Actuar como agentes de cambio, transformación y agilidad

Estos impulsores de negocios deberían influir en las medidas del valor de la Arquitectura de Datos.

Los arquitectos de datos crean y mantienen el conocimiento organizacional sobre los datos y los sistemas a través de los cuales se mueven. Este conocimiento permite a una organización gestionar sus datos como un activo y aumentar el valor que obtiene de sus datos mediante la identificación de oportunidades para el uso de los datos, la reducción de costos y la mitigación de riesgos.

El articulo completo aquí.