L’utilisation du Low code dans le pipeline de la donnée

colourful-pins-copy-space-map

Dans quel contexte l'utilisation du Low code est pertinente ?

Le Low code (voire le No code) est une promesse de gain dans le Time-to-Market du déploiement de nouvelles applications.

Cette promesse est d’autant plus précieuse que l’écosystème IT de l’entreprise doit couvrir des périmètres de plus en plus nombreux, en lien avec la digitalisation des fonctions.

Pour autant, ce ‘modèle’ irrite parfois certains informaticiens experts qui le perçoivent comme une fausse bonne idée.

La digitalisation se déploie de plus en plus à travers des processus transverses qui nécessitent de mettre en œuvre un parcours de la donnée, aussi intitulé “pipeline de données”.

Distinguons 2 cas de figure…

1. Le déploiement de services performants pour les métiers

Les priorités doivent être : 

▶︎ Proposer une grande richesse fonctionnelle nativement accessible

▶︎ Permettre aux acteurs métiers de gouverner leur périmètre : définir des règles, gérer les droits, créer des workflows …

▶︎ Offrir à ces mêmes acteurs de pouvoir transformer les données : corriger, importer des fichiers, exporter selon un format d’entreprise …

▶︎ Offrir des écrans ergonomiques et conviviaux que l’on va pouvoir personnaliser

▶︎ Inclure un module de reporting simple à personnaliser pour l’analyse et le dash-boarding

▶︎ Embarquer le plus d’utilisateurs dans une solution commune, où la formation des entrants est facilité.

✅ On le voit, le Low-code est une contribution parfaite à ces ambitions : il permet de bénéficier de solutions riches, partagées et évolutives.

❌ Attention : la richesse fonctionnelle native, inclue dans de nombreux modules nécessite le plus souvent une première implémentation par des experts de la solution avec une vraie sensibilité métier.

Le transfert vers des équipes internes autonomes est le plus souvent un 2ème temps qui suit l’intégration en mode projet.

2. La construction d'un socle pour l'entreprise

Relativement agnostique aux uses cases métiers, elle répond au challenge de mettre à disposition des données fiables aux bons acteurs selon une temporalité en phase avec les besoins opérationnels.

De plus en plus d’entreprises déploient ainsi leurs plateformes Data, dont l’objectif premier est le remplacement du DWH (Data Warehouse), mais qui iront plus loin en facilitant le partage des données à destination de divers départements métiers.

Ces plateformes intègrent des pipelines de données parallèles, souvent dédiés chacun à un domaine métier.

Les priorités sont d’abord de répondre à des challenges technologiques :

▶︎ Le premier est de rendre les données disponibles (qualité et accessibilité). Les données doivent être requêtables et exposées

▶︎ La performance est au 2nd rang des préoccupations pour concilier volumes de données et exigences d’une temporalité basées le plus souvent sur un fil de l’eau évènementiel.

▶︎ Des traitements apportent de la valeur ajoutée aux données : indicateurs, enrichissement par des prestataires ou via le Machine Learning

▶︎ La gouvernance au sens des droits d’accès, de la traçabilité est aussi un élément nécessaire à piloter

▶︎ Enfin, le monitoring et son corollaire “l’observabilité” sont les mesures d’une infrastructure maîtrisée.

Conclusion

Par opposition au premier cas, l’implémentation de tels pipelines au sein de plateformes d’entreprises est le terrain de jeu naturel de Data Engineers et de leur dextérité dans des langages de plus en plus performants.

N’oublions pas, à ce propos, l’arrivée de l’IA générative pour faciliter le code applicable à des périmètres de plus en plus complexes.

Ne manquez pas la 1ère partie du blog “Pipeline de données” !

NOTRE EXPERTISE AU SERVICE
DE VOS MÉTIERS