Data Sprint
Nous faisons appel à l’intelligence collective et le design thinking, afin d’accélérer la résolution de problèmes complexe et l’alignement de vos équipes.
Temps estimé 1 à 2 jours
Approche
Sponsors meeting
- Comprendre de manière rapide les besoins, les objectifs et les contraintes du Sprint (workshop)
- Constituer l’équipe du sprint (les parties prenantes et le décideur du Sprint)
- Design et préparation du Workshop
Workshop
- Mapping des objectifs et contraintes
- Priorisation des objectifs et contraintes
- Co-design d’une solution (prétotypage ou prototypage)
- Mise en commun des solutions et vote des parties prenantes
- Vote du décideur
Confronter les utilisateurs finaux
- Tester la solutions choisie avec 5 utilisateurs
- En fonction des résultats, démarrage du projet ou adaptation à faire…
Synthèse
- Synthèse du workshop et des feedback utilisateurs
- Rédaction des recommandations (notées par complexité et importance)
Avantages
Que ce soit pour le recueil des besoins utilisateurs, la définition d’un prototype rapide de tableaux de bord, ou des test utilisateurs de validations préalables au démarrage d’un projet data complexe.
Nous facilitons le démarrage des projets par la facilitation d’une séquence de workshop de CoDesign, rassemblant l’ensemble des parties prenantes nécéssaires au bon démarrage de vos projets Data. Que ce soit les utilisateurs métiers, les équipes techniques ou des fonctions transversales comme le marketing, les ventes…
Nos ateliers d’une durée de 2 heures chacun permet en réunissant une petite équipe d’experts qui co-design autour d’une problématique un prototype qui sera testé par les utilisateurs.
Ensemble, faisons converger les besoins de vos utilisateurs avec vos objectifs métier en créant des solutions digitales ergonomiques, esthétiques et efficaces.
Livrables
- Synthèse du workshop
- Plan d’actions concret à démarrer
Options :
- Prétotype / Prototype d’un Dashboard
- Cahier des charges fonctionnel
Flux ETL
Analyse des flux de données et traitement global de l’information
Temps estimé de 2 à 4 jours
Approche
Rencontre avec le chef de projet data ou équivalent
- Comprendre de manière rapide l’activité de la société
- Avoir une overview des outils de l’entreprise
Rencontre avec développeur ETL
- Connaissances des tâches quotidiennes
- Connaissance sur méthodologie utilisée pour les flux de données
- Analyse rapide du modèle source de l’application clef
Rencontre avec utilisateur final
- Estimation de la couverture des besoins actuels avec outils disponibles
- Estimation des manques potentiels
Synthèse
- Rédaction des recommandations (notées par complexité et importance)
Critères d’évaluation
Respect des best-practices en terme de design et d’implémentation des flux, soit : indépendance, autonomie, portabilité, déploiement, documentation, contrôles qualité associés, etc…
Livrables
- Synthèse du workshop
- Plan d’action concret à démarrer
Options :
- Prétotype / Prototype d’un Dashboard
- Cahier des charges fonctionnel
Data-HUB
Analyse du modèle de données et de sa gestion
Temps estimé de 2 à 4 jours
Approche
Rencontre avec le chef de projet data ou équivalent
- Comprendre de manière rapide l’activité de la société
- Avoir une overview des outils de l’entreprise
Rencontre avec développeur ETL
- Connaissances des tâches quotidiennes
- Analyse détaillée du modèle du DataHub
Rencontre avec utilisateur final
- Estimation de la couverture des besoins actuels avec outils disponibles
- Estimation des manques potentiels
Synthèse
- Rédaction des recommandations (notées par complexité et importance (impact)
Critères d’évaluation
Respect des best-practices en terme de design et d’implémentation du modèle, soit : conventions de nomenclature, standardisation du typage, implémentation des différentes couches de données, traçabilité, performances, disponibilité, journalisation, contrôles qualité, etc…
Livrables
- Etat des lieux de l’existant (besoins vs manques)
- Carnet de recommandations notées par :
– complexité de mise en oeuvre
– importance sur la gestion de votre DataHub (impact)
Qlik
Analyse de l’utilisation de l’outil Qlik
Temps estimé de 2 jours
Approche
Rencontre avec le chef de projet data ou équivalent
- Comprendre de manière rapide l’activité de la société
- Avoir une overview des outils de l’entreprise
Rencontre avec développeur QliK
- Connaissances des tâches quotidiennes
- Analyse détaillée du chargement des données
- Analyse détaillée du développement des applications
Rencontre avec utilisateur final
- Estimation de la couverture des besoins actuels avec outils disponibles
- Estimation des manques potentiels
Synthèse
- Rédaction des recommandations (notées par complexité et importance (impact)
Critères d’évaluation
Respect des best-practices en terme de design et d’implémentation des applications Qlik, soit : modélisation, dictionnaire de données, qualité des scripts, sécurité, externalisations, standardisation des process de réactualisation, gestion des erreurs, etc…
Livrables
- Etat des lieux de l’existant (besoins vs manques)
- Carnet de recommandations notées par :
– complexité de mise en oeuvre
– importance sur votre utilisation de Qlik (impact)
Data Maturity
Evaluation de votre maturité Data
Temps estimé 2j dont 2 x 2h avec le porteur de projet
Approche
Revue 360°
- Echange basé sur un questionnaire avec le porteur du projet. Nous faisons un état des lieux sur les différents domaines du data management dans votre entreprise (gouvernance, architecture, qualité, MasterData, sécurité, risque…
Formalisation
- Ebauche d’un plan de progrès et élaboration de votre stratégie data en fonction de vos priorités « business ».
Revue et finalisation
- Premières recommandations contextualisées par rapport aux bonnes pratiques et à l’état de l’art du data management.
Objectif
L’objectif de l’évaluation de votre maturité data est de mesurer l’état actuel des activités critiques de gestion des données afin de planifier leur amélioration.
L’évaluation place votre organisation sur une échelle de maturité en clarifiant les forces et les faiblesses spécifiques. Elle aide l’organisation à identifier, prioriser et mettre en œuvre les opportunités d’amélioration
Livrables
Document reprenant les chapitres suivants:
- Contexte, objectif et périmètre de l’évaluation
- Description de l’approche convenue
- Les parties prenantes / ressources
- Comptes rendus des interviews
- Notation finale pour chaque thème évalué
- Rapport d’évaluation
- Feuille de route « Data »
- Cliquer ici pour obtenir un aperçu de notre démarche
Data Quality
Cadrage de la démarche Quality Management
Temps estimé 1,5j dont 2 x 3h avec le porteur de projet
Approche
Revue 360° de votre problématique Data Quality et de la démarche DQM
- Echange basé sur un questionnaire avec le porteur du projet. Cela permet de collecter les informations nécessaires, de bien comprendre vos particularités et votre contexte.
Formalisation
- Nous formalisons un 1er draft du livrable.
Revue et finalisation
- Revue et finalisation du livrable avec le porteur de projet.
Objectif
Cette activité de cadrage a pour but :
– de formaliser ensemble le contexte, les enjeux et les problématiques rencontrés autour de la Qualité de vos données.
– de déterminer ensemble les objectifs, le périmètre, les acteurs, les sponsors pour la démarche de Data Quality Management.
– de déterminer le déroulement, les principales activités de la démarche DQM, son macro-planning, l’évaluation des risques et la charge interne et le niveau d’accompagnement nécessaire
Livrables
Document reprenant les chapitres suivants:
- Contexte, objectif et périmètre de la DQM
- Description de l’approche convenue
- Les parties prenantes / ressources
- Macro-planning, les charges et les livrables
- Risques & Facteurs clés de succès
Data Exploitation Core Banking
Notre expérience du terrain vous permettra de faciliter l’exploitation de vos données en vous garantissant un rapport d’expertise détaillé de vos activités.
Temps estimé 2j.
Approche
Objectif
- Formaliser ensemble le contexte, les enjeux et les problématiques rencontrés autour de la qualité de vos données.
- Déterminer ensemble le périmètre et les acteurs pour la démarche de Data Quality Management.
- Mesurer les risques à travers des indicateurs de performances KPI.
- Garantir un accompagnement et un suivi sur mesure.
Analyse de l’existant
- Validation des composantes du plan d’actions.
- Analyse sur la qualité et l’exploitation de vos données
- Mapping des objectifs et contraintes identifiés.
Consolidation
- Priorisation des objectifs et contraintes en commun.
- Etat des lieux avec indicateurs radars.
- Recommandations & Estimation des manques potentiels.
Avantages
Cette activité de cadrage a pour but :
– Tirer profit d’une rapide cartographie sur l’exploitation des données issues des Core Banking.
– Disposer de recommandations & axes d’amélioration.
– Profiter de notre expertise terrain.
– Bénéficier d’un accompagnement et d’un suivi dédié à vos besoins.
Livrables
Document reprenant les chapitres suivants:
- Plan d’actions valider ensemble
- Rapport d’expertise avec les Risques & Facteurs clés de succès
- Cliquer ici pour obtenir un aperçu du rapport d’expertise