De l’analyse des données ou analyse décisionnelle, nous sommes passés aujourd’hui à la « Science de la donnée », encore appelée Data Factory, grâce à l’apparition des technologies Big Data, offrant de nouvelles perspectives de modélisation et de prédiction. Ce séminaire passera en revue l’écosystème d’analyse des données existant, pour faire du gisement des données de l’entreprise une réel levier de croissance.

Description

Durée : 28 heures
Modalités techniques d’évaluation : Évaluation des connaissances par QCM, évaluation des compétences au travers de travaux pratiques et de cas d’études. Contrôle de l’acquisition des connaissances et des compétences pendant la formation par le formateur.
Moyens pédagogiques : Apports théoriques réalisés en classe et complétés par de nombreux travaux pratiques permettent aux participants de disposer d’une expérience concrète. A l’issue des sessions magistrales, réalisation de cas d’études tutorés.

Objectifs pédagogiques

À l’issue de la formation, le participant sera en mesure de :

  • Comprendre la valeur ajoutée, les enjeux et les principes des systèmes décisionnels
  • Mélanger la modélisation décisionnelle classique et le mode découverte
  • Mettre en œuvre une démarche pour concevoir un référentiel des données d’entreprise
  • Intégrer le Big Data dans le SID pour bâtir la Data Factory
  • Suivre pas à pas les étapes pour piloter son projet SID
  • Faire les bons choix d’outils en ayant un panorama global du marché

Exemple

Un exemple complet de mise en œuvre d’un système d’information décisionnel sera traité.
PROGRAMME DE FORMATION

Finalité et principes des SID

  • Positionnement du SID par rapport au Big Data et au SIO (Système d’Information Opérationnel).
  • Tendances et évolutions du décisionnel. Data Lake versus Datawarehouse.
  • Nouveaux enjeux : valorisation de l’information, corrélation rapide.
  • L’architecture d’un SID.
  • Les choix stratégiques d’architecture : intégration du Data Lake.
  • Nouvel équilibre entre modélisation préalable et analyse dynamique.

Démarche de conception du SID, impact du mode découverte

  • La typologie universelle des demandes sur un SID autour du pilotage et de l’analyse comportementale prédictive.
  • Maîtriser le processus de conception des datamarts et des datalabs.
  • Comment passer de datamarts en silo à un SI ouvert à la BI découverte et au Big Data ?
  • Cohérence des modèles en étoile : multidimensionnel. Analyse en mémoire contre modèle en étoile. Modèle du datalab.
  • Dénormalisation NoSQL versus dénormalisation décisionnelle classique.
  • Différence entre analyse multidimensionnelle et prédictive.
  • Eviter le foisonnement d’agrégats et indicateurs en réutilisant les développements.
  • Concevoir une architecture mixte BI classique-BI découverte-Analytique dynamique.

Etude de cas
Proposer une démarche de conception à partir de besoins d’analyse.

Construire les référentiels

  • Comment faciliter l’accès aux informations ? Réconcilier MOA, MOE autour du référentiel.
  • Construire le référentiel d’entreprise. Les dimensions d’analyse et les indicateurs partageables.
  • Construire une architecture couvrant toutes les étapes, du pilotage à l’analyse des comportements.
  • Construire les dictionnaires pour le SID, utiliser les métadonnées pour gérer la cohérence.

Etude de cas
Déploiement des méthodes proposées sur des exemples.

Optimiser l’accès aux données

  • Comment répondre aux besoins et définir les réponses informatiques optimales ?
  • Le multidimensionnel, ROLAP, MOLAP ou Hybride : les critères de choix, les évolutions futures.
  • Le multidimensionnel in-memory.
  • Organiser son Data Lake. Construire les Datalabs.
  • Appliquer une normalisation décisionnelle à vos modèles en étoile.

Mesurer la valeur du SID

  • Faire de son SID un levier de la stratégie d’entreprise.
  • Réunir les cas d’usage en process décisionnels.
  • Urbanisation du SID : éviter trop de traitements et des couches sémantiques surchargées.
  • Identifier les zones éligibles au Cloud Computing.
  • Cartographier son SID pour lier finalité d’usage et données utilisées pour le RGPD.
  • Définir les critères d’efficacité d’un SID.
  • Piloter la valeur des données.

Big Data en mode industriel

  • Principaux types de cas d’usage.
  • Problème de l’industrialisation des projets Big Data.
  • Check-list des recommandations.
  • Analytique – prédictif temps réel et streaming (CEP Complex Event Processing).

État de l’art des outils décisionnels

  • Lier ou fusionner son Data Lake et son Datawarehouse pour créer la Data Factory.
  • Panorama des suites décisionnelles : SAS, Microsoft, SAP B.O…
  • Degré d’intégration du mode découverte, de l’analytique et de la data visualisation.
  • ETL. Outils multidimensionnels. Déploiement Web.
  • Big Data intégré au SID. BD NoSQL. BD NewSQL. Cohabitation entre les différentes Bases de Données.
  • Analyse en mémoire. Appliance ou Commodity Hardware.
  • Positionnement de l’écosystème Hadoop dans l’analyse du comportement client.
  • Basculer le SID sur une BD NoSQL, NewSQL ou intégrer les approches ?
  • Combiner une solution Agile de data-discovery et des capacités d’industrialisation de la BI.

Etude de cas
Déterminer votre trajectoire d’évolution vers une architecture intégrée.

Opportunité et création de valeur pour l’entreprise

  • Evaluer la valeur ajoutée pour l’entreprise et la conduite du changement utile.
  • Gérer son portefeuille de projets, les prioriser. Critères de lotissement.
  • Spécificités d’un projet décisionnel et d’un projet Big Data.
  • Techniques d’analyse de besoin en décisionnel : pièges à éviter.
  • Comment évaluer la complexité, la maturité des besoins ?
  • Conduire le passage du décisionnel classique au mixte classique-analytique en mode libre.

Organisation de la gouvernance : équipes – process – données

  • Différents acteurs et rôles respectifs. Nouvelle relation entre métiers et IT.
  • Leviers de la BI découverte, du Big Data et de la Datascience.
  • Positionner le décisionnel au sein de l’entreprise. Organiser la gouvernance, la cohérence globale des données.
  • Créer une organisation cohérente et pluridisciplinaire.
  • Préserver l’autonomie des utilisateurs. Gérer la réactivité.
  • Intégrer les métiers dans le pilotage de la valeur : données et cas d’usages.
  • Organiser la Data Factory. Administrer les composants du SID.
  • Garantir la fiabilité des données et des informations.
  • Mettre en place le processus de la gestion de la qualité et de la véracité.
  • Définir les contrôles qualité minimum. Définir le phasing des contrôles.
  • Impact de la réglementation RGPD sur la sécurité d’accès aux données.