Ministère de l’Enseignement Supérieur et de la Recherche Scientifique Université de Tunis Institut Supérieur de Gestion Rapport de Projet de Fin d’études Pour l’obtention de la Licence Appliquée en Informatique Décisionnelle Mise en place d’un système décisionnel de suivi et de controle de planning promotionnel des grandes et moyennes surfaces GMS Entreprise d’accueil : Poulina Group Holding Elaboré par : Ali MEZGHENNI & Nesrine TOUMI Encadrant académique : Encadrant professionnel : Mme. Nadia YAACOUBI Mme. Ons BOUTIT Année universitaire : 2018 - 2019 Dédicace Je dedie ce modeste travail à ma tres chère famille qui m’a toujours soutenu Je dois à mes parents ce que je suis aujourd’hui et ce que je serai demain, et je ferai toujours de mon mieux pour rester leur fierté et ne jamais les décevoir Nesrine TOUMI ii Dédicace A mes chers parents, pour tous leurs sacrifices, leur soutien et leurs prières tout au long de mes études. Ali MEZGHENNI iii Remerciements C’est avec un grand plaisir que nous annonçons l’achèvement de notre mission au sein de Poulina Group Holding (PGH). Et c’est avec reconnaissance que nous tenons à remercier tous ceux qui ont contribué dans ce travail. Nous adressons à Madame Nadia YAACOUBI , notre encadrante pédagogique au sein de l’Institut Supérieur de Gestion, avec nos sincères remerciements pour le temps et l’effort qu’elle a accordé pour nous guider et nous aider tout au long du stage. Dans le même cadre, nous témoignons notre gratitude à toute l’équipe de PGH, et spécialement à Madame Baya HADHRI, Madame Sonia ALOUANE, Madame Ons BOUTIT qui nous ont bien orienté durant notre projet de fin d’études et qui nous ont soutenu tout au long de cette période. Nous remercions également Madame Nour JAMMELI pour sa collaboration et sa cooperation qui ont permis le raffinement de l’élaboration de ce projet ainsi que la compréhension et la maîtrise du metier et du secteur de la vente promotionnelle . Par cette occasion nous écrivons de même un grand "Merci" à chaque enseignant de l’Institut Supérieur de Gestion (ISG) qui nous a inspiré, qui nous a conseillé, qui nous a donné les clés du succès et qui a partagé avec nous sa passion pour l’enseignement et la recherche scientifique pendant trois ans, vous resteriez dans nos mémoires. iv Liste des acronymes BD : Base de Données BI : Business Intelligence DM : Data Mart ERP : Enterprise Resource Planning ETL : Extract Transform Load GIMSI : Généralisation – Information – Méthode – Système - Individualité MDX : MultiDimensional Expressions OLAP : OnLine Analytical Processing SQL : Structured Query Language SSIS : SQL Server Integration Services SSAS : SQL Server Analysis Services SSRS : SQL Server Reporting Services PGH : Poulina Group Holding UML : Unified Modeling Language TB : Tableau de Bord DW : Data Darehouse SA : Staging Area MAJ : Mise A jour KPI : Ke Performance Indicator SCD : Slowly Changing Dimension API : Application Programming Interface MSBI : Microsoft Business Intelligence GMS : Grande et Moyennes Surfaces v Table des matières Introduction générale 1 1 Contexte de travail : Identification de l’entreprise et Analyse de l’existant 3 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1 Identification de l’environnement de Poulina Group Holding . . . . . . . . . 3 1.1.1 Historique de l’organisme d’accueil . . . . . . . . . . . . . . . . . . . 4 1.1.2 Services et prestations de l’entreprise . . . . . . . . . . . . . . . . . . 5 1.1.3 Organisation de l’entreprise . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.4 Direction Informatique . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.5 Type de management de Poulina Group Holding . . . . . . . . . . . . 8 1.1.6 Secteur des promotions de vente . . . . . . . . . . . . . . . . . . . . . 8 1.1.6.1 Cible des promotions de vente . . . . . . . . . . . . . . . . . 9 1.1.6.2 Techniques de promotion . . . . . . . . . . . . . . . . . . . . 9 Analyse de l’existant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.1 Etude de l’existant . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.3 Description de la solution . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2.4 Conception de la solution . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.4.1 Identification des acteurs du système . . . . . . . . . . . . . 12 1.2.4.2 Production des cas d’utilisation . . . . . . . . . . . . . . . 13 Planification des tâches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.2 1.3 vi 2 Etude comparative : Démarches et Méthodologies 18 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.1 Concept général de l’informatique décisionnelle . . . . . . . . . . . . . . . . . 18 2.2 Méthodologie de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2.1 Le manifeste agile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2.2 Présentation de la méthode SCRUM . . . . . . . . . . . . . . . . . . 20 2.2.3 Présentation de la méthode GIMSI . . . . . . . . . . . . . . . . . . . 20 2.2.4 Méthodologie de travail adoptée . . . . . . . . . . . . . . . . . . . . . 21 Approches de modélisation BI . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.3.1 Approches Inmon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.3.2 Approches Kimball . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3.3 Approche de modélisation adoptée . . . . . . . . . . . . . . . . . . . 23 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.3 3 Conception générale : Identification des besoins, des indicateurs et Spécification du Tableau de Bord 26 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.1 Etude des objectifs et analyse des besoins . . . . . . . . . . . . . . . . . . . . 26 3.1.1 Besoins d’affaires de l’entreprise . . . . . . . . . . . . . . . . . . . . . 26 3.1.2 Besoins fonctionnels . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.1.3 Besoins non fonctionnels . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.2 Construction du tableau de bord . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3 Identification des Indicateurs et des axes d’analyses . . . . . . . . . . . . . . 33 3.4 Collecte des informations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4.1 Architecture technique . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4.1.1 Système source . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4.1.2 Tiers Back-end . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.4.1.3 Tiers entrepôt de données . . . . . . . . . . . . . . . . . . . 38 3.4.1.4 Tiers OLAP ou cube de base de données multidimensionnelle 38 3.4.1.5 Tiers Front-end . . . . . . . . . . . . . . . . . . . . . . . . . 38 vii 3.4.2 Modélisation multidimensionnelle . . . . . . . . . . . . . . . . . . . . 38 3.4.2.1 Modèles Schéma en étoile . . . . . . . . . . . . . . . . . . . 39 3.4.2.2 Identifier la granularité . . . . . . . . . . . . . . . . . . . . . 39 3.4.2.3 Spécifier les dimensions . . . . . . . . . . . . . . . . . . . . 39 3.4.2.4 Spécifier la table des faits . . . . . . . . . . . . . . . . . . . 40 3.4.2.5 Modéle à bulles de haut niveau . . . . . . . . . . . . . . . . 40 3.4.2.6 Conception physique détaillée du modèle . . . . . . . . . . . 41 Systéme tableau de bord . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.5 4 Mise en œuvre et amélioration permanente de la solution 48 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.1 Mise en œuvre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.1.1 Choix des progiciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.1.1.1 Etude comparative des outils BI . . . . . . . . . . . . . . . 49 4.1.1.2 Environnement logiciel choisi . . . . . . . . . . . . . . . . . 50 4.1.1.3 Environnement matériel choisi . . . . . . . . . . . . . . . . . 51 Intégration et déploiement . . . . . . . . . . . . . . . . . . . . . . . . 51 4.1.2.1 Alimentation du DataMart . . . . . . . . . . . . . . . . . . 51 4.1.2.2 Cube OLAP . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.1.2.3 Alimentation du tableau de bord . . . . . . . . . . . . . . . 62 4.1.2.4 Validation et test . . . . . . . . . . . . . . . . . . . . . . . . 65 4.1.2.5 Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.1.2 4.1.3 Amélioration permanente . . . . . . . . . . . . . . . . . . . . . . . . 66 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Conclusion générale 67 Annexes 71 Annexe 1 : Méthodologie GIMSI 71 viii Annexe 2 : Approche et principes de Ralph Kimball 75 Annexe 3 : Projet SQL Server Integration Service SSIS 78 Annexe 4 : Projet SQL Server Analysis Service SSAS 87 Annexe 5 : Planification d’un JOB 92 Annexe 6 : Phase de restitution Power BI 95 Annexe 7 :Documentation de la base source 101 Bibliographie 108 Nétographie 108 ix Table des figures 1.1 Environnement de PGH. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Historique du PGH. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Organigramme Interne du Groupe Poulina . . . . . . . . . . . . . . . . . . . 7 1.4 Cas d’utilisation général de la solution. . . . . . . . . . . . . . . . . . . . . . 13 1.5 Cas d’utilisation « Gérer le tableau de bord ». . . . . . . . . . . . . . . . . . 14 1.6 Cas d’utilisation « Gérer l’ETL» . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1 L’approche Top-Down . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2 L’approche Buttom-Up . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.1 Réalisation d’une maquette . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 « Premier niveau consolidé : comparatif entre filiales de PGH » . . . . . . . 30 3.3 « Deuxième niveau de détails : Détails filiales » . . . . . . . . . . . . . . . . 31 3.4 « Troisième niveau de détails : détails produits » . . . . . . . . . . . . . . . . 32 3.5 Architecture technique de la solution . . . . . . . . . . . . . . . . . . . . . . 34 3.6 Modélisation de la base de données sources . . . . . . . . . . . . . . . . . . . 36 3.7 Conception de haut-niveau du modèle en étoile (High-Level Bubble Chart) . 41 3.8 Conception finale du modèle en étoile . . . . . . . . . . . . . . . . . . . . . . 42 4.1 Diagramme de déploiement de la phase d’alimentation des données . . . . . 52 4.2 Diagramme d’activité d’alimentation des données . . . . . . . . . . . . . . . 53 4.3 Diagramme d’activité d’alimentation des dimensions . . . . . . . . . . . . . . 54 4.4 Diagramme d’activité d’alimentation de la table des faits . . . . . . . . . . . 55 4.5 Authentification SQL Server 56 . . . . . . . . . . . . . . . . . . . . . . . . . . x 4.6 Hiérarchie d’un projet SSIS . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.7 Chargement de table des faits avec SSIS . . . . . . . . . . . . . . . . . . . . 61 4.8 Diagramme de déploiement de la phase de restitution des données . . . . . . 62 4.9 Restitution de données : niveau 1 . . . . . . . . . . . . . . . . . . . . . . . . 63 4.10 Restitution de données : niveau 2 . . . . . . . . . . . . . . . . . . . . . . . . 64 4.11 Restitution de données : niveau 3 . . . . . . . . . . . . . . . . . . . . . . . . 65 4.12 Cycle de vie de Kimball [11] . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.13 Implémentation Physique du DataMart Promo . . . . . . . . . . . . . . . . . 78 4.14 Lancement d’un nouveau projet SSIS . . . . . . . . . . . . . . . . . . . . . . 79 4.15 Package SSIS du staging area . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.16 Utilisation des variables pour le staging . . . . . . . . . . . . . . . . . . . . . 80 4.17 Staging pour la table « Action » . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.18 Extraction de l’identifiant du dernier élément stocké pour la table « Action » 81 4.19 Staging pour la table « Filiale » . . . . . . . . . . . . . . . . . . . . . . . . . 82 4.20 Package SSIS d’alimentation du DataMart . . . . . . . . . . . . . . . . . . . 82 4.21 Colonne Dérivée dans SSIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.22 Flux de contrôle de Dim_Item . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.23 Flux de contrôle de Dim_Concurrent . . . . . . . . . . . . . . . . . . . . . . 85 4.24 Alimentation de la table des faits . . . . . . . . . . . . . . . . . . . . . . . . 86 4.25 Cube OLAP[12] 87 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.26 Lancement d’un nouveau projet SSAS . . . . . . . . . . . . . . . . . . . . . 88 4.27 Vue de source de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.28 Vue de source de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.29 Vue de source de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.30 « Authentification Windows » . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.31 « Authentification Windows » . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.32 « Authentification Windows » . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.33 Outils de restitution de données [13] . . . . . . . . . . . . . . . . . . . . . . . 95 4.34 Tableau de bord de consolidé . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.35 Deuxième niveau de la filiale GIPA . . . . . . . . . . . . . . . . . . . . . . . 97 xi 4.36 Troisième niveau de la filiale GIPA . . . . . . . . . . . . . . . . . . . . . . . 98 4.37 Deuxième niveau de la filiale Global Trading . . . . . . . . . . . . . . . . . 99 4.38 Troisième niveau de la filiale Global Trading . . . . . . . . . . . . . . . . . . 100 xii Liste des tableaux 1.1 Planning du projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1 Tableau comparatif entre Inmon et Kimball . . . . . . . . . . . . . . . . . . 24 3.1 Tableau récapitulatif des objectifs. . . . . . . . . . . . . . . . . . . . . . . . . 27 3.2 Identification des KPIs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.3 Collecte d’informations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.4 Dimension Enseigne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.5 Dimension Action. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.6 Dimension Conurrent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.7 Dimension Filiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.8 Dimension Insertion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.9 Dimension Item . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.10 Dimension Mécanisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.11 Dimension Date . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.12 Table de faits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.1 Top 3 des technologies BI . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2 Environnement matériel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.3 Détails de la phase d’extraction. . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.4 Details de la phase d’extraction. . . . . . . . . . . . . . . . . . . . . . . . . . 59 xiii Introduction générale Avec un marché fortement concurrentiel et un environnement hautement complexe les entreprises cherchent toujours les moyens d’évoluer en vue de faire croitre leur chiffre d’affaires et leur part du marché. Conséquemment dans un climat de forte concurrence, une veille et surveillance étroite du marché est exigée, pour ne pas se laisser dépasser. A cet égard une stratégie qui valorise l’information doit être établie, pour pouvoir en extraire des estimations, des analyses afin de s’orienter vers une prise de décision objective et avec le minimum d’incertitude. L’information dans ce cadre doit être une information fiable et de qualité, pour parvenir à l’exploiter. Dans ce cadre la Business Intelligence est apparu. Ce concept englobe les technologies, méthodes et principes, auxquels chaque entreprise accorde une forte priorité. La BI intervient alors dès la phase de collecte des données. Ces dernières seront stockées dans une structure bien déterminée pour qu’elles soient traitées. Pour le département commercial de notre entreprise d’accueil, les données volumineuses provenant de plusieurs sources sont précieuses et leur exploitation est une nécessité pour parvenir à l’amélioration du processus de la prise de décision à divers niveau de l’entreprise Dés lors l’objectif du département commercial est l’amélioration de la rentabilité des actions promotionnelles effectuées dans les enseignes collaborant avec PGH, ainsi que sa capacité de satisfaire sa clientèle. Dans cette perspective notre projet de fin d’études s’introduit. Il s’agit de faire intégrer une solution BI, élaborée par les produits Microsoft. Cette solution sera un outil d’analyse et de suivi des promotions de l’entreprise et de même de ses concurrents au sein des GMS. 1 Le présent document est le rapport du projet de fin d’étude visant à identifier notre démarche pour la réalisation d’une solution décisionnelle. • Chapitre 1 Ce chapitre est dévoué à la présentation générale de PGH ; Environnement, secteurs et organisation. • Chapitre 2 Etude comparative des méthodologies de travails et des approches de modélisation ; • Chapitre 3 Conception générale de la solution élaborée ; • Chapitre 4 Mise en œuvre, déploiement et intégration. Nous clôturons le présent rapport par une conclusion générale sur le travail réalisé ainsi que par la présentation de nos perspectives. 2 Contexte de travail Chapitre 1 Chapitre 1 Contexte de travail : Identification de l’entreprise et Analyse de l’existant Introduction La première partie de ce chapitre va être dédiée à un aperçu global sur l’organisme d’accueil « Poulina Group Holding » nous allons parler de son historique, son organisation et incontestablement du département dans lequel nous étions affectés. Nous allons évoquer, ultérieurement le contexte du projet afin de clarifier l’idée maitresse. 1.1 Identification de l’environnement de Poulina Group Holding Le groupe Poulina représente un empire dans l’économie tunisienne ainsi que à l’échelle international. Avec plus que 7 filiales opérant dans divers secteurs, PGH a marqué son nom en dominant les marchés d’agroalimentaire, d’immobilier, des biens d’équipement et bien d’autres (Voir figure 1.1). 2018/2019 3 Contexte de travail Chapitre 1 Figure 1.1 – Environnement de PGH. 1.1.1 Historique de l’organisme d’accueil Poulina Group Holding (PGH) était fondé en 1967 par 7 entrepreneurs privés. Cette entreprise a commencé par l’aviculture en Tunisie et a établi dès le début une stratégie d’intégration dans les différentes activités de cette filière. Elle a élargie son secteur d’activité pour comprendre tous les services et fournitures qu’un éleveur en aura besoin (matériel avicole, poussins d’un jour, aliments, etc.). PGH a investi plus tard dans plusieurs secteurs ce qui a créé de la diversification industrielle. En 2008 PGH est considéré comme une force économique, l’entreprise était introduite en Bourse (L’évolution du groupe est illustré dans la figure 1.2). C’est avec cette décision et la variation de ses prestations qu’une autre restructuration de l’entreprise était exigée ; d’où la centralisation du groupe autours de 8 métiers ; Dans le but de simplifier la gestion, le contrôle et le suivi de la performance. Cette réorganisation a fait augmenter le nombre des employés jusqu’à 1200[N1]. 2018/2019 4 Contexte de travail Chapitre 1 Figure 1.2 – Historique du PGH. 1.1.2 Services et prestations de l’entreprise Comme nous avons mentionné auparavant la recomposition a mis en valeur une dizaine de métiers représentant les pôles d’activité de la Holding[2] : • L’intégration avicole L’entreprise a commencé dans le secteur avicole. Ce Groupe a fait élargir ses activités pour inclure ; la production, la nutrition animale, la distribution des dindes, poulets, œufs, viandes, etc. Sa bonne gestion, son contrôle et suivi permanent et son large réseau lui ont permis de devenir le leader en Tunisie. Il est considéré de nos jours comme l’acteur principal dans le secteur avicole. (SNA, Oasis, El Mazraa) ; • Les produits de grande consommation À travers ce métier, la Holding commercialise une large gamme de produits tels que les produits laitiers, jus etc. Le groupe a réussi à marquer son nom dans le secteur agroalimentaire. (Gipa, Chahrazed, Medoil Sénégal) ; 2018/2019 5 Contexte de travail Chapitre 1 • La transformation de l’acier Aujourd’hui le groupe opère dans la transformation de l’acier, avec un positionnement strategique vis-à-vis à la concurrence en Tunisie et même dans les pays limitrophes. (Africaine de Transformation De Métaux, SCI, SGN) ; • L’emballage Avec une croissance remarquable du besoin en matière d’emballage le Groupe a pu s’intégrer et est devenu le leader avec 30 pourcent de part de marché. (Avi pack, Lin Pack, ITC.) ; • L’immobilier Le Groupe a créé en 1997 une nouvelle filiale d’immobilier ETTAAMIR. Cette dernière est l’un des acteurs incontournables dans ce secteur. Elle a réalisé des projets de haut standing et elle en a d’autre en cours de réalisation. (S.P.I. ETTAAMIR) ; • Le bois et les biens d’équipement Ce métier date depuis 1975 suite à la création de GAN, société industrielle qui regroupe 2 activités le mobilier de bureau et l’électroménager. PGH se concidére comme une entreprise dominante avec 60 pourcent du marché. (MEDMED INDUSTRIES, ESMERALDA, GAN) ; • Les matériaux de construction Elle exporte plus de 20 pourcent de la production vers la France, les pays de l’Afrique et du Maghreb, l’Ouest et même les pays du Golf. (CARTHAGO CERAMIC, Salambo Ceramic) ; • Le commerce et les services La Holding regroupe plusieurs sociétés qui opèrent dans l’import, le commerce international, le conditionnement et même les nouvelles technologies(NTIC). Poulina a introduit la technologie « Tiers3+ » par la création du Data Center en 2012. L’entreprise a même coopéré avec une société française « Intrinsec » dans le but de créer « Cloud Temple Tunisia » qui était fondé avec succès. (ASTER INFORMATIQUE, Poulina Produits Métallique). 2018/2019 6 Contexte de travail 1.1.3 Chapitre 1 Organisation de l’entreprise PGH possède une structure spécifique qui se résume en 3 parties (voir figure 1.3) : • Une Direction Générale entourée de coordinateurs ; • Des unités opérationnelles qui couvrent tous les aspects de gestion ; • Une direction qui englobe l’audit, le contrôle et l’inspection [3]. Figure 1.3 – Organigramme Interne du Groupe Poulina 1.1.4 Direction Informatique La direction informatique est considérée comme l’un des piliers de PGH elle est chargée de l’élaboration des études stratégiques basées sur le système d’information de l’entreprise. 2018/2019 7 Contexte de travail Chapitre 1 Ce département oriente et dirige le Groupe vers l’informatisation/l’automatisation des processus de travail pour plus de flexibilité et de rapidité. Cette direction est dirigée par le directeur de développement numérique Mr.Naceur KCHAOU. Sa mission peut se résumer en 4 principaux axes : • La Mise en pratique d’une stratégie SI ; • La supervision et le contrôle de l’avancement des projets informatiques ; • La gestion des ressources du departement informatique ; • La veille concurrentielle et la détection des opportunités. 1.1.5 Type de management de Poulina Group Holding Le type de management d’une organisation présente sa politique générale. La stratégie de Poulina Group Holding se distingue par l’adaptation d’un type de management délégatif et participatif à la fois ; Ce dernier se repose sur le résultat obtenu par l’implication des collaborateurs et des consultants dans la prise de décision. En d’autres termes le manager n’est plus isolé et autoritaire. Nous parlons plutôt de responsabilisation et implication de tous les acteurs. Ceci assure la motivation et la participation des collaborateurs. Néanmoins suite au déploiement de la stratégie dans l’organisation il est défiant de la faire passer au niveau opérationnel. A cet égard il est important de s’assurer du niveau d’engagement de ces derniers ainsi que de préserver l’autonomie et la créativité des personnes impliquées. 1.1.6 Secteur des promotions de vente Pour bien concevoir une solution décisionnelle il est primordial de comprendre les fondamentaux du secteur promotionnel. Les promotions sont un avantage dit temporaire qui vise soit la fidélisation de sa clientèle ou à la séduction et l’attraction des nouveaux clients. Ces actions promotionnelles se font dans la production alimentaire et également dans les autres secteurs d’activité commerciale. Ces opérations sont présentes ainsi dans l’étendu de la grande distribution et elles sont négociées entre les enseignes et les marques, cela se fait dans le cadre du « Trade Marketing ». . 2018/2019 8 Contexte de travail 1.1.6.1 Chapitre 1 Cible des promotions de vente Les promotions de vente visent principalement le consommateur, mais aussi elle met en jeu deux autres facteurs qui sont le distributeur et la force de vente : • Consommateur : Jouer sur les préférences et les gouts afin de l’inciter à acheter de plus ; • Distributeur : Pousser les distributeur à vendre les produits ; • Force de vente : Encourager les vendeurs à faire augmenter leurs chiffres d’affaire. 1.1.6.2 Techniques de promotion Dans ce domaine nous distinguons plusieurs techniques promotionnelles qui viennent dans le but de stimuler les ventes. • Faire baisser les prix des articles ; • Remettre des titres de remboursement sur le conditionnement de l’article au consommateur ; • Effectuer des réductions sur un deuxième article acheté ; • Permettre le consommateur de gagner des lots en nature ou même en espèce après leur participation à un concours. 1.2 Analyse de l’existant Cette partie a pour objectif d’étudier dans un premier temps la solution existante afin d’en dégager les failles et d’identifier ses limites. Cela va être suit par l’explication de la solution proposée ainsi que la présentation des différents aspects de notre projet. 1.2.1 Etude de l’existant La stratégie adaptée actuellement par le département commercial est le recours aux actions promotionnelles via les enseignes afin de stimuler la vente de ses produits. Dans ce cadre PGH voulait suivre le planning promotionnel dans les grandes et moyennes surfaces (GMS). 2018/2019 9 Contexte de travail Chapitre 1 Pour se faire elle a mis en place une application web « PROMOTIPS » assurant les tâches suivantes : • La saisie du planning promotionnel des GMS ; • La saisie manuelle des détails relatives à chaque action promotionnelle : Article en promotion, filiale, concurrent, type d’action, etc ; • La visualisation des graphiques non-dynamiques comportant un nombre d’indicateurs (Taux de participation, Nombre d’action, etc.) L’utilisation des données issues de cette application se fait en moyenne, chaque 2 ou 3 semaines par un responsable commercial qui traite les données d’une manière classique. Via l’outil Excel il génère un TB consolidé de rapports qui concernent chaque filiale. Ses rapports seront communiqués aux dirigeants de la Holding par email. 1.2.2 Problématique Ces dernières années, les ventes promotionnelles dans les GMS ont connu un développement considérable. Cela se montre principalement au niveau de l’investissement dans les actions promotionnelles qui représentent le double de celles investies dans la publicité. Ces dernières assurent un bénéfice remarquable à court terme, or leur capacité d’augmenter les ventes à long terme est une affaire préoccupante. Dans ce cadre, et au sein d’une empire comme PGH, un investissement qui dépasse les 2 millions de Dinars par ans dans les opérations promotionnelles exige un système de suivi qui permet les dirigeant d’évaluer la situations des filiales de PGH et alors d’interagir aux bons moments. Néanmoins, actuellement l’analyse des données collectées, n’est pas réalisée d’une façon correcte et périodique, cela peut engendrer une déviation de la trajectoire commerciale, et par la suite un gaspillage de temps et de ressources. Conséquemment il sera difficile d’effectuer des estimations et des analyses avancées dans un contexte décisionnel, vu que le département commercial suit une méthode classique du reporting et par conséquence les tableaux de bord réalisés ne sont pas réactifs. 2018/2019 10 Contexte de travail Chapitre 1 Dans ce contexte, notre rôle est de fournir une solution automatisée qui s’inscrit dans le domaine commercial. Pour le suivi des actions promotionnelles dans les GMS. Elle va servir pareillement au service comptable qui rencontre des difficultés au niveau de la disponibilité et l’accessibilité de l’information promotionnelle. Concisément la solution choisie va permettre de répondre à plusieurs enjeux : L’axe technique • L’accessibilité à l’information à tout moment ; • Le problème de données manquantes et erronées ; • L’intégrité des données et les erreurs qui peuvent surgir au niveau des tâches manuelles. • La non réactivité des tableaux de bord existants ; • L’exploitation directe d’une base de données relationnelle, ce qui engendre un temps de réponse énorme vu le nombre de jointures existant. • L’automatisation du processus ETL. L’axe décisionnel et stratégique • L’imprécision de la représentation des indicateurs ; • La possibilité de se comparer avec les concurrents ; • La facilité de l’auto évaluation et l’analyse de l’information ; • La securisation des TBs et l’elimination des fichiers Excel non controlés, échangés entre les acteurs du système. • La minimisation de risque de la prise de décision. 1.2.3 Description de la solution Dans le cadre de notre projet de fin d’étude, nous avons conçu une solution BI, respectant la chaine décisionnelle de l’analyse des données jusqu’au reporting déployée sur un serveur. Elle permet l’exploitation des données extraites de la base de données de l’application de suivi des promotions dans les GMS afin de s’assurer en permanence de leur efficacité, leur rôle ainsi que leur évolution dans le temps. 2018/2019 11 Contexte de travail Chapitre 1 Cela va être assuré à travers un tableau de bord décisionnel dédié à la comité de direction générale afin d’évaluer la performance du groupe PGH. Pour récapituler ce projet va résoudre des problèmes au niveau interne et externe : • Assurer l’accessibilité et la disponibilité de l’information ; • Analyser les données et fournir des tableaux de bord dynamiques ; • Fournir et diffuser des rapports détaillés ; • Gérer les promotions communiquées et non-communiquées ; • Suivre les promotions annulées, réalisées ou en attente ; • Faciliter la prise de décision. Cette solution sera destinée aux décideurs de l’entreprise. Elle permettra de visualiser les indicateurs de performance dans une interface conviviale, une interface structurée et facile à comprendre qui répond à tous les besoins des managers. 1.2.4 Conception de la solution Dans le but de s’assurer que le développement sera conforme au cahier de charges nous avons choisi de réaliser des diagrammes de cas d’utilisation de la solution. Cela reflète le comportement du système proposé ainsi que les acteurs impliqués. Cette phase est une formalisation des étapes de la mise en œuvre du système. 1.2.4.1 Identification des acteurs du système Notre système met en jeu de deux acteurs principaux ; Le client qui est le décideur et l’administrateur : • Le décideur : C’est celui qui exige des fonctionnalités et énonce des besoins. Il va consulter le TB et imprimer des rapports via un navigateur web avec une authentification implicite ; • L’administrateur : c’est celui qui, après authentification, s’occupe du système. Il est chargé de la gestion du tableau de bord, de l’ETL et du cube OLAP . 2018/2019 12 Contexte de travail 1.2.4.2 Chapitre 1 Production des cas d’utilisation Le cas d’utilisation sert à clarifier les relations entre le système et ses acteurs. Egalement il permet d’abstraite les exigences fonctionnelles. A cet égard nous avons réalisé : • Un cas d’utilisation général du système (Voir figure 1.4) ; Figure 1.4 – Cas d’utilisation général de la solution. 2018/2019 13 Contexte de travail Chapitre 1 • Un raffinement du cas d’utilisation « Gérer le tableau de bord » (Voir figure 1.5) Figure 1.5 – Cas d’utilisation « Gérer le tableau de bord ». 2018/2019 14 • Un raffinement du cas d’utilisation « Gérer l’ETL» (Voir figure 1.6) Figure 1.6 – Cas d’utilisation « Gérer l’ETL» 1.3 Planification des tâches Peu importe la complexité d’un projet il demeure toujours indispensable de planifier ses tâches à l’avance. Cela permet de s’assurer que l’équipe est sur la bonne trajectoire. Dans notre cas nous avons choisi de travailler avec "Gantt Project" ; Un logiciel de gestion de projet, en vue de planifier nos tâche et de les ordonner en se basant sur la démarche GIMSI (Voir tableau 1.1). 15 Contexte de travail Chapitre 1 Ordre Tâches Durée Date debut Date fin 1 Formation autour de l’approche Kimball 30j 01/02/2019 28/02/2019 2 Formation autour des produits MSBI 15j 15/02/2019 28/02/2019 3 Etude de l’environnement de PGH 2j 01/03/2019 02/03/2019 4 Etude de l’organisme d’accueil 1j 03/03/2019 04/03/2019 5 Familiariser avec le coté metier 4j 05/03/2019 08/03/2019 6 Analyse et documentation des besoins et des objectifs 2j 09/03/2019 10/03/2019 7 Reunion avec le respensable du département commerciale et identification des tableaux de bord souhaités 2j 11/03/2019 12/03/2019 8 Negociation des indicateurs 3j 13/03/2019 15/03/2019 9 Documentation des KPIs 1j 16/03/2019 16/03/2019 10 Etude du système tableau de bord 1j 17/03/2019 17/03/2019 11 Identifcation de l’architecture physique 2j 18/03/2019 19/03/2019 12 Etude des données sources 4j 20/03/2019 23/03/2019 13 Modelisation multidimensionnelle 3j 24/03/2019 27/03/2019 14 Implementation physique du modéle 3j 28/03/2019 30/03/2019 15 Alimentation du DM, mapping et ETL 12j 01/04/2019 11/04/2019 16 Analyse avec cube OLAP 2j 12/04/2019 13/04/2019 17 Deploiement et passage à la restitution des données 4j 14/04/2019 17/04/2019 18 Preparation de l’intégration de la solution 2j 15/04/2019 16/04/2019 20 Validation du projet et prise d’accord du département commerciale 5j 17/04/2019 21/04/2019 21 Realisation du rapport 8j 22/04/2019 30/04/2019 Table 1.1 – Planning du projet 2018/2019 16 Contexte de travail Chapitre 1 Conclusion Ce chapitre, consacré au contexte général de projet, nous a permis de présenter l’organisme d’accueil, ainsi que de réaliser une description générale du projet. De même nous avons bien présenté le secteur des promotions des ventes qui est le cœur de notre projet. 2018/2019 17 Etude comparative : Démarches et méthodologies Chapitre 2 Chapitre 2 Etude comparative : Démarches et Méthodologies Introduction L’informatique décisionnelle est tout un concept, qui touche non seulement au côté technologique mais il met en valeur aussi l’importance du choix d’une méthodologie de travail. Ce chapitre sera réservé alors, à une étude comparative dans laquelle nous aborderons les différentes méthodologies de travail ainsi que les approches de modélisation. 2.1 Concept général de l’informatique décisionnelle L’informatique décisionnelle, ou encore Business Intelligence, est une discipline assemblant les outils, les moyens et les procès qui assurent la génération des indicateurs ; connus par le terme KPIs. Ceci permet d’amplifier la précision et l’exactitude de l’information tout en gardant la simplicité et la facilité de son interrogation. En outre la BI offre la possibilité de visualiser cette information sous forme compréhensible et présentable [4]. 2018/2019 18 Etude comparative : Démarches et méthodologies Chapitre 2 Pour résumer, l’exploitation de l’information dans le cadre décisionnel se fait comme suit : • Extraction et collecte de données à partir des systèmes, fichier, etc. ; • Nettoyage et standardisation des formats des données ; • Centralisation et stockage de données dans une structure facile à interroger ; • Traitement de l’information et génération des indicateurs. Par ailleurs, il est assez important de choisir une démarche spécifique de travail, permettant de mieux gérer l’avancement et l’auto-évaluation de l’équipe. 2.2 Méthodologie de travail Une méthodologie de travail est tout simplement la formulation des règles et des bonnes pratiques extraites à partir des expériences antérieures. Cette formulation assure le bon déroulement d’un projet. En outre les méthodes sont différentes et diverses et constamment évolutives. Nous sommes passés des méthodes classiques aux méthodes agiles. Le concept d’agilité vient en 1995 avec l’équipe Rugby, mais le terme "agile" n’apparait que plus tard en 2001, une collaboration entre des experts en génie logiciel a donné naissance au Manifeste Agile, qui vient avec le terme agile et qui se base sur ce qui était découvert auparavant. D’après eux face aux problèmes et besoins actuels les méthodes classiques ne font plus l’affaire. A cet égard l’agilité représente une solution alternative, vu qu’elle assure une flexibilité et une meilleure gestion du travail collaboratif. 2.2.1 Le manifeste agile L’agilité s’associe essentiellement aux projets informatiques, néanmoins elle peut être appliquée dans d’autres domaines. Elle offre une communication et une collaboration continues entre l’équipe et ses clients. Ce qui aide à mieux suivre l’avancement du projet. Le client reçoit des livrables ; « preuves tangibles de l’avancement du projet » [5]. Une communication mène à une bonne visibilité. Ainsi, les failles sont détectées dès le début. Les méthodes les plus populaires en termes d’agilité ce sont SCRUM et GIMSI. 2018/2019 19 Etude comparative : Démarches et méthodologies 2.2.2 Chapitre 2 Présentation de la méthode SCRUM SCRUM est l’une des méthodes agiles. Cette approche est dédiée principalement aux projets complexes, essentiellement la mise en place des applications. Elle vise l’amélioration de la production d’une équipe en assurant la coopération et la coordination entre les individus. Aussi par l’implication du client tout au long de la réalisation du projet, ainsi qu’elle repose sur la dynamicité et la diversité des compétences. Le principe est de faire sortir l’équipe du cadre classique, où le manager donne les ordres, vers un milieu de travail plus flexible dans lequel l’initiative individuelle est permise d’où le terme équipe « auto-organisé ». En outre cette approche nécessite que le projet soit réglé en cycles itératifs et incrémentaux. Dans un intervalle de temps Timeboxing bien déterminé le projet sera rythmé par des réunions régulières au cours desquelles l’avancement sera discuté et les priorités seront fixées. Durant ces itérations il est possible de modifier ce qui était élaboré si le client aborde d’autres exigences. SCRUM se base sur des intervenants et des artefacts : • Product Owner : Responsable du produit ; celui qui définit les besoins ; • Scrum Master : Contrôleur du déroulement du SCRUM tout en facilitant le travail de l’équipe ; • Scrum Team : Ensemble d’individus collaborant pour délivrer le produit ou le service ; • Product Backlog : Liste des exigences et spécifications du produit ; • Sprint Backlog : Tâches à faire dans un intervalle de temps ; • Sprint Burn-Down Chart : Graphique d’avancement. 2.2.3 Présentation de la méthode GIMSI GIMSI dans le même concept de l’agilité était publié sous le nom "Les nouveaux tableaux de bord pour piloter l’entreprise" en 1998, et vient pour s’associer aux projets décisionnels. Autrement dit c’est une méthodologie coopérative qui mène au pilotage correcte des organisations ; par l’intermédiaire des Dashboards. Elle est centrée autour la dynamicté des processus métier, la gestion du risque et l’élimination de la barrière technique qui présentait auparavant des difficultés face aux utilisateurs du produit décisionnel. 2018/2019 20 Etude comparative : Démarches et méthodologies Chapitre 2 Ce qui se résume en son acronyme : G[généralisation] : La méthodologie est applicable dans divers domaines. I[information] : L’information est la clé pour la prise de décision ; M[méthode et mesure] : Elle vise de mesurer des indicateurs ; S[système et systémique] : Partant d’un concept systémique elle assure la construction d’un système de pilotage ; I[initiative et individualité] : L’individu est appelé à prendre l’initiative et à être autonome. [Généralisation de l’accès aux Informations décisionnelles en s’appuyant sur une Méthodologie d’inspiration Systémique facilitant l’Expression des Individualités de l’Entreprise.] En outre cette approche correspond au management moderne qui se base sur 10 étapes de gouvernances (Voir annexe 1). 2.2.4 Méthodologie de travail adoptée Dans notre cas la méthode GIMSI représente la manière ultime de se lancer dans notre projet. L’agilité et la flexibilité qu’elle offre nous assure l’obtention d’un produit de qualité acceptable par le client et les décideurs, autrement dit la conformité de la solution avec leurs attentes. De plus, elle est plus adaptée à un projet BI que la méthode SCRUM. En effet, la méthodologie GIMSI, décrit le processus détaillé pour l’obtention d’un TB. La stratégie suit au sein de l’entreprise, nécessite la planification des « interviews » avec le client afin de collecter le maximum d’information concernant les problèmes à résoudre ainsi que les attentes et les besoins à satisfaire. Pour cela des réunions avec l’équipe commerciale ont eu lieu. Ces dernières nous ont fait comprendre la stratégie et le processus de suivi des actions promotionnelles adaptés par PGH, ainsi que nous ont permis de détecter quelques problèmes. 2018/2019 21 Etude comparative : Démarches et méthodologies 2.3 Chapitre 2 Approches de modélisation BI Le concept autour duquel tourne l’environnement décisionnel, est la réalisation d’un entrepôt de données (DW). Son rôle majeur est d’emmagasiner des données « épurées, organisées, historiées et provenant de plusieurs sources de données, servant aux analyses et à l’aide à la décision » [8]. Dès lors la question qui se pose c’est quelle structure à adapter, et permet-elle de satisfaire les besoins fonctionnels ? Pour répondre à cette question nous faisons face à deux grand concepts ; l’approche Bill Inmon et l’approche Ralph Kimball. 2.3.1 Approches Inmon L’architecture générale de l’approche «Top-Down », proposée par Inmon, impose la présence de Staging Area, de Data Warehouse et des Data Marts ; c’est une architecture multitiers. Le modèle logique doit être conçu en premier lieu en respectant la normalisation. Ce modèle évite le maximum la redondance pour plus de cohérence. Il représente également, une vue globale de l’entreprise, tout en capturant les clés d’entreprise, les attributs, les dépendances ainsi que les relations existantes. Tout cela sera physiquement implémenté pour représenter le Data Warehouse. La difficulté sera envisagée au niveau de son interrogation par les requêtes ; vu la normalisation du modèle et les jointures entre les tables. Pour cette raison Inmon a proposé de construire des DataMarts (voir figure 2.2), chacun reflétant un département ou processus de l’entreprise de cette manière, nous aurons une seule source de données qui alimente les DMs, c’est le DW. Figure 2.1 – L’approche Top-Down 2018/2019 22 Etude comparative : Démarches et méthodologies 2.3.2 Chapitre 2 Approches Kimball L’approche Kimball aussi connue par le terme « Buttom-Up », est une méthodologie de réalisation d’un projet décisionnelle. Elle était proposée par Mr Ralph KIMBALL un informaticien qui s’intéresse à la Business Intelligence (BI). Cette approche se contredit avec celle de Mr.Inmon qui se repose sur les modèles E-A (entité-association), elle s’oriente vers le domaine décisionnel, vise principalement la modélisation dimensionnelle et se base sur les tables de faits et les dimensions. Selon Kimball l’obtention d’un DataWarehouse (DW) ou entrepôt de données se fait suite à l’union des DataMarts (voir figure 2.3) qui sont construits de manière incrémentale et intégrée. Ces derniers reflètent une vue détaillée de l’entreprise comprenant des données atomiques. Représentant chacun un seul schéma en étoile (star schéma). NB : Les DataWarehouses ne sont pas physiquement implémentés. Figure 2.2 – L’approche Buttom-Up 2.3.3 Approche de modélisation adoptée Les deux approches permettent d’effectuer des analyses avancées sur un volume important de données atomiques et de différents niveaux de granularité. Par conséquence la modélisation doit suivre l’une de ces derniers principes. Le choix se fait selon des facteurs bien précis tels que : • La cible de la solution décisionnelle : Est-ce qu’on vise la globalité de l’entreprise ou un département bien précis ; 2018/2019 23 • La durée allouée pour le projet : Si le projet doit être délivré en urgence (pas plus que 3 mois) l’approche kimball est plus adaptée. Par contre si l’équipe aurait un intervalle de 4 à 9 mois la méthode Inmon est possible ; • Les ressources humaines et financières : La modélisation Inmon nécessite, plus tard, une large équipe de spécialistes pour maintenir la DW au contraire du modèle Kimball ; • Les systèmes source : Inmon est destiné aux systèmes trop dynamiques. Quant à Kimball il travaille sur les systèmes plus au moins stables ; • La stratégie managériale adaptée : L’implémentation d’un tel projet nécessite un esprit ouvert, prêt d’investir dans ce concept, et conscient de la valeur d’une telle solution. Pour conclure Inmon nécessite un financement important à l’opposé de Kimball. Approche Inmon Approche Kimball DataWarehouse orienté entreprise DataWarehouse multidimensionnel Un système stratégique de pilotage moderne Un système tactique de pilotage moderne Les systèmes sources ont un taux de changement élevé Les systèmes sources sont assez stables Des spécialistes dans le côté technique et le coté métier à la fois sont exigés Une équipe réduite en nombre pourrait achever le projet Table 2.1 – Tableau comparatif entre Inmon et Kimball En prenant en compte tous les éléments cités, ainsi que les préférences de l’entreprise nous avons entamé le travail avec le principe Kimball vu les moyens, la cible et la durée de notre stage. 24 Etude comparative : Démarches et méthodologies Chapitre 2 Conclusion Ce chapitre était dédié à une étude comparative, présentant les différentes approches de modélisation et méthodes de gestion de travail. Nous avons clôturé cette section avec l’explication de nos choix théoriques. Le chapitre qui suit sera une décortication de notre projet et les attentes du client. 2018/2019 25 Conception générale Chapitre 3 Chapitre 3 Conception générale : Identification des besoins, des indicateurs et Spécification du Tableau de Bord Introduction Avant le lancement du travail il est indispensable de clarifier les aspects du projet. A cet égard nous allons consacrer cette partie à l’identification de son étendu, cela implique la description des fonctionnalités de base de la solution ainsi que sa performance. Dans un autre temps nous allons parler de l’étape de collecte d’informations. 3.1 3.1.1 Etude des objectifs et analyse des besoins Besoins d’affaires de l’entreprise Nos besoins d’affaires se résument à mettre en œuvre un système de suivi et de contrôle des planifications promotionnelles. Cette solution sera délivrée à la direction commerciale et aux filiales afin de de pouvoir comparer les promotions de PGH et celles de ces concurrents. 2018/2019 26 Conception générale Chapitre 3 Cela permettra aux décideurs de devenir plus autonomes et conséquemment d’être plus réactifs, et surtout de les permettre de tirer la décision à partir des analyses effectuées avec le minimum d’incertitude. Axes Suivi administratif Objectifs Devenir plus réactif, assurer plus de coopération et de coordination entre le département commerciale, Marketing et la direction générale. Permettre une communication. Veille commerciale meilleure Détecter et anticiper des nouveaux concurrents Accompagner le département Marketing et commerciale dans la prise des décisions. Piloter les activités du département commercial de PGH S’assurer de la crédibilité des GMS. Mieux connaitre ses partenaires et ses filiales. Table 3.1 – Tableau récapitulatif des objectifs. 3.1.2 Besoins fonctionnels Les besoins fonctionnels reflètent ce qui est spécifié dans le cahier de charges autrement dit ce sont les besoins primaires exigés par le client qui sont généralement non-négociables. Dans le cadre de notre projet, le client voulait obtenir une solution décisionnelle qui se base sur un entrepôt assemblant les données relatives aux actions promotionnelles. Cela va servir à la consolidation des tableaux de bord générant des rapports détaillés. 2018/2019 27 Conception générale Chapitre 3 Pour ce faire nous visons à élaborer des rapports qui se répartissent sur 3 niveaux de granularité : 1.Premier niveau consolidé comportant des comparatifs entre les filiales de PGH • Générer un Tableau de bord comportant un bilan de suivi des opérations de chaque filiale dans chaque enseigne ; • Donner la possibilité de filtrer selon l’année, le mois, le type de l’opération ainsi que l’enseigne concernée. 2.Deuxiéme niveau de détail filiale • Générer des rapports pour comparer les opérations de chaque filiale de PGH avec ses concurrents ; • Donner la possibilité de filtrer selon l’année, le type de l’opération ainsi que l’enseigne concernée. 3.Troisiéme niveau de détails produits • Générer des rapports d’évaluations des actions de chaque filiale selon le produit, la famille et la gamme. 3.1.3 Besoins non fonctionnels Les besoins non-fonctionnels sont liés principalement à des obstacles qui peuvent toucher à la performance de la solution proposée et par la suite son rejet. Ces contraintes sont soient externes soient internes. L’application alors doit satisfaire les critères suivants : • Ergonomie et simplicité : L’application proposée doit être présentable tout en garantissant la simplicité, cela inclut le choix des couleurs et de la police ; • Maintenabilité : Elle est caractérisée par une architecture n-tiers qui assure sa durabilité et sa maintenabilité ; • Sécurité : La solution décisionnelle que nous avons proposée exige une authentification de l’administrateur ou du décideur), pour pouvoir accéder. 2018/2019 28 Conception générale 3.2 Chapitre 3 Construction du tableau de bord Durant cette phase il est primordiale de construire une vue global et générique sur ce que le client voulait avoir, cette étape consiste à réaliser une maquette approximative qui va guider l’équipe tout au long de la phase de restitution. C’est une réalisation schématique des interfaces. Elle décrit leur comportement par rapport à l’utilisation des acteurs du système. Dans ce cas la maquette était réalisée suite aux réunons avec le département commercial. C’est une sorte de traduction graphique approximative des besoins du client. Figure 3.1 – Réalisation d’une maquette 2018/2019 29 Conception générale Chapitre 3 • Maquette « Premier niveau consolidé : Comparatif entre filiales de PGH » ; Figure 3.2 – « Premier niveau consolidé : comparatif entre filiales de PGH » — Barre de Navigation : Cette page comprend une barre de navigation contenant les filiales de PGH. Chaque bouton nous amène vers un rapport détaillé sur la filiale en question ; — Listes Déroulantes : Nous trouvons des listes qui sont mises en haut de la page, à gauche. Elles représentent des ltres sur l’année, le Mois et le Type d’action. Ainsi qu’une autre liste qui est mise en bas de la page, à droite. Elle comporte les enseignes. — Composants graphiques : Composant décoratif, mis en haut de la page et à droite et en bas ç gauche. Représentant le logo de la Holding ou de ses filiales ; — Composants interactifs : Un histogramme en haut de la page, une matrice en bas de la page et un graphique en secteurs en bas de la page. 2018/2019 30 Conception générale Chapitre 3 • Maquette « Deuxième niveau de détails : Détails filiales » ; Figure 3.3 – « Deuxième niveau de détails : Détails filiales » — Barre de Navigation : Cette page comprend une barre de navigation contenant un bouton "produits". Il nous amène vers un rapport détaillé sur les produits, familles et gammes vendus par la liale en question ; — Listes Déroulantes : Elles sont mises en haut de la page, à gauche. Les listes représentent des filtres sur l’année, l’enseigne et le Type d’action ; — Composants graphiques : Composant décoratif, mis en haut de la page et à droite et à gauche. Ils représentent le logo de la Holding et celui de la filiale ; — Composants interactifs : Un histogramme en haut de la page, une matrice en bas de la page et un graphique en secteurs en bas de la page. NB : Même scénario-maquette se répète pour chaque filiale. 2018/2019 31 Conception générale Chapitre 3 • Maquette « Troisième niveau de détails : détails produits ». Figure 3.4 – « Troisième niveau de détails : détails produits » — Barre de Navigation : Cette page comprend 1 bouton de navigation. Il nous amène vers le rapport précèdent détaillé sur la liale en question. Le bouton est en bas, à gauche de la page ; — Listes Déroulantes : Elles sont mises en haut de la page, à gauche. Les listes représentent des filtres sur l’année, l’enseigne et le Type d’action. ; — Composants graphiques : Composant décoratif, mis en haut de la page et à droite et à gauche. Ils représentent le logo de la Holding et celui de la filiale ; — Composants interactifs : Un graphique en anneaux est en bas de la page, Un graphique en secteurs est en haut de la page et deux graphiques à barres empilées, en haut et en bas de la page. 2018/2019 32 Conception générale 3.3 Chapitre 3 Identification des Indicateurs et des axes d’analyses L’objectif global de PGH, est de stimuler les ventes de certaines gammes de produits. La Holding adapte alors la stratégie de vente promotionnelle. Cette dernière dépend essentiellement du niveau de stock des articles ainsi qu’elle est influencée par un marché fortement concurrentiel. A cet égard, la surveillance des enseignes partenaires est indispensable. Conséquemment l’identification des indicateurs de performance ou des KPIs (voir tableau 3.2), permettra de mesurer la performance et l’efficacité des opérations promotionnelles sur les vente. Indicateurs Description Total des actions Nombre total des opérations promotionnelles de chaque filiale dans chaque enseigne. Taux de participation de chaque filiale Le rapport entre le nombre des actions promotionnelles d’une filiale dans une enseigne et le nombre total des opérations promotionnelles proposées par l’enseigne. Taux de participation de chaque filiale par rapport à ses concurrent Le rapport entre le nombre des actions promotionnelles d’une filiale dans une enseigne et le nombre total des opérations promotionnelles de ses concurrents proposées par l’enseigne. Top gamme en promotion de PGH Les gammes de produits PGH les plus apparues en promotion dans les catalogues et les points de vente. Flop gamme en promotion de PGH Les gammes de produits PGH les moins apparues en promotion dans les catalogues et les points de vente. Table 3.2 – Identification des KPIs 2018/2019 33 Conception générale 3.4 Chapitre 3 Collecte des informations L’information dans un système décisionnel, est un lien de confiance entre la solution proposée et le décideur. Pour cela il est indispensable d’accorder le temps à spécifier et étudier tout d’abord l’architecture technique choisie ainsi que de bien choisir les données issues des systèmes de production, pour avoir une information certaine plus tard. Par la suite nous pouvons entamer la modélisation multidimensionnelle. 3.4.1 Architecture technique Cette étape est une définition globale de la solution. Sa spécification doit être basée sur l’environnement technologique adopté par l’entreprise. Nous allons, dans ce cadre définir un plan architectural qui comporte 5 parties (voir figure 3.4) Figure 3.5 – Architecture technique de la solution 3.4.1.1 Système source i. Etude descriptive de données sources A ce niveau nous allons étudier les données sources issues de l’application de suivi et de contrôle des actions promotionnelles des GMS ayant les caractéristiques décrites dans le tableau (3.4) : 2018/2019 34 Conception générale Chapitre 3 Caractéristique Source Accssibilité Données accessibles à partir de la base de données de l’application de suivi des GMS. Disponibilté Données disponibles au sein de l’infrastructure de l’entreprise. Cout Données couteuses en termes de temps et de stockage. Simplicité Complexité moyenne Pérennité M.A.J Chaque semaine. Fiabilité Données fiables même s’elles ne sont pas nettoyées mais il s’agit d’une information juste. Table 3.3 – Collecte d’informations. Pour des raisons de confidentialité nous n’avons pas eu un accès direct au serveur, ces données étaient livrées comme une image d’une base de données sous format back-up accompagnée d’une documentation (voir annexe 7). La source comporte 13 tables, nous allons étudier les 11 tables desquelles nous avons tiré les données. • Table action : Décrit la liste des actions ; • Table actionFiliale : Décrit les différents statuts des actions dans les différentes Filiales ; • Table item : Décrit la liste des articles en promotions du groupe PGH ; • Table itemFamily : Décrit la fiche des articles de la Holding et de ses concurrents ; • Table product : Décrit la liste des produits ; • Table family : Décrit la liste des familles ; • Table gamme : Décrit la liste des gammes ; • Table filiale : Décrit la liste des filiales ; • Table magasin : Décrit la liste des magasins ; • Table concur : Décrit la liste des concurrents aux filiales PGH ; • Table enseigne : Décrit la liste des enseignes qui sont issus de l’application. 2018/2019 35 Conception générale Chapitre 3 ii. Conception de la base de données source Dans cette partie nous allons nous intéresser à la modélisation physique de la base, au niveau relationnel. La base illustrée dans la figure (3.5) représente 11 tables inter-reliées entre eux. Figure 3.6 – Modélisation de la base de données sources Pour simplifier la conception nous avons choisi de mettre en valeur les différentes hiérarchies et relations existantes entre les tables en utilisant les couleurs. • Produit, Famille et Gamme Table Product représente tous les produits existants ; un produit peut inclure une ou plusieurs familles et une ou plusieurs gammes. 2018/2019 36 Conception générale Chapitre 3 • Enseigne et Magasin Table Enseigne représente tous les enseigne existantes ; une enseigne peut avoir une ou plusieurs magasins. • Item et ItemFamily Table ItemFamily représente tous les produits en promotion existants ; un item peut appartenir à la table Item s’il est un Item de PGH. 3.4.1.2 Tiers Back-end La zone de préparation ou Back-room, dans laquelle l’ETL aura lieu. Cela résulte des données standardisées, nettoyées, cohérentes et chargées dans l’entrepôt. • Extraction de données : Cela consiste à les dégager à partir des systèmes sources. Cela est critique, vu que tout le travail va se baser sur le choix des données. Dans ce cas nous disposons d’une application POMOTIPS, de suivi de grandes et moyennes surfaces ; • Transformation de données : Au cours de cette étape la vérification de la cohérence des données se fait, tout comme toute transformation requise, comme l’élimination des données erronées. • Chargement de données : Apres le traitement effectué sur les données, elles seront chargées dans un entrepôt. Dans notre cas nous avons chargé ces dernières dans une base de données SQL Server. Il est important de concevoir la manière dont l’ETL va être réaliser, nous citons l’approche :[6] 1.Push : Le push se repose sur le principe de pousse de données du système de production vers le SA. L’inconvénient est que si le système est occupé, il ne poussera jamais les données. 2.Pull : Le Pull se base sur l’extraction des données de la source vers le Staging. Cette méthode peut surcharger le système s’il est en cours d’utilisation. 3.Push-Pull : Le système source prépare les données et notifie le Staging que les données sont prêtes à charger. Le SA les récupère. Au cas où la source est occupée, le Staging envoie une autre demande. 2018/2019 37 Conception générale Chapitre 3 Dans notre cas nous allons procéder avec la deuxième approche avec une planification d’un job qui déclenchera le travail. 3.4.1.3 Tiers entrepôt de données C’est la zone de stockage des données atomiques, résumées et agrégées. Selon Kimball cette partie doit "fournir un environnement flexible, évolutif, intégré, granulaire, précis, complet et cohérent". [7] 3.4.1.4 Tiers OLAP ou cube de base de données multidimensionnelle Cela incarne la liaison entre le système ETL et la couche de présentation. Se constituant d’une copie des données atomiques dites "pré-agrégées". Lors de l’envoi d’une requête, c’est le serveur OLAP qui la prend en charge. Le résultat sera envoyé au cube OLAP. 3.4.1.5 Tiers Front-end La Front-room illustre la solution analytique élaborée. En d’autres termes c’est la zone de présentation qui sera livré au client sous forme d’interface abstraite facile à gérer. 3.4.2 Modélisation multidimensionnelle L’un des principes de la BI c’est qu’elle nécessite deux éléments importants, ce sont une architecture technique adéquate et une modélisation multidimensionnelle appropriée. La raison pour laquelle ces deux composants doivent être élaborés c’est que l’utilisation directe des sources de données pose des problèmes liés au fonctionnement et à la qualité du service exigé, ainsi qu’au temps de réponse des requêtes, causé par des modèles normalisés qui ne répondent pas au besoin évolutif. Dans ce cadre Ralph Kimball a travaillé sur la modélisation avancée qui assure le pilotage d’une entreprise. Dans notre cas nous intéressons à l’approche "Buttom-Up" de Mr. Ralph. 2018/2019 38 Conception générale 3.4.2.1 Chapitre 3 Modèles Schéma en étoile Le schéma en étoile, est représenté par un ensemble de dimensions liées à une tables de faits centrée. Chaque dimension reflète une table regroupant des attributs et est référencée par une clé primaire. Ces dimension peuvent êtres de différentes granularités. quant à la table de faits elle assemble les clés primaires des dimensions et les mesures que nous souhaitons traiter. Le choix d’un "star schéma" est basé principalement sur le besoins du client ainsi que sur les données collectées. Ce type de modèle assure une flexibilité et simplicité lors de son exploitation. De même il permet de réduire le temps d’exécution des requêtes. 3.4.2.2 Identifier la granularité La granularité dans l’approche Kimball revient à spécifier ce qu’une ligne d’une table de fait signifie. Elle reflète son niveau de détails. Il est conseillé de détailler son modèle le plus possible pour éviter toutes complications ultérieures. Cette spécification se fait impérativement avant de déterminer les dimensions et les faits. Cette obligation critique assure l’obtention d’un modèle simple, clair ainsi que l’acquisition des données atomiques qui assurent le maximum d’analyses avancées et des requêtes d’interrogation. Un modèle moins granulaire sera vulnérable aux exigences inattendues de certains utilisateurs visant un haut niveau de détails. Dans notre cas nous intéressons à étudier les produits en promotion vendu dans les GMS. 3.4.2.3 Spécifier les dimensions La granularité déterminée auparavant sera le point de départ pour déterminer les dimensions primaires et dégager par la suite plus de dimensions. Le niveau de détails des dimensions doit être conforme à celui de la «Grain». Cette étape est assez importante que l’étape précédente, vu que chaque dimension représentera un axe d’analyse. Par conséquence nous obtenons ces 8 dimensions : 4 DimDate ; 4 DimProduit ; 2018/2019 39 Conception générale Chapitre 3 4 DimAction ; 4 DimEnseigne ; 4 DimFiliale ; 4 DimConcurrent ; 4 DimInsertion ; 4 DimMecanisme. 3.4.2.4 Spécifier la table des faits Une table de faits représente toutes les informations liées à un processus métier bien déterminé. Cette table exprime des évènements ou des transactions bornés dans le temps et l’espace. Dans notre projet nous disposons d’un fait transactionnel qui ne comprend que les clés étrangères des dimensions.Il s’agit de «Factless Fact table». L’insertion d’une ligne se fait seulement si une transaction a eu lieu. Elle est illustrée par une table promotion : 4 FactPromotion 3.4.2.5 Modéle à bulles de haut niveau Dans son approche « Buttom-Up », Kimball a bien spécifié une séquence de tâches liées à la modélisation multidimensionnelle. Sa démarche nous permet d’obtenir un modèle solide qui répond aux besoins inattendus des décideurs. Dans ce sens nous avons choisi d’élaborer un modèle initial (voir figure 3.6). C’est le modèle Bubble Chart de Kimball. Ce modèle est dédié principalement à une audience sans des connaissances techniques requises. Il met en valeur le processus métier ainsi que la granularité choisie. 2018/2019 40 Conception générale Chapitre 3 Figure 3.7 – Conception de haut-niveau du modèle en étoile (High-Level Bubble Chart) 3.4.2.6 Conception physique détaillée du modèle Cette section sera dédiée selon Kimball à la spécification ou conception physique du modèle adopté (voir figure 3.7). Cela se fait par la documentation du modèle tout en spécifiant les noms des tables qui doivent être significatifs, les attributs de chaque table, les contraintes liées à ces dernières ainsi que les clés étrangères et primaires. 2018/2019 41 Conception générale Chapitre 3 Figure 3.8 – Conception finale du modèle en étoile Nous déterminons ci-dessous les noms et libellés des tables que nous disposons : • Dim_Enseigne : Dimension Enseigne (voir tableau 3.4) ; Attributs Description id(PK) clé artificielle de l’enseigne (auto_increment) id_enseigne(NK) Clé primaire et unique de l’enseigne name_enseigne nom de l’enseigne Table 3.4 – Dimension Enseigne. 2018/2019 42 Conception générale Chapitre 3 • Dim_Action : Dimension Action (voir tableau 3.5) ; Attributs Description id(PK) clé artificielle de l’action (auto_increment) id_action(NK) Clé primaire et unique de l’action name_action nom de l’action statut statut de l’action (active, annulée, inactive) type type de l’action (communiquée, non communiquée) Table 3.5 – Dimension Action. • Dim_concurrent : Dimension Concurrent(voir tableau 3.6) ; Attributs Description id(PK) clé artificielle (auto_increment) name_concurrent nom du concurrent Table 3.6 – Dimension Conurrent • Dim_Filiale : Dimension Filiale (voir tableau 3.7) ; Attributs Description id(PK) clé artificielle de la filiale (auto_increment) id_fil(NK) Clé primaire et unique de la filiale name_filia nom de la filiale Table 3.7 – Dimension Filiale 2018/2019 43 Conception générale Chapitre 3 • Dim_insertion : Dimension Insertion (voir tableau 3.9) ; Attributs Description id(PK) clé artificielle de l’insertion (auto_increment) type_insertion largeur , grandeur dans le catalogue Table 3.8 – Dimension Insertion • Dim_item : Dimension Produit(voir tableau 3.10) ; Attributs Description id(PK) clé artificielle de l’article (auto_increment) id_item(NK) Clé primaire et unique de l’article item_nameFamily nameFamily de l’article name_gamme nom de la gamme de l’article name_famille nom de la famille de l’article name_product nom de l’article Table 3.9 – Dimension Item • Dim_Mecanisme : Dimension Mécanisme (voir tableau 3.10) ; Attributs Description id(PK) clé artificielle du mécanisme (auto_increment) Mecanisme_Type Mécanisme de l’opération promotionnelle. Table 3.10 – Dimension Mécanisme 2018/2019 44 Conception générale Chapitre 3 • Dim_Date : Dimension Date(voir tableau 3.11) ; Cette dimension joue le rôle d’un calendrier. Attributs Description Pk_Date(PK) clé artificielle Date Date compléte NumJourSemaine numéro du jour dans la semaine JourSemaine jour de la semaine JourSemaine_Libelle Libellé du jour de la semaine NumJourMois numéro du jour du mois NumJourAnnee Numero du jour de l’année NumSemaineMois Numéro de la semaine du mois NumSemaineAnnee Numéro de la semaine de l’année NumMoisAnnee Numéro du mois de l’année Mois le mois Mois_Libelle Libellé du mois Trimestre Trimestre Trimestr_Libelle Libellé de la trimestre Semestre Semestre Semestre_Libelle Libellé du semestre Annee L’année IsWeekend Weekend ou pas weekend Weekend weekend Table 3.11 – Dimension Date NB : Il est important de noter que la dimension Date est de type « Role Playing Dimension » tirée de l’approche Kimball. Ce type dimension est utilisé si entre la table de fait et une dimension nous distinguons plus qu’une relation valide. 2018/2019 45 Conception générale Chapitre 3 Dans ce cas la dimension Date fait référence à deux informations à la fois ; Date début et date fin. L’implémentation physique de cette dimension sera à l’aide de la clé primaire de « DimDate » qui sera appelé à deux reprises au niveau de chaque ligne de la table de fait (Date_start_FK et Date_end_FK). • Fact_Promotion :Table des faits Promotion (voir tableau 3.12). Attributs Description ActionKye(FK) Clé étrangère de la table Action FilialeKye(FK) Clé étrangère de la table Filiale Date_start_Kye(FK) Clé étrangère de la table Date Date_end_Kye(FK) Clé étrangère de la table Date ItemKye(FK) Clé étrangère de la table Item ConcurrentKye(FK) Clé étrangère de la table concurrent MecanismeKye(FK) Clé étrangère de la table Mécanisme InsertionKye(FK) Clé étrangère de la table Insertion EnseigneKye(FK) Clé étrangère de la table Enseigne Table 3.12 – Table de faits 3.5 Systéme tableau de bord Le tableau de bord est une sorte d’instrument regroupant des indicateurs construits à partir d’une base massive de données complexes et non-standardisées. A cet égard le choix des KPIs determine sa qualité. 2018/2019 46 Conception générale Chapitre 3 Le TB guide les managers et leur façon de piloter une organisation. Il symbolise la clé d’un mangement de performance. Sa conception le définit et détermine s’il servira comme outils pertinent de prise de decision. Dans notre projet nous allons construire un TB GIMSI met en valeur l’importance du partage et de la communication au sein de l’entreprise. Ce tableau de bord reflète la situation de la Holding dans le marché promotionnel, dont la typologie est déterminée comme stratégique Nous parlons dorénavant de la collaboration et de l’élimination de l’isolement du décideur. Qui résulte la prise de décision collective et décentralisée. Le TB va être communiqué plus tard aux dirigeants plus précisément à la direction du département commerciale ainsi qu’à chaque direction des filiales de PGH. La gestion d’accès aurait lieu selon le type d’acteur du système. Conséquemment chacun pourait suivre sa performance en vue de l’améliorer. Cet instrument doit décrire le positionnement de PGH vis à vis à un marché concurrentiel, tout en s’assurent qu’il soit interactif, accessible à distance et alloué à plusieurs utilisateurs. Synthèse Cette section était ciblée à un aperçu sur les besoins exigés par le client. Cette spécification et conception de la solution va simplifier le travail ultérieur de la modélisation. Nous allons dans le chapitre suivant étudier la phase de la construction du système tableau de bord en adaptant cette étape avec le cycle de vie de Kimball. Cette adaptation va décortiquer le travail et le rendre plus simple et clair. 2018/2019 47 Mise en œuvre et amélioration permanente Chapitre 4 Chapitre 4 Mise en œuvre et amélioration permanente de la solution Introduction Ce chapitre est consacré à la dernière phase de GIMSI, l’audit et la mise en œuvre qui englobe le choix technologique ainsi que le déploiement de la solution dans l’entreprise. Précédemment, nous avons choisi de faire une fusion entre GIMSI et Kimball vu qu’ils se complètent de point de vue théorique et technique, afin d’élaborer une conception générale claire. Désormais il est temps d’enchainer la construction du tableau de bord. Pour se faire nous avons choisi de détailler cette phase critique cela va nous permettre de tracer un chemin qui va nous conduire vers notre objectif. 4.1 4.1.1 Mise en œuvre Choix des progiciels Indubitablement cette étape est critique. Ce qu’il faut assurer c’est l’objectivité du choix technologique qui doit mener à l’atteinte de l’objectif final du projet. Ceci est assuré par l’étude du marché pour parvenir à une sélection adéquate de produits. GIMSI recommande que cette étape se réalise après a conception générale de la solution. 2018/2019 48 Mise en œuvre et amélioration permanente Chapitre 4 Néanmoins dans notre cas nous devons prendre en compte le protocole de pilotage de la Holding, et vu que l’entreprise a adapté, ces dernières années, les produits Microsoft notre rôles sera l’étude des outils BI disponibles sur le marché pour comprendre les préférences de PGH, tout en précisant qu’elles se basent sur les contraintes financières ainsi que sur les besoins techniques qui se résument en 4 étapes : • La phase de la conception ; • La réalisation d’ETL ; • L’élaboration de Data Warehouse ; • Construction d’un cube OLAP ; • La concrétisation du Reporting en dégageant des KPIs. 4.1.1.1 Etude comparative des outils BI • Microsoft Business Intelligence Durant ces dernières années Microsoft a manifesté un intérêt visible au domaine décisionnel, l’entreprise cible une part importante du marché, et avec les solutions qu’elle offre nous pouvons dire qu’elle est sur la bonne trajectoire. La plate-forme Microsoft s’accompagne de divers outils qui permettent d’effectuer tout le processus décisionnel avec une haute performance. Nous citons : - SQL Server Reporting Services (SSRS) ; - SQL Server Analysis Services (SSAS) ; - SQL Server Intégration services (SSIS) ; - Microsoft Power BI. • Oracle Business Intelligence Une plate-forme fournisse par Oracle, et un concurrent direct aux produits Microsoft. Avec sa fonctionnalité et sa capacité d’effectuer des analyses avancées et des rapports détaillés il répond aux besoins décisionnels. Permettant de stocker les données, de réaliser l’ETL ainsi que de publier des tableaux de bords. Par conséquence cette technologie se classe parmi les outils les plus utilisés par l’intégrateurs. 2018/2019 49 Mise en œuvre et amélioration permanente Chapitre 4 • Pentaho Business Intelligence Pentaho de l’autre côté offre une gamme décisionnelle complète regroupant plusieurs projets open-source. Le tableau (4.1) illustré ci-dessous représente une comparaison entre les trois technologies : Fonctionnalité Microsoft Oracle Pentaho Alimentation Tous sources de données Tous sources de données Tous BDs à travers le driver JDBC Stockage Cube OLAP, Data Warehouse, DataMart Cube OLAP, Data Warehouse, DataMart SGBD avec l’option OLAP Analyse Analyse multidimensionnelle, statistiques Analyse multidimensionnelle, statistique Connexion à des BDs relationnelles, Requêtes MDX possibles Reporting TB personnalisé et interactif, Interface graphique simple TB personnalisé et interactif, Interface graphique simple TB personnalisé et interactif, Interface graphique simple Table 4.1 – Top 3 des technologies BI 4.1.1.2 Environnement logiciel choisi • Conception La conception dans n’importe quel projet est indispensable vu qu’elle représente le pont de passage du besoin décrit à la concrétisation de la solution. Ce pont-là sera sous forme de diagrammes. Pour cela nous allons utiliser le langage UML qui sert à découper le processus avant sa réalisation. A cet égard nous avons choisi GLIFFY ; un logiciel de diagrammes web, vu sa simplicité et facilité d’utilisation. • Outils de développement Avec la diversité des technologies il est important de focaliser sur notre besoin tout en prenant en compte le budget alloué à ce projet par l’entreprise. En étudiant ces deux axes avec les responsables de PGH nous avons opté vers les produits BI Microsoft. Ce choix évidemment est conforme à la politique de la Holding. 2018/2019 50 Mise en œuvre et amélioration permanente Chapitre 4 Notre recherche nous a révélé que les solutions Microsoft assurent : - L’ergonomie ; - La facilité de l’usage ; - La sécurité des données ; - La capacité de deploiement ; - La sécurité. 4.1.1.3 Environnement matériel choisi Ce travail était élaboré sur deux machines ayant les caractéristiques représentées dans le tableau (4.2) suivant : Processeur Intel Core I5-5200U Intel Core I9 Mémoire vive 8GB 16GB 1TB 520GB 1TB 520GB Windows 10 professionnel (x64) Windows 10 professionnel (x64) Disque dur Système d’exploitation Table 4.2 – Environnement matériel. 4.1.2 Intégration et déploiement Tout en considérant les spécificités de la solution proposée, le système tableau de bord doit être pris en compte dans l’entreprise. A delà de l’évaluation des besoins satisfaits il est important d’aborder le cout de l’intégration et du déploiement. Cette étape est relative aussi aux contraintes d’adaptation technique et de temps. Egalement il faut prendre en compte l’infrastructure de l’entreprise. 4.1.2.1 Alimentation du DataMart Après avoir conçu notre modèle multidimensionnel, nous procédons le chargement des données dans notre DM. 2018/2019 51 Mise en œuvre et amélioration permanente Chapitre 4 i. Conception de l’alimentation du Data Mart Notre DataMart présente une structure dimensionnelle de stockage qui fait intervenir 3 nœuds représentés par un diagramme de déploiement (voir figure 4.1). — Serveur SA : Staging Area zone présentant une copie de la base relationnelle. — Serveur SSIS : Ou s’exécute le processus d’extraction, de transformation et de chargement. — Serveur DataMart : Magasin de données. Figure 4.1 – Diagramme de déploiement de la phase d’alimentation des données NB : La liaison entre ces éléments se fait par l’intermédiaire d’une API assurant une connexion OLEDB « Object Linking and Embedding Database ». En vue de mieux comprendre le processus d’alimentation nous avons établi 3 cas d’utilisation présentés par les figures (4.2) (4.3) (4.4). 2018/2019 52 Mise en œuvre et amélioration permanente Chapitre 4 • Cas d’utilisation global à l’alimentation des données Figure 4.2 – Diagramme d’activité d’alimentation des données NB : La planification d’ETL (JOB) est primordiale dans un projet BI. Elle permet de déterminer le moment et la fréquence d’exécution de ce processus (voir annexe 5). Il est recommandé que ce dernier soit planifié or les heures l’activité habituelles. L’exécution dépend alors, du volume de données disponibles (voir figure 4.2). • Cas d’utilisation spécifique à l’alimentation des dimensions La première phase consiste à extraire les données qui sont stockées dans la base de données relationnelle notre Back-Up « Promotips ». L’extraction se fait par l’intermédiaire des clés métier qui éliminent les dédoublements. Par la suite l’ajout des clés artificielles «surrogate key», permettent de mapper les données sources avec celles chargées dans le DataMart. La phase final consiste à utiliser la technique SCD ; Dimension à variation lente. Cela assure la MAJ des dimensions (voir figure 4.3). 2018/2019 53 Mise en œuvre et amélioration permanente Chapitre 4 Figure 4.3 – Diagramme d’activité d’alimentation des dimensions NB : « Slowly Changing Dimesion » ou SCD est un élément utilisé pour l’insertion ou la mise à jour des dimension. Le mecanisme adapté par le SCD est la comparaison des données de la source avec celles déjà insérées dans les dimensions. Cela se fait par l’intermédiaire d’une clé professionnelle (Business Kye). Cette technique se repose sur 8 méthodes, parmi lesquels nous citons type 1, type 2 et type 3 : 1. MAJ des dimensions sans historisation ; 2. Insertion des nouvelles lignes avec historisation ; 3. Conservation de plusieurs instance de la même colonne. 2018/2019 54 Mise en œuvre et amélioration permanente Chapitre 4 • Cas d’utilisation spécifique à l’alimentation de la table des faits Figure 4.4 – Diagramme d’activité d’alimentation de la table des faits NB : Son rôle c’est d’homogénéiser les données sources, et de faire une vérification primaire de leur qualité et de leur formats. En d’autre terme le SA est une « zone d’attente » [6]. Egalement elle permet de minimiser le temps de réponse des requête ainsi que de faire diminuer la charge du flux de données sur le serveur. ii. Implémentation physique de l’entrepôt de données Avant d’alimenter le DataMart il faut que nous créions une base conforme au modèle spécifié. A cet égard nous avons implémenté le modèle multidimensionnel (voir annexe 3) avec Microsoft SQL Server Developer qui jouera le rôle du DM, assurant l’interrogation facile des données. Pour cela nous avons créé une nouvelle instance de SQL Server nommé FORM3/FORMATION(voir figure 4.5). Cette instance assure la confidentialité des données que nous disposons, avec une connexion sécurisée. 2018/2019 55 Mise en œuvre et amélioration permanente Chapitre 4 Figure 4.5 – Authentification SQL Server iii. Implémentation et exécution du processus ETL Le système ETL comprend 34 services. Ces services ou ces « Subsystems », comme l’indique Mr. Kimball, assurent la phase d’ETL avec cohérence et exhaustivité résultant des données traitées prêtes aux analyses avancées. Cette phase critique est un défi réel dans les projets décisionnels vu les enjeux des systèmes sources, des outils, etc. Elle présente 70 pour cent du travail effectué. Le produit que nous avons choisi pour l’implémentation du projet est une solution Microsoft. Cette dernière nous a permis de créer un projet d’intégration SSIS qui suit une hiérarchie bien spécifique. Il se compose d’un ou plusieurs Packages (voir figure 4.6). Chaque Package pourrait inclure une ou plusieurs tâches (Tasks) ;chacune comportera d’autres éléments Comme l’illustre la figure (4.7) (voir annexe 3). Figure 4.6 – Hiérarchie d’un projet SSIS 2018/2019 56 Mise en œuvre et amélioration permanente Chapitre 4 Nous allons tout de suite décortiquer toutes les étapes de l’implémentation. • Extraction des données Dans un premier les données doivent etres extraites à partir de la base « Promotips » pour les charger dans notre DM nommé « promo ». Ces données seront, par la suite traitées est chargées dans l’entrepôt. Dans cette partie il est important de comprendre que notre solution sera déployée dans l’entreprise. Sa mise en place nécessite qu’elle soit liée à un serveur de données permettant la mise à jour et le chargement régulier des données Nous avons alors choisi d’ajouter une rubrique permettant la MAJ des données. Cette rubrique est nommée Staging area (SA)(voir annexe 3). Elle représente une base intermédiaire entre les sources et le système ETL. Dans ce cas toutes les données seront chargées dans le SA, le DataMart ne sera alimenté que par les tables dites STG (mis à jour). Pour se faire il existe 4 méthodes ; Soit de charger les données selon la dernière date d’extraction ou le dernier identifiant stocké. Nous pouvons utiliser également la technique SCD ou de supprimer le contenu de la table avec la commande « Truncate » et de la recharger. — Dernier date d’extraction : 1. Créer une Table au niveau du Back-Up actualisée, sur lequel notre ETL est pointé, dans lequel nous stockons la date du dernier chargement des données ; 2. Créer des Variables avec SSIS en spécifiant un script SQL assurant l’extraction de la valeur de la date stockée au niveau du Back-Up. 2018/2019 57 Mise en œuvre et amélioration permanente Chapitre 4 3. Mettre à jour les données issues du serveur vers le Back-Up, si la date du système est supérieure à la date sauvegardée dans le back-up. — Dernier identifiant sauvegardé : 1. Créer des Variables avec SSIS en spécifiant un script SQL assurant l’extraction de l’identifiant du dernier élément chargé dans le Back-Up ; 2. Mettre à jour les données des tables, issues du serveur vers le Back-Up, ayant l’identifiant supérieur à celui stocké dans la variable ; — Technique SCD : 1. MAJ des données en utilisant la technique "Slowly Changing Dimension" de type 1 sur les tables qui sont de tailles réduites ; — Recharger les tables : 4. Cela se fait par un script SQL qui utilise la commande "Truncate".Nous supprimmons toutes les données pour les recharger de nouveau. Cette méthode est utilisée pour les tables qui ne disposent ni de date ni d’identifiant. NB : Dans notre cas nous avons adapté les 3 dernières méthodes ; Technique SCD pour les tables « filiale » , « family », « product » et « gamme », Dernier Identifiant pour les tables « itemFamily », « Item » et « Action » La recharge des données pour la table « ActionFiliale » (voir annexe 3). Dans un second temps, nous allons nous intéresser à l’extraction des données du Staging Area, qui vont alimenter les dimensions. Nous devons alors préciser les tables sources qui vont être utilisées (voir tableau 4.3 et 4.4). Dimension Item_Dim Table Source Utilisée Information extraite mk_item Le code unique de l’article et son nom. mk_itemFamily Le code unique de l’article et son nom. mk_gamme La gamme de l’article. mk_family La famille de l’article. mk_product Le nom du produit de l’article. Table 4.3 – Détails de la phase d’extraction. 2018/2019 58 Mise en œuvre et amélioration permanente Chapitre 4 Dimension Table Source Utilisée Information extraite Insertion_dim mk_item Le type de l’insertion de l’action. Mec_dim mk_item Le mécanisme de l’action. Enseigne_Dim mk_enseigne Le nom et id de l’enseigne. Filiale_Dim mk_filiale Le nom et id de la filiale. mk_concur L code et le nom du concurrent. mk_filiale Le code et le nom de la filiale cette table va servir plus tard pour des raisons de visualisation. mk_itemFamily Le code et le nom du concurrent non-existant dans la table mk_concur. DateDim Un script SQL —– Act_dim_Dim Action L’id, le nom, le statut et le type de l’action Concur_Dim Table 4.4 – Details de la phase d’extraction. • Transformation des données La transformation des données est primordiale en vue d’obtenir des rapports et des analyses significatifs. Pour bien expliquer cette étape nous avons choisi de démontrer deux exemples de dimensions qui ont nécessité des transformations, ce sont la dimension « Item » et la dimension « Concurrent » . - Dimension Item : Cette dimension illustre la hiérarchie des articles en promotion (Produit, Famille, Gamme).En revanche il y avait des données manquantes ou marquées comme NULL. Cela engendrera des problèmes au niveau de l’alimentation de la table de faits ainsi qu’au niveau du cube. Pour résoudre ce souci, nous avons remplacé les données erronées par l’expression « nondisponible » et nous l’avons associé avec une valeur fictive ajoutée à la dimension (voir annexe 3). 2018/2019 59 Mise en œuvre et amélioration permanente Chapitre 4 - Dimension Concurrents : Egalement la dimension concurrent nécessite quelques transformations vu que l’extraction se fait de plusieurs tables. Nous rencontrons un problème de données manquantes ainsi qu’un problème de caractères spéciaux engendrant une incohérence. Nous avons choisi pour se cas de remplacer les valeurs manquantes par l’expression « nondisponible », et d’utiliser les colonnes dérivées pour nettoyer les données à l’aide de fonction "TRIM" et "UPPER", etc. • Chargement des données Une fois l’extraction et les transformations requises sont terminées avec succès nous pouvons finalement charger les données atomiques dans l’entrepôt de données (voir annexe 3). A cet égard nous utilisons une destination « OLE DB » dans SSIS. - Chargement des données de la dimension « Item » - Chargement des données de la dimension « Concurrent » - Chargement des données de la table des faits 4.1.2.2 Cube OLAP Apres l’exécution du processus ETL et l’alimentation du DM, nous avons choisi de passer par un Cube OLAP avant la phase de restitution. Pour obtenir la représentation cubique il faut valider les étapes suivantes (voir annexe 4) : -Une source de données pointée sur le DM crée. -Une vue basée sur la source de données déterminant les tables intervenant dans le cube (une couche logique). -Les dimensions et les mesures présentes dans le cube. 2018/2019 60 Mise en œuvre et amélioration permanente Chapitre 4 Nous obtenons ce schéma illustré dans la figure (4.7) : Figure 4.7 – Chargement de table des faits avec SSIS Dans un second temps nous avons choisi d’exploiter le langage MDX pour creer des indicateurs complexes, parmi lesquels : - Pourcentage de participation de chaque filiale dans chaque enseigne par rapport aux autres filiales (voir annexe 4). Porcentage = ( Nombre d’action de la filiale 1 dans l’enseigne x/ Total d’actions de PGH dans l’enseigne x)*100. - Pourcentage de participation de chaque filiale dans chaque enseigne par rapport aux concurrents. Porcentage2 = (Nombre d’action de la filiale 1 dans l’enseigne x/ Total d’actions concurrente à la filiale dans l’enseigne x)*100. 2018/2019 61 Mise en œuvre et amélioration permanente 4.1.2.3 Chapitre 4 Alimentation du tableau de bord Dans notre projet nous nous sommes appuyés sur Microsoft Power BI. Ce produit permet de consolider des TB reflétant la performance d’un département ou secteur précis. i. Conception de la phase de restitution des données Figure 4.8 – Diagramme de déploiement de la phase de restitution des données Dans le même cadre, Power BI nous a permis de construire un tableau de bord comprenant des rapports périodiques avec la possibilité de les paramétrer. Cela était vérifier via l’architecture illustrée par la figure (4.8), qui met en évidence l’utilisation d’un serveur Power BI permettant de se connecter sur le serveur SSAS du cube OLAP, lui-même se connecte à un serveur SSIS. ii. Restitution des données Le tableau de bord conçu et réalisé pour des finalités de pilotage stratégique, visualise des indicateurs de performance de haut niveau. Il offre une vision globale sur les activités promotionnelles, et sera livré au comité de direction afin d’améliorer le processus de prise de décision avec minimisation des risques. Le TB est construit de 3 niveaux (voir annexe 6) comme il était énoncé dans la partie des besoins fonctionnels. Sa décomposition se repose sur 14 rapports liés à 7 différentes filiales de PGH. En vue de dégager le maximum d’analyses et d’informations nous avons choisi de consolider 2 rapports (deux niveaux de détails : niveau2 + niveau3) pour chaque filiale. 2018/2019 62 Mise en œuvre et amélioration permanente Chapitre 4 - Le premier niveau : Refletant la performance de la Holding, en illustrant le taux de participation de ses filiales. Figure 4.9 – Restitution de données : niveau 1 Ce niveau présente une vue générale (voir figure 4.9) en fournissant le nombre total d’actions, des concurrents, des enseignes et des filiales concernés par cette étude. Cette rubrique est positionnée à droite (5). Du côté cohérence et interactivité avec les rapports ce tableau de bord dispose de 7 boutons positionnés à gauche (1). Ces derniers permettent la navigation entre les rapports de chaque filiale (2éme niveau). Les éléments clé de cette section ce sont l’histogramme et le graphique en anneau positionnés au centre (3)(4). Ces composants exposent d’une part la répartition de la totalité des ventes promotionnelles et l’écart entre les sociétés affiliées. Et d’autre part il comporte un bilan de suivi des opérations promotionnelles du Groupe par enseigne (6). 2018/2019 63 Mise en œuvre et amélioration permanente Chapitre 4 - Le deuxième niveau : Inclut plus de détails et de données atomiques concernant chaque filiale à part ; en visualisant sa part promotionnelle par rapport à ses concurrents ; Nous prenons l’exemple de GIPA, (figure 4.10). Figure 4.10 – Restitution de données : niveau 2 Ce niveau est interactif avec la disposition de 7 boutons positionnés à gauche pareillement au premier niveau. Ces derniers permettent la navigation entre les rapports des differentes filiale. D’abord nous trouvons un graphique en en anneau (3), représentant la répartition des opérations communiquées et non-communiquées de la filiale par enseigne. Ensuite nous distinguons l’intégration de l’axe temporel, qui met en valeur l’évolution des promotions de GIPA par mois selon l’enseigne avec un graphique linéaire (1). Tout en la comparant avec ses concurrents en visualisant un histogramme en cluster (2) la même information, plus détaillée est disponible en pourcentage dans la matrice (4). 2018/2019 64 Mise en œuvre et amélioration permanente Chapitre 4 - Le troisième niveau : Ce niveau consiste à tirer des informations détaillées sur les articles en promotions (voir figure 4.11). Pour cela nous avons choisi camembert pour montrer les pourcentages des opérations selon le produit (1), avec l’évolution des actions des familles des articles par un graphique linéaire (3) et un histogramme en cluster pour représenter les tops et flops gammes en promotion (2). Ce niveau étudie les résultats de GIPA ainsi que de ses concurrents. Figure 4.11 – Restitution de données : niveau 3 4.1.2.4 Validation et test En vue de valider les résultats obtenues, nous avons testé chaque élément à part durant tout le projet. Cela était suit par un test d’intégrité global de la solution dans le but de vérifier son fonctionnement et sa cohérence sur deux axes différents ; la conformité des rapports restitués avec les données sources que nous disposons, ainsi que la stabilité du tableau de bord et de sa performance. Suite aux tests, notre projet était validé par notre encadrent ainsi que par le département commercial dans le but de l’intégrer. 2018/2019 65 Mise en œuvre et amélioration permanente 4.1.2.5 Chapitre 4 Integration L’intégration de la solution dans l’entreprise, s’est fait suivant les etapes citées ci-dessous : • Hébergement du DataMart dans un serveur ; • Connexion du DataMart au serveur ; • allocation d’accès aux utilisateurs ; • Publication du cube OLAP ; • Publication du tableau de bord. Dans le cas de notre projet nous avons réalisé cette phase sur un deuxième poste de travail ayant les droits d’accès au serveur, vu que pour de raison de haute confidentialité nous ne pouvons pas accéder au serveur sans avoir une matricule (les employés de PGH peuvent accéder en inserant leur numéro de carte d’identité). Durant cette phase l’allocation des droits d’accès est primordiale. Le lancement du tableau de bord sera sur un navigateur Web. L’administrateur permet chaque directeur de consulter uniquement sa section. 4.1.3 Amélioration permanente Les systèmes décisionnels sont fondés sur la notion de l’amélioration permanente. Afin de garantir la performance et la durabilité de la solution réalisée au cours du temps, il faut s’assurer que les besoins du client sont toujours satisfaits, tout avec l’évolution de l’entreprise et le changement continu des besoins et stratégies. A cet égard un audit du système de mesure de la performance et de control régulier doit être réalisé. L’audit est un outil qui accompagne le pilotage des projets décisionnels. C’est une manière d’analyse et de détection des problèmes. Elle évalue l’état actuel ainsi que les prospectives de la solution mise en place. Cette étape se fait par le responsable du processus métier dit "pilote de processus". 2018/2019 66 Mise en œuvre et amélioration permanente Chapitre 4 Conclusion Dans cette partie nous sommes passé de la conception du modèle et de sa alimentation, à l’implémentation physique qui a donné naissance à un tableau de bord dynamique regroupant des KPIs de haut niveau. Cette section était accompagnée par des captures d’écran exposant le côté technique et fonctionnel de la solution élaborée. 2018/2019 67 Conclusion générale Dans le secteur des ventes promotionnelles et avec un marché fortement concurrentiel le processus de prise de décision est de plus en plus critique. A cet égard les entreprises exerçant ce métier, doivent mettre en place une stratégie qui valorise l’exploitation des données. Pour se faire un système d’informations décisionnel doit être mis en place. Ce dernier sert à l’extraction de la connaissance et au traitement des données dans le but d’en dégager des indicateurs minimisant l’incertitude du décideur. Ce travail s’inscrit dans le cadre de projet de fin d’études, consiste à mettre en œuvre une solution décisionnelle de suivi des actions promotionnelles dans les GMS au sein de Poulina Group Holding. Durant la période su stage, nous avons appliqué les connaissances que nous avons acquises tout le long de notre cursus universitaire. Nous avons eu la chance également d’enrichir nos compétences techniques au sein de l’équipe BI de la Holding. Dans un premier temps nous avons entamé ce rapport par une étude du contexte général du sujet, ce qui nous a permis de révéler les problèmes de suivi du département commercial. Ensuite, nous avons abordé la phase de conception générale qui englobe les besoins, les indicateurs à dégager, l’étude de la maquette et la construction du tableau de bord et finalement la phase de collecte de données qui inclut l’architecture physique ainsi que le modèle multidimensionnel choisi. Une fois la conception globale est terminée, nous avons étudié les différentes technologies disponibles sur le marché en vue de justifier notre choix pour les produits MSBI. Enfin, nous avons illustré la phase de restitution à travers des captures d’écran et des commentaires explicatifs. Pour conclure, ce stage nous a été bénéfique, mise à part des compétences techniques acquis, nous avons aussi approfondir nos connaissances concernant la vie professionnelle et l’inté68 gration au sein d’une équipe de travail. Ce stage nous a pareillement, offert l’opportunité de collaborer avec PGH, et de conquérir une expérience professionnelle. Finalement, Nous avons réussi à répondre à tous les besoins du client et conformément à des règles des nouvelles technologies. En guise de perspectives, notre solution a l’avantage d’être ouverte et extensible, dans ce contexte que nous envisageons d’étendre notre projet en ajoutant des nouveaux axes à traiter suivant le besoin du client. Notre réalisation peut, être enrichie par d’autres modules à savoir un module de prévention à notre application décisionnelle afin de prévoir les produits les plus rentables en promotions. De même, nous proposons d’enrichir cette solution, par l’ajout du volet comptable au tableau de bord, cette proposition va rendre notre solution plus impliquée dans le processus des ventes promotionnelles en assurant non seulement le suivi des opérations mais aussi le control budgétaire, la rentabilité des actions promotionnelle, etc. Ceci peut être réalisé par l’extension de notre modèle en étoile pour devenir un modèle en constellations ou hybride ou même en créant un deuxième DataMart. 69 Annexes 70 Annexe 1 : Méthodologie GIMSI La méthodologie GIMSI assure l’obtention d’une conception correcte de la solution décisionnelle. Elle comporte 4 grandes étapes qui eux même se répartissent en sous-étapes, chacune se caractérise par un seuil d’avancement identifiable. Etape 1 : Identifier le contexte de travail • Strategie de l’organisation : Identification de l’environnement de l’entreprise. Cela inclut le volet économique, les concurrents directs et indirects, la clientèle, les produits, les fournisseurs, les partenaires ainsi que l’exploration de sa structure qui aide à comprendre le processus de travail et les acteurs concernés. Egalement il est important de mesurer l’aptitude de l’entreprise à intégrer des solutions de haute technologie. En résultat nous aurons : â Le niveau d’engagement de la direction. â La degré de coopération potentielle. â La portée du projet. • Processus de l’organisation : Egalement la stratégie adoptée par les managers se met en question à cette étape-là. Une étude approfondie se fait sur le métier concerné et les activités ciblées par le projet BI. Etape 2 : Déterminer La conception générale • Objectifs globaux et locaux : 71 Cela est lié directement au type du management que nous pratiquons au sein de l’organisation. Dès lors le choix de la tactique doit être en concordance avec ce qui était spécifiée auparavant. Ces objectifs doivent satisfaire aux critères suivants : â Borné : Limité dans le temps. â Mesurable : Métrique. â Accessible : Quels moyens, quelles contraintes, quels risques. â Réaliste : Quelle méthode d’accès. â Fédérateur : adhésion globale. â Constructif : contribue aux objectifs globaux. • Tableau de bord et conception : Avec une démarche claire et centrée sur des objectifs bien exprimés, une perception dynamique et logique sera acquise.si cette phase est réussie l’obtention des KPIs qui agissent comme un réducteur de risques, et donc la décision sera prise avec moins d’incertitude. Notons bien qu’un Dashboard doit : â Comporter pas plus que KPIs. â Inclure des indicateurs significatifs pour son utilisateur. â Se présenter comme un outil de communication. â Etre cohérent. • Indicateurs de performance : Une fois le problème est identifié et la conception est prête les décideurs se coopèrent avec l’équipe BI dans le but de déterminer les indicateurs de performance souhaités. Un KPI doit être SMART[N8] : â Spécifique : à votre activité et votre objectif. â Mesurable : vous devez pouvoir le tracker via votre outil d’analyse d’audience. â Ambitieux : il doit vous mener au développement de votre activité. â Réaliste : il doit rester ancrer dans la réalité terrain. 72 â Borné : ancré dans le temps. • Collecte des données : Cette étape se résume en l’acquisition des données de différents sources et formats, tout en vérifiant leur qualité. L’information doit être [N9] : âAccessible : Une donnée de qualité doit être présente dans le système d’information et accessible par les processus et utilisateurs qui l’utilisent. âValide : La donnée ne porte pas une valeur aberrante, elle se maintient dans la plage des valeurs acceptables âConsistante : Si la donnée est redondante et présente en plusieurs endroits à la fois, elle porte toujours la même valeur à un instant donné. âPrécise : Elle est jugée suffisamment précise pour l’usage que l’on en attend. âUtile : Elle répond parfaitement au besoin et à l’usage que l’on en attend. • Système de tableaux de bord : A ce niveau le control de la logique entière du système décisionnel se fait suite à la construction des Dashboards qui assurent la communication et la coordination entre les acteurs. Au sein de ce système des échanges d’information résumée, nettoyée et analysée aura lieu. Ce qui résoudre le problème du Reporting classique. Etape 3 : Réaliser et La mettre en œuvre la solution • Choix du progiciel : Face à l’innovation technologique et la diversification des outils sur le marché il est primordial de bien choisir un outil décisionnel qui répond aux besoins spécifiés. • Intégration et déploiement : Il s’agit de déployer la solution dans l’organisation. Tout en prenant en compte les contraintes liées au produit choisi ; adaptation, cout, formation, durée, infrastructure, etc. 73 Etape 4 : Améliorer et contrôler la solution • Audit : Un suivi permanent de la solution sera assuré par une analyse des résultats qui mène évidemment au repérage des axes qui doivent être améliorés. «Vérification périodique de la parfaite adéquation entre le système de pilotage et les besoins exprimés. Méthode d’audit pour garantir la durabilité de la performance du système de pilotage."[10] 74 Annexe 2 : Cycle de vie de Ralph KIMBALL Pour l’élaboration de notre solution décisionnelle nous avons choisi de travailler avec l’approche Kimball. Ce dernier a consacré sa carrière pour s’approfondir dans le monde décisionnel. De nos jours en parlant de Ralph Kimball nous parlons de même du cycle de vie décisionnel. Mr Kimball dans son livre « The data Warehouse Toolkit 3rd édition » a consacré une grande partie pour expliquer comment gérer un projet décisionnel. Nous avons alors, fusionnant avec la méthodologie GIMSI en adaptant les étapes du lancement et de la gestion du projet de GIMSI et la phase d’architecture et de modélisation de Kimball. Dans son cycle de vie, Kimball parle de 10 étapes qui partent de la planification du projet au déploiement et maintenance de la solution réalisée. Figure 4.12 – Cycle de vie de Kimball [11] 75 1. Planification du projet Définir l’étendu du projet, étudier l’environnement et le degré de maturité de l’entreprise en termes de qualification t ressource disponibles 2. Définition des besoins Comprendre les attentes du client et de ses exigences non énoncés, poser les bonnes questions et tirer l’information du client. ce niveau va préparer le terrain du travail en termes de 3 trajectoire ; La technologie, le modèle et l’interface client. 3. Définition de l’architecture technique Identifier l’architecture technique pour mettre en place la solution. Il s’agit de déterminer la vision architecturale globale ce qui dépend des besoins, de l’environnement technique de l’entreprise. 4. Modélisation dimensionnelle Mettre en œuvre un modèle multidimensionnelle en procédant avec la détermination : De la granularité ; Des dimensions et leurs attribut ; De la table des faits et ses mesures. Le modéle obtenue doit inclure les données que nous devons extraire des systèmes sources. 5. Choix technologiques et mis en œuvre Choisir l’environnement technique une fois l’architecture est spécifiée. Cela inclut les plateformes, les logiciels, SGBD, etc, qui seront installés et testés. 6. Conception et développement du système ETL Concevoir est développer les étapes d’ETL qui vont résulter des données nettoyées et atomiques alimentant notre magasin de données. 7. Développement de l’application utilisateur Mettre en place la solution décisionnelle avec finalisation de la construction des tableaux de bord. 9. Déploiement Intégrer après validation et test, l’application au sein de l’organisme. 76 10. Maintenance et croissance S’assurer du fonctionnement durable de la solution ainsi que son évolution avec les changements continue. 77 Annexe 3 : Projet SQL Server Integration Service SSIS 1. Lancement d’un projet SSIS • Nouveau projet Après avoir étudier les données source, concevoir le modèle multidimensionnel et implémenter physiquement le DataMart(voir figure 4.13), il est temps de commencer l’alimentation des dimensions et de la table des faits. Figure 4.13 – Implémentation Physique du DataMart Promo 78 Pour se faire nous utilisons l’outils Visual Studio 2017, pour la création d’un projet d’intégration comme le montre la figure (4.14). Figure 4.14 – Lancement d’un nouveau projet SSIS 79 1. Mise en place du processus ETL Ce projet comportera toutes les phases du processus ETL. Nous commençons par l’extraction qui se réalise sur deux étapes : • L’extraction des données sources vers le staging area. (voir figure 4.15). Figure 4.15 – Package SSIS du staging area Durant cette extraction nous utilisant le principe des variables (voir figure 4.16) pour stocker l’identifiant du dernier élément enregistré, et de même nous avons utilisé la technique SCD. Figure 4.16 – Utilisation des variables pour le staging 80 Exemple 1 : Nous illustrons un exemple de staging(voir figure 4.17), de la table « Action », basé sur l’identifiant dans la figure (4.18) Figure 4.17 – Staging pour la table « Action » Figure 4.18 – Extraction de l’identifiant du dernier élément stocké pour la table « Action » 81 Exemple 2 : Nous citons également un exemple de staging(voir figure 4.19), de la table « Filiale », basé sur « Slowly Changing Dimesion ». Figure 4.19 – Staging pour la table « Filiale » • Passage du Staging au DataMart avec un nouveau package (voir figure 4.20) Figure 4.20 – Package SSIS d’alimentation du DataMart 82 Ce package inclut l’extraction des données du staging vers les dimensions ainsi que leur transformation. Nous montrons un exemple de rectification des valeurs manquantes par l’ajout d’une valeur fictive avec la « Colonne Dérivée ». (voir figure 4.21) Figure 4.21 – Colonne Dérivée dans SSIS Apres avoir rectifié les données manquante et erronées nous procédons avec leur chargement dans les dimensions. Nous illustrant ci-dessous, les flux de contrôle complets de la table « Dim_Item »(voir figure 4.22) et « Dim_concurrent »(voir figure 4.23). L’alimentation des dimensions sera suivi par celle de la table des faits (voir figure 4.24). 83 Figure 4.22 – Flux de contrôle de Dim_Item 84 Figure 4.23 – Flux de contrôle de Dim_Concurrent 85 Figure 4.24 – Alimentation de la table des faits 86 Annexe 4 : Projet SQL Server Analysis Service SSAS Figure 4.25 – Cube OLAP[12] 1. OLAP : OnLine Analytical Processing Pour un stockage dédié au reporting, Le cube OLAP représente une base de données multidimensionnelle. Il se distingue par ses données pré-résumées assurant la rapidité d’exécution des requetes. Pour son interrogation le cube OLAP dispose d’un langage MDX (Multidimensional Expression), assurant d’effectuer des analyses complexes et avancées. D’une façon générale il utilise les fonctions classique Min, Max, AVG, COUNT, SUM ainsi que des fonctions spécifiques dédiées aux agrégations. Il en existe 3 types : ROLAP : Relational Online Analytical Processing 87 structure relationnelle et plusieurs jointures d’où la complexité des requêtes. MOLAP : Multidimensional OnLine Analytical Processing. Elimination du principe relationnel, les données sont stockées suivant une structure multidimensionnelle. Cette dernière assure la restitution des données en pré-calculant tous les croisements possible. HOLAP : Hybrid Online Analytical Processing Alterne entre deux structure, une multidimensionnelle pour les agrégats et une relationnelle pour les données. 2. Lancement d’un projet SSAS Dans cette partie nous allons fournir des captures d’écran concernant notre réalisation. • Nouveau projet (voir figure 4.26) Avant le passage à la phase de restitution nous avons choisi de créer un cube OLAP assurant la rapidité des traitements. La création d’un nouveau projet SSAS se fait par la sélection de « Projet Multidimensionnel » sous la rubrique « Analysis Services ». Figure 4.26 – Lancement d’un nouveau projet SSAS 88 • Spécification de la connexion (voir figure 4.27) Une connexion doit être établie avec le DataMart que nous disposons, dans notre cas il est nommé « Promo ». Figure 4.27 – Vue de source de données 89 • Nouvelle vue de source de données regroupant les dimensions et les mesure. Ces étapes résultent la hiérarchie illustrée dans la figure (4.28) Figure 4.28 – Vue de source de données 90 • Une fois le cube est construit nous pouvons passer à la phase d’analyse et de création des indicateurs. Nous avons choisis de montrer l’exemple d’indicateur du pourcentage de participation de chaque filiale par enseigne (voir figure 4.29). Ce dernier se calcule par la division du nombre d’opérations de la filiale x dans l’enseigne y par la totalité des opérations de l’enseigne y. Figure 4.29 – Vue de source de données 91 Annexe 5 : Planification d’un JOB Suite à l’implémentation de l’ETL et la réalisation des tests de validation nous pouvons préparer notre solution à être intégrée dans l’entreprise pour se faire il est important de planifier un JOB qui prend en charge l’exécution des 3 composants de notre projet : Le staging, l’ETL et le cube OLAP pour permettre finalement l’actualisation du tableau de bord. • A cet égard une connexion de type « Authentification Windows », afin d’ajouter un job à notre « Catalogue » (voir figure 4.30) Figure 4.30 – « Authentification Windows » 92 • Nous avons ajouté les trois composants comme le montre la figure (4.31). Figure 4.31 – « Authentification Windows » 93 • Finalement nous précisons la fréquence et la périodicité de son déclenchement (figure 4.32). Figure 4.32 – « Authentification Windows » 94 Annexe 6 : Phase de restitution Power BI La phase finale avant l’intégration de la solution consiste à consolider un tableau de bord dynamique. Nous avons choisi de travailler avec Power BI. Figure 4.33 – Outils de restitution de données [13] Nous montrons le tableau de bord construit, avec deux exemples de filiale ; GIPA et Global Trading. 95 • Tableau de bord de suivi des GMS (voir figure 4.34). Figure 4.34 – Tableau de bord de consolidé 96 • Rapports consolidés liés à la filiale GIPA : 1. Premier niveau (voir figure 4.35) : Figure 4.35 – Deuxième niveau de la filiale GIPA 97 2. Troisiéme niveau (voir figure 4.36) : Figure 4.36 – Troisième niveau de la filiale GIPA 98 • troisiéme niveau consolidé du tableau de bord : 1. Premier niveau (voir figure 4.37) : Figure 4.37 – Deuxième niveau de la filiale Global Trading 99 2. Deuxième niveau (voir figure 4.38) : Figure 4.38 – Troisième niveau de la filiale Global Trading 100 Annexe 7 : Documentation de la base source Cette section traite nous la base de sonnées source que nous était communiqué par le responsable. Cette BD est la base du système "Promotips". C’est le manuel du modèle entité-association. 101 1. Présentation générale Ce document présente la modèle entité-association du système promotips 102 2 . Structure de base de données : Table mk_magasin mk_enseigne Mk_action Mk_ocpics mk_filiale mk_actionFiliale mk_concur mk_plan mk_item mk_itemFamily mk_gamme mk_family mk_product Description Table décrit la liste des magasins Table décrit la liste des enseignes qui sont issus de l’application merchandising Table décrit la liste des actions Table décrit la liste des photos qui sont liées aux actions Table décrit la liste des filiales Table décrit les différents status des actions dans les différentes filiales Table décrit la liste des concurrents aux filiales PGH Table décrit la liste des années Table décrit la liste des articles en promotions Table décrit la fiche article du groupe POULINA Table décrit la liste des gammes Table décrit la liste des familles Table décrit la liste des produits 3 . Définition des tables : • mk_magasin : Nom de champ id addr_magasin Type de champ INTEGER VARCHAR Description du champ Identifiant magasin Addresse magasin code_merchandising code_mfg delegation delegation_name magasin_name ordre_magasin region region_name id_enseigne VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR INTEGER INTEGER VARCHAR INTEGER Code merchandising Code MFG Délégation Nom Délégation Nom magasin Ordre du magasin Région Nom du région Identifiant Enseigne • mk_enseigne : Nom du champ id id_merchandiseur logo modif_date Type du champ INTEGER INTEGER VARCHAR DATE Description du champ Identifiant enseigne Identifiant merchandiseur Logo Date modification 103 modif_user name ordre rc • Type du champ INTEGER VARCHAR VARCHAR DATE VARCHAR INTEGER VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR DATE VARCHAR VARCHAR INTEGER INTEGER Description du champ Identifiant action Commentaire Description Date de fin Entrer User Identifiant action Nom action Type du champ INTEGER DATE VARCHAR VARCHAR BLOB INTEGER Description du champ Identifiant ocpics Date entrer Entrer user Identifiant entité Contenu Fichier Identifiant action Type du champ INTEGER BLOB VARCHAR VARCHAR Description du champ Identifiant filiale Logo filiale Nom filiale Used Mois action Nouvelle action Date de début Status Type Identifiant plan Identifiant enseigne mk_ocpics Nom du champ id enter_date enter_user entity file_content event_id • User Modification Nom Ordre de modification Registre de commerce mk_action Nom du champ id comment description end_date enter_user event_id event_name mea mk_exception month_action nouvelle_action repport start_date statu type plan_id enseigne • VARCHAR VARCHAR VARCHAR VARCHAR mk_filiale Nom du champ id logo name used 104 • mk_actionFiliale Nom du champ calendrier_anim exception id_magasin id_magasinAnim modif_date modif_user statu filiale id_action • Description du champ Calendreir anim exception Identifiant magasin Identifiant magasin anim Modification date Modification user Status Identifiant filiale Identifiant action Type du champ INTEGER VARCHAR VARCHAR VARCHAR VARCHAR BLOB VARHCAR INTEGER Description du champ Identifiant concurrent aux filiale activity Addresse Code Description Logo Nom Concurrent affiliate Type du champ INTEGER DATE VARCHAR VARCHAR DATE VARCHAR VARCHAR Description du champ Identifiant plan Enter date Enter User Identifiant entité Modification Date Modification user année mk_concur Nom du champ id activity addr code description logo name concur_affiliate • Type du champ VARCHAR VARCHAR INTEGER INTEGER DATE VARCHAR VARCHAR INTEGER INTEGER mk_plan Nom du champ id enter_date enter_user entity modif_date modif_user year 105 • • mk_item Nom du champ Type du champ Description du champ id description end_fact enter_time enter_user entity family filiale initial_price insertion item_code item_um jeux mea mea_price mecanisme INTEGER VARCHAR DATE DATE VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR Identifiant Item description End Fact Enter time Enter user Identifiant entité Identifiant famille Identifiant filiale Prix initiale Insertion Code Item Um Item Jeux Mea Prix mea Mecanisme mk_version nature pr_qte pvente reduction start_fact action_id plan_id VARCHAR VARCHAR VARHCAR VARCHAR VARCHAR DATE INTEGER INTEGER Mk version Nature Qte Prix vente Reduction Start fact Identifiant action Identifiant plan Type du champ INTEGER VARCHAR VARCHAR VARCHAR INTEGER Description du champ Identifiant product Code product Nom product used Identifiant filiale Type du champ INTEGER VARCHAR VARCHAR VARHCAR Description du champ Identifiant family Code family Nom family used mk_product Nom du champ id code name used filiale • mk_family Nom du champ id code name used 106 product_id filiale • Identifiant identifiant Identifiant filiale Type du champ INTEGER VARCHAR INTEGER INTEGER INTEGER Description du champ Identifiant gamme Code gamme Identifiant famille Identifiant product Identifiant filiale Type du champ INTEGER VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR BLOB VARCHAR VARCHAR VARCHAR VARCHAR VARCHAR INTEGER INTEGER INTEGER INTEGER VARCHAR Description du champ Identifiant Item Family code a barre Identifiant enseigne Identifiant entity Item code Item code concurent Nom item Item poulina group holding Item um Logo Nom logo Identifiant Magasin Prix Identifiant Produit Status Identifiant gamme Identifiant family Identifiant produit Identifiant filiale Mk item Family col mk_gamme Nom du champ id code family_id product_id filiale • INTEGER INTEGER mk_itemFamily Nom du champ id code_barre enseigne entity item_code item_conc_code item_name item_pgh item_um logo logo_name magasin price product statu gamme family product_id filiale mk_itemFamilycol 107 Bibliographie [1] Bernard Espinasse, Introduction à l’informatique décisionnelle. [2] Ralph Kimball, The Data Warehouse Toolkit, 2013. [3]Les nouveaux tableaux de bord pour les managers. 108 Nétographie [N1] http ://www.poulinagroupholding.com/fr/profil-du-groupe/, Profil du groupe, dernière [visite le 01/05/2018]. [N2] http ://www.poulinagroupholding.com/fr/profil-du-groupe/, Profil du groupe, dernière [visite le 01/05/2018]. [N3] http ://docplayer.fr/8826826-Membre-d-introduction-en-bourse-poulina-group-holdingpgh.html, Membre d’introduction en Bourse POULINA GROUP HOLDING, publié en juillet 2008, dernière [visite le 04/05/2018]. [N4]https ://www.lebigdata.fr/business-intelligence-definition. [N5] https ://fr.slideshare.net/sirinebargaoui9/mthodes-agiles-vs-mthodes-classiques [N6] https ://grim.developpez.com/cours/businessintelligence/concepts/conception-datawarehouse/ [N7] https ://grim.developpez.com/articles/concepts/etl/ [N8] http ://infodecisionnel.com/labi-en-generale/datawarehouse/ods-vs-staging-area/ [N9] https ://www.piloter.org/businessintelligence/qualite-des-donnees.htm [N10] https ://fleid.net/tag/cycle-en-v/ [N11] https ://www.ekko-media.com/indicateurs-de-performance-kpi [N12]https ://www.google.com/imgres ?imgurl=https [N13] https ://www.supinfo.com/articles/single/5554-cube-olap-rapports-bases-cube [N14] https ://powerbi.microsoft.com/fr-fr/ 109 Résumé L’objectif principal de notre travail est l’élaboration d’une solution décisionnelle BI, pour le suivi et le control de planning promotionnel des grandes et moyennes surfaces GMS. Ce projet s’agit de consolider un tableau de bord cohérent, simple, dynamique et sécurisé. Ce dernier sera par la suite déployé et intégré dans l’entreprise. Cette solution va servir à la direction du département commercial ainsi qu’aux directions des filiales de Poulina Group Holding. Ce projet vise la veille des opérations promotionnelles de PGH, effectuées par les enseignes ainsi que la surveillance de l’activité des concurrents, en vue d’améliorer la performance des ventes promotionnelle et de rectifier la trajectoire commerciale si une déviation est détectée. Notre tableau de bord GIMSI est consolidé sur la base d’un modèle multidimensionnel en étoile suivant le principe de Mr. Kimball en utilisant les produits MSBI. Il est à la disposition du service commercial, comme instrument de mesure et outils facilitant le processus de prise de décision, avec la minimisation du risque. Mots clés : BI, Vente Promotionnelle, MSBI, PGH, processus de prise de décision, Kimball, schéma en Etoile, Tableau de bord, GIMSI. 110 Abstract The main goal of our work is the elaboration of a BI solution, to track and control of promotions planning of medium and large supermarkets GMS. This project is about consolidating a coherent, simple, dynamic and secure dashboard wich will be deployed and integrated into the company. This solution will serve sales department as well as Poulina Group Holding’s subsidiaries. This project aims to maintain an up-to-date knowledge of the market and to monitor and analyze competitors’s activities, so the Holding could improve the performance of promotional sales. Our GIMSI dashboard is consolidated based on a multi-dimensional star model using Kimball approch and MSBI technology. It is at the disposal of the sales department, as a measuring instrument and tools facilitating the decision-making process, with the minimum risk. Keywords : BI, Promotional Sales, MSBI, PGH, Decision Making Process, Kimball, Dashboard, GIMSI. 111