MANAGEMENT DES TECHNOLOGIES ORGANISATIONNELLES Collection Économie et Gestion Dans la même collection L’ÉVALUATION DES CHERCHEURS Daniel Fixari, Jean-Claude Moisdon, Frédérique Pallez SÛRETÉ NUCLÉAIRE ET FACTEURS HUMAINS: la fabrique française de l’expertise Grégory Rolina PROCEEDINGS OF THE THIRD RESILIENCE ENGINEERING SYMPOSIUM Erik Hollnagel, François Pieri, Eric Rigaud (editors) PROCEEDINGS OF THE SECOND RESILIENCE ENGINEERING SYMPOSIUM Erik Hollnagel, Eric Rigaud (editors) MODEM LE MAUDIT Economie de la distribution numérique des contenus Olivier Bomsel, Anne-Gaëlle Geffroy, Gilles Le Blanc ÉVALUATION DES COÛTS Claude Riveline LE LEADERSHIP DANS LES ORGANISATIONS James G. March, Thierry Weil DERNIER TANGO ARGENTIQUE Olivier Bomsel, Gilles Le Blanc LES NOUVEAUX CIRCUITS DU COMMERCE MONDIAL Dialogue Etat-Entreprises François Huwart, Bertrand Collomb INVITATION À LA LECTURE DE JAMES MARCH Réflexion sur les processus de décisions, d'apprentissage et de changement dans les organisations Thierry Weil NEW NEIGHBOURS IN EASTERN EUROPE Economic and Industrial Reform in Lithuania, Latvia and Estonia Christian von Hirschhausen © Presses des Mines, 2009 60, boulevard Saint-Michel - 75272 Paris Cedex 06 - France email : [email protected] http://www.mines-paristech.fr/Presses ISBN : 978-2-911256-12-7 Dépôt légal : 2009 Achevé d’imprimer en 2009 (Paris). Tous droits de reproduction, de traduction, d’adaptation et d’exécution réservés pour tous les pays. Journées d’étude MTO’2009 Management des technologies organisationnelles Montpellier, 15-16 octobre 2009 Groupe Sup de Co Montpellier Dans le prolongement des journées d’étude MTO’2008, les journées d’étude MTO’2009 ont été organisées à Montpellier par la Chambre Professionnelle du Conseil Languedoc-Roussillon, le Groupe Sup de Co Montpellier et le centre de recherche LGI2P de l’Ecole des Mines d’Alès. MTO a pour objectif de promouvoir le Management des Technologies Organisationnelles, et à ce titre de valoriser les travaux de chercheurs, de consultants, d’experts et de professionnels sur ce thème. Comité scientifique : Serge AGOSTINELLI, Nassim BELBALY, Marc BIGRET, Jean-Pierre BOISSIN, Daniel BONNET, Vincent CHAPURLAT, Marie-Françoise COMBAZ, Monique COMMANDRÉ, Nicolas DACLIN, Calin GURAU, Frank LASCH, Frédéric LE ROY, Anne LICHTENBERGER, Jacky MONTMAIN, Céline PASCUALESPUNY, Yvon PESQUEUX, Hervé PINGAUD, Pierre-Michel RICCIO, Véronique RICHARD, Guy SAINT-LEGER, Henri SAVALL, Patrick SENTIS, Emmanuel SOUCHIER, Michel VASQUEZ. Comité d’organisation : Daniel BONNET, Maud BOUVARD, Marie-Françoise COMBAZ, Calin GURAU, Frank LASCH, Pierre-Michel RICCIO. Comité de rédaction : Pierre-Michel RICCIO, Daniel BONNET, Silvia DEKORSY. 2 Management des Technologies Organisationnelles : Journées d’Etude 2009 La question du lien entre organisation et technologies ouvre une perspective nouvelle qui explore l’articulation entre champs disciplinaires spécialisés. Le Management des Technologies Organisationnelles vient considérer l’importance de l’organisation et de la technologie dans la même unité d’analyse. L’une ne se trouve plus contingente de l’autre, selon le point de vue du gestionnaire ou de l’ingénieur, mais les points de vue doivent se recomposer dans une perspective tierce qui est celle de sa finalité : la meilleure « compatibilité » possible pour l’utilisateur final. Aussi, le Management des Technologies Organisationnelles viset-il la coopération des acteurs dans toute la chaine de valeur ajoutée, dès le stade de la conception technologique ou organisationnelle. L’enjeu est aussi de mieux comprendre comment les termes de performance et de compétitivité se déterminent dans cette articulation, qui est celle de la genèse du couplage structurel et fonctionnel de la technologie et de l’organisation, et par conséquent de l’application dans son environnement. La compatibilité sera d’autant plus améliorée que la technologie proposera des solutions techniques conceptuellement adaptables dans des configurations organisationnelles qui pourront aisément être reconfigurées : l’organisationnel et le technologique doivent se penser dans un point d’équilibre isodynamique, dans le processus d’appropriation par les utilisateurs finaux. Cet ouvrage rend compte des travaux proposés au cours des journées d’étude MTO en 2008 et 2009, par des chercheurs et des experts. La première partie donne carte blanche à des membres du comité scientifique pour initier le débat. La deuxième partie présente une sélection des meilleurs textes de MTO’2009. Elle rend compte de la diversité des sujets de recherche ou d’investigation dans le domaine du Management des Technologies Organisationnelles. Enfin la troisième et dernière partie, plus exploratoire, propose des textes directement issus de travaux conduits en laboratoires ou d’expériences de terrain ayant émergés lors de la première édition des journées d’étude MTO’2008. Pierre-Michel Riccio et Daniel Bonnet Coordonnateurs de l’ouvrage MANAGEMENT DES TECHNOLOGIES ORGANISATIONNELLES Journées d’étude 2009 Ouvrage coordonné par Pierre-Michel RICCIO et Daniel BONNET SOMMAIRE I – Cartes blanches au comité scientifique Yvon PESQUEUX Technologie, technique et outils de gestion ........................................................... 7 Hervé PINGAUD Rationalité du développement de l’interopérabilité dans les organisations ............. 19 Véronique RICHARD Pour une éthique relationnelle dans les organisations contemporaines ? .............. 31 Guy SAINT-LEGER Les projets d’intégration à base de progiciels intégrés ........................................... 39 II – Communications MTO’2009 Daniel BONNET Le pilotage d’un processus de transformation de la connaissance : application en Management des Technologies Organisationnelles ............................................... 53 Guy SAINT-LEGER et Daniel BONNET Impacts des dysfonctionnements d’usages avec les systèmes intégrés de type ERP/PGI ................................................................................................................. 69 Eric LACOMBE Liens, flux et réseaux : indicateurs et repères pour le management des technologies organisationnelles .............................................................................. 87 Corinne BAUJARD Technologies organisationnelles : quel alignement stratégique des usages ? ..... 103 Vincent CHAPURLAT, Didier CRESTANI et Yousra BEN ZAÏDA Une démarche pour la conduite du changement en entreprise manufacturière ... 117 4 Management des Technologies Organisationnelles : Journées d’Etude 2009 Mélanie BURLET, Romain CHEVALLET et Thierry PRADERE Hyper rationalisation organisationnelle et technique : le cas du Voice Picking ..... 131 Marie-Françoise COMBAZ Comment aligner l’outil de gestion d’une PME sur sa stratégie ? ......................... 145 Marc BIGRET Analyse des conditions permettant qu’une innovation trouve son usage dans le cadre de la création d’entreprise........................................................................... 159 André DELAFORGE et Nicolas MOINET L'apport de la notion de réseau et de modèle économique aux problématiques de mise sur le marché d’une innovation .................................................................... 171 Frédéric ELY et Marielle METGE L’intelligence communicationnelle interne, pour le management d’une communication interne innovante au sein de l’organisation................................ 181 Denis ZANDVLIET et Yann XOUAL Désordres organisationnels induits par l’abus des tableurs .................................. 199 Sihem MALLEK, Nicolas DACLIN, Vincent CHAPURLAT Pilotage de processus collaboratifs : amélioration de l’interopérabilité ................. 217 Afef DENGUIR-REFIK, Gilles MAURIS, Jacky MONTMAIN et Abdelhak IMOUSSATEN On the use of possibility distribution summary indicators in multi-criteria decision based on the Choquet integral: application to marketing of e-commerce organizations ........................................................................................................ 229 Monique COMMANDRÉ et Pierre-Michel RICCIO Vers de nouveaux agencements opur l’accès à l’information scientifique ............ 253 III – En direct des laboratoires Daniel BONNET Promouvoir le Management des Technologies Organisationnelles : lignes directrices fondamentales d’une politique de management des technologies organisationnelles ................................................................................................. 265 Daniel BONNET Transformation des compétences et création de potentiel humain pour le management des technologies organisationnelles ............................................... 283 Nicolas DACLIN et Vincent CHAPURLAT Evaluation de l’interopérabilité organisationnelle et managériale des systèmes industriels : le projet CARIONER .......................................................................... 297 Philippe COIFFARD Les paiements, un nouveau challenge pour l’entreprise ....................................... 309 Marie-Françoise COMBAZ Les conditions de réussite d’un projet PGI / ERP ................................................. 317 Irène GEORGESCU Une étude sur des effets de la technologie informationnelle dans le secteur hospitalier ............................................................................................................. 327 Frank ROBERT, Frank LASCH et Frédéric LE ROY Qui sont les entrepreneurs high-tech : le cas du secteur des TIC en France ....... 343 I - Cartes blanches Yvon PESQUEUX Hervé PINGAUD Véronique RICHARD Guy SAINT-LEGER 6 Management des Technologies Organisationnelles : Journées d’Etude 2009 Cartes blanches au comité scientifique 7 Technologie, technique et outils de gestion Yvon PESQUEUX Professeur Titulaire de la Chaire « Développement des Systèmes d’Organisation » CNAM / Paris INTRODUCTION La question des outils de gestion pose le dilemme de leur définition comme technologie et / ou comme technique. Ce n’est qu’après un examen du contenu des deux notions qu’il est possible de commencer à statuer. C’est pourquoi ce texte comprendra d’abord un examen de la similitude et des différences entre les deux notions avant d’aborder la question du lien entre « technologie » et « savoir actionnable ». TECHNOLOGIE ET TECHNIQUE Il faut d’abord souligner la confusion qui est généralement faite dans l’assimilation du concept de technologie avec une forme technique avancée (l’informatique par exemple). Dans ce cas, on passe directement à la technologie « à épithète », la haute étant bien sûr à considérer comme préférable à la « basse ». Or, si l’on y regarde de plus près, technologie « haute » ou « basse » est d’abord avant tout technologie. La technologie est un fait spécifique, une pratique consciente d’elle-même. La technologie se distingue de la science par son objet, la « réalité technique », mais elle est également redevable à la science par son esprit (la science est vue ici comme une manière méthodique de poser les problèmes). Le concept de technologie vient interférer avec celui de science et concerne l’étude des procédés techniques dans ce qu'ils ont de général et dans leur rapport avec le développement de la civilisation. A ce titre, la technologie est ce qui permet de 8 Management des Technologies Organisationnelles : Journées d’Etude 2009 comprendre les techniques au-delà des considérations seulement utilitaires. Elle les examinera aussi dans leurs rapports sociaux. Rappelons-en les éléments : l’étude des outils, des machines, des procédés, des méthodes employées dans les diverses branches de l'industrie, des outils et des matériels utilisés dans l'artisanat et dans l'industrie, un ensemble cohérent de savoirs et de pratiques dans un certain domaine technique, fondé sur des principes scientifiques, une théorie générale des techniques. La technologie comprend donc trois sortes de problèmes suivant l’angle sous lequel les techniques peuvent être envisagées : comme description analytique des manières de faire, comme recherche des conditions dans lesquelles chaque technique entre en jeu, comme étude du devenir des techniques. Le mot technologie (ce qui est fréquent dans l’usage des termes en –logie) est employé pour prendre en considération un ensemble de techniques. Mais, comme le signale L. Magne [1], « c’est aussi un répertoire professionnel (…) pensée comme une encyclopédie des métiers, que l’ambition (…) voudrait pousser dans la direction de la modélisation, de la découverte, mais de « lois de la technique » ». Pour sa part, la technique réalise ce que la nature est dans l’impossibilité d’accomplir. C’est donc la totalité des outils que les Hommes fabriquent et emploient pour fabriquer et faire des choses au moyen d’eux. Une technique est un ensemble de procédés et de moyens pratiques liés à une activité. Elle comprend aussi l’idée de savoir-faire, habileté de quelqu'un dans la pratique d'une activité. Elle est également relative au fonctionnement du matériel, d’un appareil, d’une installation. Il y a donc l’idée de l’usage de la raison. Pour illustrer cette dualité « technologie – technique » dans une perspective « gestionnaire », reprenons les définitions qu’en donne B. Colasse [2] quand il indique que la technologie comptable est constituée par « l’étude de la comptabilité comme objet technique en quête de vérité et de légitimité avec, notamment, des dimensions historiques, culturelles, institutionnelles et socioéconomiques » et que la technique comptable concerne « l’ensemble des notions, méthodes et procédés, fondés sur des connaissances empiriques ou théoriques, mis en œuvre par le comptable ». Le phénomène technologique comporte la double référence à la science comme modèle rationnel et à la technique comme forme et comme moyen. La technologie trouve aujourd’hui une compréhension morale et politique au travers du concept de « technoscience » (avec H. Jonas [3], par exemple). La technologie possède donc aussi contenu très profondément politique. Elle s’inscrit dans une lecture parallèle qu’il est possible d’établir avec le capitalisme comme « ordre » politique. Technologie et capitalisme moderne se développent Cartes blanches au comité scientifique 9 corrélativement et débouchent sur l’idéologie technologique, dans la mesure où nous sommes aujourd’hui immergés dans les sociétés technoscientifiques. Comme le souligne L. Sfez [4], c’est avec le recours au concept de technologie qu’à des problèmes indésirables sont apportées des réponses idéologiques et matérielles puisque c’est le « progrès technique » qui vient les résoudre. La technologie naît, vit et renaît autour de « personnages conceptuels » nouant des intrigues entre eux (Internet d’une part, la révolution technique de l’autre, par exemple). Avec le terme de « révolution technique », L. Sfez [5] parle de « solution passerelle » entre un monde alors décrété « ancien » et un autre alors décrété « nouveau », construisant un scénario de « succession – substitution » au regard d’une « réalité » pourtant toujours « hybride ». Il va ainsi parler de récit fondateur du techno-politique comprenant des « marqueurs » de la technique qui naissent de la dissociation « technique » (avec des référents tels que « métier », « ingénieur ») et « science » (avec des référents tels que « savant »). Le premier « marqueur » est, pour lui, celui de l’acquisition et de la transmission du savoir technique sur la base de protocoles qui fondent la distinction concepteur (ingénieur) – réalisateur (technicien) à partir d’un langage de signes communs à la technique et à la science. Ne seraitce pas là ce qui se noue avec la notion de « savoir actionnable » ? Un autre « marqueur » est l’aspect systématique des techniques qui, en interrelations, font « système », d’où la référence au concept de « macro-systèmes techniques ». Cette vision de la technologie en « système technique » est courante en histoire des techniques et tend à donner un « sens » chronologique à ces travaux qui fondent ainsi l’idée que l’on passe de système en système par filiation plus ou moins prononcée, chacun d’entre eux pouvant être décrit et situé dans le temps. Technique et politique construisent donc de « belles » histoires où il est question de progrès comme dans l’idéologie progressiste de l’action managériale. Réduite à son versant « protocole », la technique est donc manière de faire les choses, in fine organisation. Il est important de souligner l’usage extensif de la notion de technologie en sciences des organisations, allant même jusqu’à en faire un synonyme de « processus de production » (throughput). A ce moment-là, pour qu’il y ait technologie, il faut qu’il y ait organisation, cette organisation pouvant être spécifiée au regard de ce qu’elle « produit ». La technologie est alors en quelque sorte « industrie » au sens littéral du terme (dans le sens « d’activité » en quelque sorte). C’est pourquoi P. Dussauge & B. Ramanantsoa [6] distinguent : • Les approches « allusives » c’est-à-dire celles qui ne définissent pas la notion en laissant le contexte managérial lui donner une signification 10 Management des Technologies Organisationnelles : Journées d’Etude 2009 comme cela est souvent le cas au sein des cabinets de conseil en stratégie. • Les définitions « englobantes » qui visent tous les domaines d’expertise de l’entreprise. On en retrouve peu ou prou le même contenu avec la notion stratégique de compétence, ce qui lui adjoint une dimension organisationnelle ou sociale (au niveau « macro » alors). Si tout savoirfaire tend à être qualifiable de technologie, cet usage du terme permet de le lier et de le distinguer de science et de technique. • Les définitions « spécifiques » qui relient le terme à celui de science et de technique et part de l’idée de qualifier de chercher à qualifier l’avantage spécifique de l’organisation. Les technologies possèdent alors deux caractéristiques : elles sont transversales aux secteurs économiques et combinatoires avec des produits d’autres techniques (ou d’autres technologies). Au sens politique et économique du terme, il y a donc « enjeu » technologique et « réponse » rationnelle possible, en particulier en termes de « stratégies ». Dans ce cas, il y a donc bien fondement possible d’une organisation à la fois de façon génétique, la technologique étant facteur génétique de l’organisation, mais aussi de façon rationnelle, l’organisation étant alors une réponse d’ordre sociotechnique. Il faut en effet alors en souligner la dimension culturelle et l’on parlera curieusement de culture technique et non de culture technologique. La dimension technique de la culture en fera un facteur d’identité, d’image et d’imaginaire, de production discursive, symbolique et rituelle dans une perspective de construction consensuelle. TECHNOLOGIE ET « SAVOIR ACTIONNABLE » En fait, la technologie opère par accumulation des techniques et référence aux lois scientifiques liées à ces techniques. Il existe en quelque sorte un effet « zoom » qui va des techniques aux sciences via la technologie d’où l’aspect confus dans l’utilisation de tel ou tel terme. Prenons un exemple rapide. La chimie est une des disciplines constitutives des sciences « exactes ». A cette discipline sont associées des lois qui se caractérisent par la permanence constatée dans la combinaison d’éléments dans des conditions données. Sur le plan des techniques, cette permanence a été constatée empiriquement comme dans la métallurgie du bronze. La technologie apparaît quand l’accumulation des techniques autorise une conceptualisation sur celles-ci, au-delà de la référence à un savoir-faire spécifique. Mais à l’inverse, la technologie peut aussi naître d’une évolution scientifique comme le montre P. Ndiaye [7] à propos de la mise en Cartes blanches au comité scientifique 11 fabrication des explosifs (à l’origine du « génie chimique ») puis de la bombe atomique. La technologie, avec son suffixe logos, correspond à une rationalisation. C’est un discours sur la logique des techniques. C’est le « discours sur » qui vient donc rendre intelligible la « logique de ». A ce titre, l’organisation est également élément de cette « logique de », car sans organisation et sans son lieu privilégié d’expression, l’entreprise, pas de réalisation au concret des techniques dans les catégories de la production de masse. L’organisation est alors ce qui, dans l’ordre technoscientifique qui est le nôtre, vient relier technologie et technique. Mais la technologie a conduit au remplacement de l’apprentissage du savoir pratique par celui de connaissances théoriques (comme chez l’ingénieur). C’est donc une vision de l’homme au travail dans un monde qui n’est plus celui de l’artisan. La technologie permet de fonder le monde sur la rationalité scientifique. La technologie oriente et contraint l’action. Mais elle pose aussi le problème du sens de l’action. L’activité technologique est inhérente au travail de l’ingénieur pour dépasser le stade de l’invention en lui substituant une démarche de conception moins contextuelle (donc plus généralement « déclinable » quelles que soient les circonstances). La technologie indique la référence à des « objets techniques » susceptibles de la matérialiser. L’objet technique est donc porteur d’un modèle qui structure l’ensemble des pratiques dont il peut faire l’objet. La machine a présenté la caractéristique d’être à la fois un objet « plein », général et un objet particulier (une machine particulière) car « penser » un système technologique n’implique pas d’envisager toutes ses manifestations. Certaines sont plus importantes que d’autres. Ce sont les objets les plus importants qui incarnent la technologie et qui pèsent sur les représentations (par exemple la machine à vapeur et le métier à tisser par rapport à la manufacture de la révolution industrielle). Comme le souligne G. Simondon [8], c’est parce qu’il y a une finalité qui a présidé à la réalisation de l’objet technique que l’on va pouvoir en retrouver les « bonnes raisons ». L’ambiguïté du terme « technologie » vient aussi de son acception américaine (traduction est aussi réinterprétation !), de la même manière, les techniques (en américain) indiquent les « plats » protocoles de procédures. Or on utilise aujourd’hui Outre-Atlantique le terme de technologie pour celui de forme technique « avancée ». Et pourtant, tout comme pour l’Ecole Polytechnique, le projet du MIT (Massachusetts Institute of Technology) est d’assurer l’enseignement et le développement des techniques de type « ingéniérique » (être capable de concevoir et de modéliser) et, de façon transversale, de contribuer à la genèse et à l’enrichissement de la technologie (au sens où L. Sfez emploie ce terme). Mais, pour ce qui concerne la mise en œuvre, les Américains 12 Management des Technologies Organisationnelles : Journées d’Etude 2009 ont plutôt tendance à utiliser le terme « génie » (engineering) qu’ils nous ont emprunté en le réinterprétant. L’idée de « génie » indique que, pour obtenir une réalisation, il ne s’agit pas seulement d’appliquer une technique dans la mesure où l’effet d’échelle nécessite de recourir à une méthodologie et des méthodes. En d’autres termes, et toujours en poursuivant cet exemple, produire de l’aspirine (ou des explosifs) en masse est aussi s’organiser pour les produire. C’est donc bien ainsi que l’organisation entre en ligne de compte. Pas étonnant donc que F. W. Taylor, ingénieur, ait fait œuvre d’organisation avec le concept (technologique) d’organisation scientifique du travail dont les méthodes servent de référence à la genèse d’un « génie industriel ». L’ingénierie est une activité : elle ne s’identifie pas uniquement à un savoir, à un domaine technique, à une fonction, à un attribut de la catégorie sociologique des ingénieurs, lié à leur adaptabilité, à leur mobilité ou à toute autre caractéristique. Elle est une activité précise et identifiée. Le terme de « sciences de l’ingénieur » ouvre donc le champ conceptuel des sciences à l’idée de science appliquée, où modèle scientifique et champ d’application interagissent. Les phases et activités de l’ingénierie sont définies dans les différentes méthodologies de développement des produits (européennes et américaines) et recouvrent les activités suivantes : spécification qui est l’activité consistant à définir les exigences et les caractéristiques attendues du produit, conception qui est l’élaboration des solutions visant à satisfaire les exigences spécifiées, développement qui est la mise en œuvre des solutions, validation qui est la qualification de la réalisation et la vérification que la solution fournit les résultats conformes aux exigences. De nombreuses définitions figurant dans les dictionnaires spécialisés, ainsi que différentes communications ministérielles décrivant les fonctions communément attribuées aux ingénieurs, mettent l’accent, par ailleurs, sur les activités de gestion, (conduite de projet, coordination, etc.), et privilégient même parfois cet aspect. Donc, en ce qui concerne le domaine de l’organisation, la conception et la réalisation de systèmes est une activité ancienne. C’est cependant F. W. Taylor qui a accompli une avancée décisive lorsqu’il formalisa l’OST (organisation scientifique du travail), qui repose sur trois principes : l’utilisation maximale de l’outil, la suppression des mouvements inutiles, la séparation des tâches de conception, de préparation et d’exécution. En revanche, il n’est pas inutile de rappeler que l’OST n’est pas seulement un ensemble de principes, une simple méthode ou un mode d’organisation mais qu’elle est un système technique et opérationnel et même un projet de société (donc une « doctrine » en quelque sorte). L’organisation taylorienne est un système complet qui utilise non seulement des outils et des techniques (feuilles d’instruction, gammes opératoires, etc.), mais aussi des méthodes (pour l’ordonnancement, la Cartes blanches au comité scientifique 13 planification, etc.), ainsi qu’une structure organisationnelle séparant le support fonctionnel, la maîtrise et les agents d’exécution. De nombreuses générations de chercheurs, universitaires et ingénieurs ont participé, pendant plusieurs décennies, à l’élaboration et à l’amélioration du système taylorien, suscitant d’innombrables travaux et publications et créant de nouveaux métiers. Le système taylorien est complet, reproductible et transposable au point qu’il a équipé la plupart des entreprises. Il a créé une demande immense en nouveaux systèmes et a ouvert la voie à une palette variée de spécialités en ingénierie d’entreprise : la gestion de production, l’automatisation, la sécurité, la logistique, la maintenance, etc. Cette perspective des relations « technologie – organisation » pose la question des déterminismes associés aux fondements possibles des descripteurs de l’organisation et trois écoles s’affrontent à ce sujet : • Celle du déterminisme technologique pour qui les problèmes de technologie sont la composante essentielle. • Celle du déterminisme organisationnel pour qui les problèmes de technologie s’ajusteront aux « besoins structurels » des organisations. • Celle du non-déterminisme pour qui l’évolution des organisations est un phénomène émergent dans lequel la technologie n’a pas de place privilégiée. Les représentants de la première école, celle du déterminisme technologique sont, par exemple, M. L. Tushman et N. A. Nadler [9] qui tentent d’expliquer plus complètement le concept de convergence « traitement de l’information structure organisationnelle ». Ceci les amène à proposer une approche contingente des structures organisationnelles. Des propositions découlant de cette perspective ont été définies par G. P. Huber [10] afin de développer une théorie de l'impact des technologies de l'information sur les organisations et sur les processus de décisions. Ce déterminisme peut encore être qualifié de perspective ingénierique puisqu’elle soutient que la structure organisationnelle est le résultat d’une stratégie voulue et librement décidée en fonction des intentions de ses concepteurs, sur la base d’un argument technique. Elle repose sur l’idée que le déterminisme technique se traduirait, au regard de l’usage d’une « nouvelle » technologie, par une modification de la rationalité sur laquelle viennent reposer les représentations du fonctionnement organisationnel. Cette perspective émane de l’approche cybernétique de l’organisation, mais c’est aussi une approche normative de la conception des organisations, la volonté managériale étant vue comme le principal élément explicatif de la conception des organisations. Dans ce déterminisme, c’est aussi le couple « connaissance – communication » qui est mis en exergue. 14 Management des Technologies Organisationnelles : Journées d’Etude 2009 Le déterminisme organisationnel se caractérise par la posture inverse. Suivant ce point de vue, la demande organisationnelle serait susceptible d’être satisfaite en allant puiser les moyens requis dans un portefeuille de technologies. Les tenants du déterminisme organisationnel sont, par exemple, J. Galbraith [11] et R. L. Daft & R. Lengel [12]. L’efficacité de l’organisation découlerait d’un équilibre entre ses « besoins » et ses capacités techniques de l’autre. Les besoins dépendraient essentiellement de trois facteurs : les caractéristiques des activités de l’organisation, la nature de l’environnement, l’interdépendance des unités. Pour faire face à ses besoins, l’organisation développerait une capacité technique grâce à deux séries de choix : des choix de nature technologique et de nature structurelle. Cette perspective possède deux conséquences : d’une part le développement des technologies n’est pas la seule réponse possible aux besoins de l’organisation et, d’autre part, les choix relatifs à l’adoption et à l’usage des technologies ne peuvent être envisagés de manière indépendante des choix relatifs à la conception de l’organisation. La perspective de l’émergence est principalement représentée par R. Kling [13]. Dans ce cadre, les usages et les conséquences des technologies émergent de manière imprévisible d’interactions sociales. En effet, les objectifs annoncés lors de l’adoption des technologies le sont en termes de productivité et d’efficience, leur mise en place s’effectue dans une organisation déjà constituée et leur usage n’est pas totalement prédéterminé. C’est pourquoi J. Pfeffer [14] a proposé une perspective émergente de la diffusion de la technique, perspective qui reconnaît la nature conflictuelle de l’introduction de la technique dans le social et la symbolique particulière qu’y attache chaque individu ou groupe. Le corps social ne serait pas aussi uniformément réceptif qu’on le laisse entendre. Par ailleurs, la communication dans l’organisation est aussi de nature symbolique, le contenu étant alors moins important que l’acte lui-même, symbolique venant s’intégrer dans le système de valeurs déjà existant. Cette perspective implique donc une conceptualisation plus élaborée du contexte social. Le cadre de la sociologie interactionniste d’A. Giddens [15] est souvent convoqué, de même que celui de la théorie des « genres de communication » de W. J. Orlikowski [16] ou encore celui de Poole & DeSanctis [17] avec leur théorie adaptative de la technologie. Pour ces derniers, les technologies fournissent des structures sociales décrites en termes de dispositifs structurels et d’esprit de la technologie. Ces deux éléments déterminent ensemble, selon leurs différentes modalités, le type et la nature des interactions sociales déclenchées et rendues possibles par ces technologies. Pour W. J. Orlikowski, un genre est une action (de communication par exemple) invoquée en réponse à une situation récurrente qui intègre, au sein de l’organisation, l’histoire et la nature des pratiques Cartes blanches au comité scientifique 15 établies, les relations sociales et les modes de communication. Pour sa part, la théorie de la structuration d’A. Giddens est mobilisée afin d’expliquer la dynamique des genres. Les entités sociales, c’est-à-dire les organisations, les groupes ou les technologies sont considérées comme ayant des propriétés structurelles vues comme un ensemble de règles et de ressources de trois types : de signification, de domination et de légitimation. Les propriétés de signification correspondent aux connaissances mutuellement partagées. Les propriétés de domination correspondent à la répartition de l’autorité. Enfin, les propriétés de légitimation correspondent aux règles et aux normes. La place des routines communicationnelles (les genres) se retrouve dans le dernier type. Ces trois perspectives dépendent néanmoins d’une définition de la technologie qui est à la fois un objet social, le fruit d’interactions humaines, mais aussi un artefact matériel. Mais elles comportent des limites. Les deux premières sont limitées par leur perspective déterministe. Pour la perspective émergente, sa limite est liée au rejet de l’existence de régularités du fait de différents contextes sociaux. Par ailleurs, l’assimilation de la technologie au structurel pose problème car la technologie n’est pas abstraite mais bien matérielle et, malgré la tentative de W. J. Orlikowski de la présenter comme « flexible », la technologie n’est sans doute pas si flexible que cela car ses manifestations matérielles ne sont pas modifiables comme cela ! Pour sortir de ces limites, il est également possible de considérer l’organisation à partir de la technologie vue comme un ensemble d’outils de gestion. Dans une première définition apportée par J.-C. Moisdon [18] et reprise par A. David [19], on peut considérer l’outil de gestion comme « toute formalisation de l’activité organisée, (…), tout schéma de raisonnement reliant de façon formelle un certain nombre de variables issues de l’organisation et destiné à instruire les divers actes de la gestion ». Il y a donc, comme le souligne l’auteur, l’idée d’amplification des activités humaines. Comme tous les outils de gestion, les organisations reposent sur le postulat implicite de répondre à des « besoins ». En ce sens, l’organisation, tout comme l’outil de gestion sont construits à partir de théories et de modèles propres qui pourraient alors être considérés comme un substrat technique, une « philosophie » de l’action gestionnaire et une vision simplifiée des relations. Il est alors possible de reprendre la typologie des rôles des outils de gestion de A. Hatchuel & B. Weil [20] pour les appliquer aux organisations : • C’est une instrumentalisation qui a pour but de stabiliser le fonctionnement en limitant les biais cognitifs et en normant les comportements des agents. • C’est un mode d’investigation des déterminants essentiels de l’activité dans la mesure où l’outil (ou l’organisation) ne capture pas la 16 Management des Technologies Organisationnelles : Journées d’Etude 2009 « réalité », mais constitue un cadre de référence. Il représente, de façon plus ou moins éloignée, les processus de coordination, la segmentation et des procédures d’évaluation et joue un rôle de révélateur des représentations considérées comme déterminantes de l’activité organisée. • C’est un accompagnement du changement car le maintien de « l’ancien » outil (ou de « l’ancienne » organisation) permet de révéler l’incohérence de la structure organisationnelle et la nécessité d’adopter de nouveaux outils (ou une « nouvelle » organisation) qui peuvent être le support d’une dynamique collective. Il peut être le support d’une construction collective à travers le phénomène d’apprentissage qu’il permet. Avec le changement induit par l’implantation et l’articulation des agents autour de l’outil (ou de l’organisation), on se retrouve au-delà des règles du jeu initial pour produire de nouveaux savoirs facteurs de la métamorphose des agents et de l’organisation. • C’est un élément de renouveau car l’outil peut conduire à transformer des savoirs techniques de base propres à l’organisation. Les agents recomposent leurs comportements pour effectuer les activités à partir des outils qui peuvent donc intervenir pour permettre la construction d’une représentation collective des enjeux et problèmes. L’outil peut enfin, être le lieu de mise en commun des différents savoirs avec des boucles de rétroaction entre les résultats et pratiques pour permettre le fonctionnement organisationnel. Mais les outils ont aussi leur vie conceptuelle propre : dans un contexte, l’organisation ici, l’outil a tendance à créer d’autres outils affiliés tandis que la sortie d’un contexte conduit l’outil à contribuer à la genèse de principes pouvant eux-mêmes servir à créer d’autres outils mais de filiation plus éloignée alors. Il s’agit d’ailleurs ici d’une production non finalisée parce que résultant de multiples compromis venant faire « dérive » [21] ou encore de « machines de gestion » [22]. Au regard des outils de gestion dont il est question avec l’organisation, on peut donc bien affirmer qu’il s’agit alors de technologie s’inscrivant dans une perspective ingénierique de l’organisation sur la base d’une filiation « sciences – sciences de l’ingénieur – techniques de l’ingénieur – outils & instruments d’« organisation et de gestion » pouvant alors conduire à remonter vers des méthodes d’organisation voire une méthodologie. CONCLUSION Ne dispose-t-on pas, avec ces trois postures et leur élargissement vers la perspective des outils de gestion, de la « matrice » d’un « savoir actionnable » ? Cartes blanches au comité scientifique 17 Il est donc question, avec le « savoir actionnable » vu comme technologie, de lier un objet (l’organisation), rendu visible au travers de ses manifestations technico-économiques avec un concept (la technologie) visible au travers d’objets techniques et débouchant sur la production d’un discours au sens foucaldien du terme venant ouvrir le champ des concrétisations allant dans le sens de ce discours par le recours à des métaphores créatives telles qu’innovation, entrepreneur, etc. Beaucoup des concrétisations d’un « savoir actionnable » en sciences des organisations sont récursivement objet de connaissance et objet d’action. C’est donc sans doute, comme on vient de le voir, le concept de technologie qui est le mieux à même d’en rendre compte, que l’on se situe sur le plan de la connaissance (sciences des organisations) ou sur celui de l’action qui lui est liée (« savoir actionnable »), les deux étant, comme on vient de le voir, intimement liés. NOTES ET REFERENCES BIBLIOGRAPHIQUES [1] L. Magne, Le concept de « sciences de gestion » a-t-il un sens ?, Mémoire de DEA, Université de Paris IX-Dauphine, Paris, (2004) [2] B. Colasse, Comptabilité Générale – PCG 1999, IAS, ENRON, Economica, collection « Gestion », 8° édition, Paris, (2003), 8-9 [3] H. Jonas, Le principe responsabilité, Cerf, Paris, (1989) [4] L. Sfez, op. cit. [5] L. Sfez, op. cit. [6] P. Dussauge & B. Ramanantsoa, Technologie et stratégie d’entreprise, McGraw-Hill, collection « stratégie et management », Paris, (1987) [7] P. Ndiaye, Du nylon et des bombes – Du Pont de Nemours, le marché et l’Etat américain, 1940-1970, Belin, Paris, (2001) [8] G. Simondon, Du mode d’existence des objets techniques, Aubier, Paris, (1958 2001) [9)] M. L. Tushman et N. A. Nadler, “Information Processing as an Integrating Concept”, in Organizational Design, The Academy of Management Review, 3.3, (1978) [10] G. P. Huber, “A Theory of the Effects of Advanced Information Technologies on Organizational Design”, Intelligence and Decision-making, Academy of Management Review, 15, 1 (1990) [11] J. Galbraith, Organizational Design, Addison-Wesley, Readings, (1977) [12] R. L. Daft & R. Lengel R., “Organizational Information Requirements, Media Richness and Structural Design”, Management Science, 32, 5 (1986) [13] R. Kling, “Defining the Boundaries of Computing across Complex Organizations”, in R. Roland & R. Hirscheim, Critical Issue in Information System Research, J. Wiley, London, (1987) 18 Management des Technologies Organisationnelles : Journées d’Etude 2009 [14] J. Pfeffer, Organization and Organization Theory, Ballinger Publishing Company, Cambridge, Massachusetts, (1982) [15] A. Giddens, La constitution de la société, P.U.F., Paris, (1984) [16] W. J. Orlikowski, “The Duality of Technology: Rethinking the Concept of Technology in Organizations”, Organization Science, 3, 3 (1992) [17] Poole & DeSanctis, “Capturing the Complexity in Advanced Technology Use: Adaptative Structuration Theory”, Organization Science, (1994) [18] J.-C. Moisdon, Du mode d’existence des objets techniques, SeliArlan, Paris, (1997) [19] A. David, « Outils de gestion et dynamique du changement », revue Française de Gestion, septembre - octobre (1998) [20] A. Hatchuel & B. Weil, L’expert et le système, Economica, Paris, (1992) [21] Y. Pesqueux & B. Triboulois, La « dérive » organisationnelle, L’Harmattan, Paris, (2004) [22] J. Girin, « Les règlements de sécurité », Annales des Mines, 7-8, juillet/août (1981) 66-82 Cartes blanches au comité scientifique 19 Rationalité du développement de l’interopérabilité dans les organisations Hervé PINGAUD Professeur Directeur du Centre de Génie Industriel Ecole des Mines d’Albi-Carmaux Cet article est extrait du contenu d’une conférence plénière que j’ai réalisée en Juin 2009 dans le cadre du congrès international de Génie Industriel [1], qui se déroulait au pied de nos magnifiques Pyrénées, dans la ville de Bagnères de Bigorre. Les thèmes principaux de ce congrès étaient l’interopérabilité et l’intégration. Les organisateurs m’ont fait l’honneur de présider au lancement des débats par la conférence introductive sur l’interopérabilité que j’ai intitulé : « Prospective de recherches en interopérabilité : vers un art de la médiation ? ». L’interopérabilité est un concept encore jeune dans les sciences de l’ingénieur, et son ancrage dans le génie industriel est très récent. Il m’appartenait donc de débuter cet exposé par une vision de l’intérêt du sujet en procédant par la pratique pour ne pas déstabiliser mon auditoire. J’ai donc construit la première partie de cette conférence sur une définition du concept, et me suis empressé de fournir une perception de son intérêt et de sa portée pour l’avenir de nos organisations de production de biens et de services. C’est donc ce contenu que je vous livre ici. Il ne serait pas élégant de m’approprier seul la teneur de cet article. Et je tiens à citer, d’emblée, les groupes de travail où, depuis maintenant plus de 7 ans, cette connaissance a été travaillée et s’est construite. Ils sont au nombre de trois : • Deux groupements de recherche du CNRS (« Modélisation, Analyse et Conduite des Systèmes » et « Information-Interaction-Intelligence », 20 Management des Technologies Organisationnelles : Journées d’Etude 2009 • • [2]) ont porté en commun un groupe « Entreprise Communicante et Interopérabilité » de 2002 à 2008, que j’ai eu le plaisir de co-animer avec S. Nurcan, K. Benali et M. Schneider, Plus récemment, faisant suite à des actions incitatives fortes de la commission européenne, via sa direction générale « Information Society Technologies », dans son 6ème programme-cadre de recherches et sur le thème « Enterprise Interoperability », un laboratoire virtuel mondial est né : InterOp VLab [3]. Il forme un réseau de plus de 300 spécialistes à l’échelle de la planète sur ce sujet spécifique. Ce laboratoire virtuel est structuré en 7 pôles régionaux. Depuis 2006, nous avons créé le pôle français rattaché à cette structure. Ce pôle est très actif, et possède un portefeuille de projets de recherches qui produit des avancées significatives. Enfin, et je les garde en dernier par plaisir, l’équipe de recherches du centre de Génie Industriel de l’Ecole des Mines d’Albi-Carmaux qui se concentre sur ce sujet depuis 2000 [4]. La collaboration avec les quatre étudiants en thèse et mon collègue F. Benaben, est un creuset qui se renouvelle sans cesse, et crée un véritable enthousiasme collectif pour cette recherche dans une unité dont les travaux portent sur les organisations. DEFINITION DE L’INTEROPERABILITE DANS LES ORGANISATIONS Il existe de nombreuses définitions du terme interopérabilité. Celle que nous proposons ci dessous inclut la plupart des positions adoptées par les groupes et les réseaux compétents (comme l’IEEE, par exemple). Nous avançons cette définition parce qu’elle nous semble accessible et adaptée à ces systèmes complexes particuliers que sont les organisations. L’interopérabilité désigne une capacité de systèmes, nativement étrangers les uns par rapport aux autres, à interagir afin d’établir des comportements collectifs harmonieux et finalisés, sans avoir à modifier en profondeur leur structure ou leur comportement individuel. C’est un constat : il y a souvent de multiples interprétations du terme interopérabilité dans le discours courant. L’interopérabilité y est décrite parfois comme un état final, d’autres fois comme une condition ou encore comme une propriété du système. De prime abord, cette confusion peut apparaître troublante, elle n’est pas pour autant illégitime. En effet, savoir mobiliser la capacité et l’exploiter induit des possibilités de faire qui génèrent les états finaux Cartes blanches au comité scientifique 21 escomptés. Elle est confondue naturellement avec la condition lorsqu’on s’interroge sur l’existence et le potentiel de la capacité, comme un pré-requis. Elle est fondamentalement une propriété caractéristique de système. Figure 1 – L’interopérabilité est une capacité individuelle de système contributeur qui s’exprime lors de l’interaction avec d’autres systèmes contributeurs Cette définition fait référence à des systèmes ce qui lui procure une certaine universalité. Définis comme nativement étrangers, ces systèmes contributeurs n’ont donc pas, au moment de leur conception, inclus dans leur spécification fonctionnelle des connaissances spécifiques des autres systèmes avec lesquels ils vont interagir. Empruntant la philosophie de l’ingénierie des systèmes, nous montrons sur la figure 1 la structure en réseau qui est le lieu d’expression de la capacité. La définition vient compléter cette figure en indiquant que le comportement collectif est celui d’une collaboration entre organisations. En effet, les interactions poursuivent un objectif, le comportement a une finalité et le réseau remplit une mission. Pour ce faire, il obéit à des règles qui harmonisent les interactions afin de produire une certaine efficacité. Un dernier trait essentiel de cette définition est directement en lien avec une analyse de la valeur : ce comportement collectif et harmonieux se fait à moindre effort pour chaque système contributeur. C’est de ce trait que naît l’interopérabilité, appréhendée comme une forme de couplage faible entre les systèmes contributeurs. Si le concept a certainement évolué au cours des dernières années, l’interopérabilité est ancrée depuis longtemps dans notre quotidien, lorsque nous utilisons des objets techniques naturellement impliqués dans, ou ouverts sur, 22 Management des Technologies Organisationnelles : Journées d’Etude 2009 leur environnement. Le concept a été promu par les technologies de l’information et de la communication. Prenons deux exemples tout à fait simples. La clé USB est un moyen très répandu de stockage de l’information. Elle a des capacités d’interopérabilité avec plusieurs autres systèmes, et en premier lieu avec les ordinateurs personnels, points d’entrée du fonctionnement en réseau de beaucoup d’organisations. Un acteur peut interagir avec deux ordinateurs de version, de marque ou ayant des systèmes d’exploitation différents de manière à transférer des informations par ce moyen de stockage. La clé est bien nativement étrangère au poste informatique. Elle dispose des greffons (en anglais : « plugin ») qui lui permettent de gérer les flux à l’interface du système qu’elle découvre au moment de son branchement dans le port d’accueil. Figure 2 – Exemples de composant logiciel intermédiaire embarqué Très souvent, nous mobilisons la capacité en mobilisant des intermédiaires comme ces greffons, qui sont devenus progressivement des composantes naturelles du paysage. Ainsi, il est possible de transférer un contenu d’un fichier de données d’un logiciel de traitement de texte comme MS-Word (MonFichier.doc de la figure 2) vers un autre traitement de texte comme Adobe Acrobate Reader (MonFichier.pdf) en activant dans le premier logiciel un composant intermédiaire, qui est embarqué dans la fonction d’impression et prend en charge l’opération de traduction d’un premier format vers un second format de fichier. Cette opération ne procure aucune valeur ajoutée au contenu des fichiers qui sont strictement les mêmes. Enfin, un dernier exemple de facilités ancrées dans notre quotidien que sont les cartes à puce. Avec une carte bancaire par exemple, vous savez créer une liaison avec vos comptes en banque en étant éloigné de votre agence bancaire. Les guichets automatiques sont très répandus, et permettent le fonctionnement en réseau à partir d’un grand nombre de types de cartes bancaires. De fait, une Cartes blanches au comité scientifique 23 interopérabilité s’installe entre le client et sa banque, mais également entre toutes les banques ce qui crée une vraie valeur ajoutée au service client en démultipliant les points d’accès. Le comportement est harmonieux parce que les processus bancaires qui guident l’interaction sont bien définis. Ils sont finalisés parce que l’utilisateur sélectionne un service dès qu’il entre en contact avec le système. Peu à peu, ces guichets automatiques augmentent leur faculté. On peut désormais recharger des cartes à puce téléphoniques dans certains de ces appareils. Notre exemple pourrait se prolonger au cas de la carte de sécurité sociale (la carte « vitale » en France) qui permet de développer d’autres types de prestations à moindre effort. PREMIERE SYNTHESE On peut s’interroger à travers cette première série d’exemples sur ce qui fonde un besoin d’interopérabilité. Quels sont les facteurs de motivation pour développer une telle capacité au moment de la conception du système ? Quels sont les bénéfices escomptés en phase d’exploitation ? Reprenant le prisme de l’ingénierie des systèmes, nous répondrons à la première question en classant ces facteurs de motivation selon trois natures de variation dont le réseau de systèmes serait le sujet durant son cycle de vie global : • variations dans la mission du réseau • évolution dans les objectifs • évolution de l’environnement • variations dans la structure des systèmes contributeurs • changement de version • changement de fonction • changement d’outil ou de ressource • variations dans le fonctionnement • évolution de la nature des échanges • évolution de la structure • évolution d la logique des échanges Il est plus délicat de répondre de manière générale à la seconde question. Toutefois, nous savons que les impacts des changements cités ci dessus peuvent nuire à l’obtention de bonnes performances. Ainsi, il peut devenir difficile de rendre le service attendu dans le cas de système critique. Et les exigences des 24 Management des Technologies Organisationnelles : Journées d’Etude 2009 clients font que les systèmes sont de plus en plus critiques ! Sur un autre plan, on peut imaginer que les coûts de structure, de transaction et d’exploitation du réseau sont plus raisonnables lorsque l’interopérabilité est au rendez-vous. Enfin, l’adaptabilité aux missions procurée au réseau par une faculté de reconfiguration facilement accessible induit de la qualité de service maintenue dans des situations évolutives, d’où un lien avec la notion d’agilité. Nous résumons ce contexte sur la figure 3, sans être exhaustif, par différentes variations structurelles et comportementales. Figure 3- Reconfiguration du réseau par variations structurelles (changement de système sur la partie gauche de la figure) ou comportementales (modifications des interactions sur la partie droite de la figure) ETUDE DE CINQ SECTEURS D’APPLICATION EMERGENTS Si la définition de l’interopérabilité introduite dans cet article a un caractère universel, cela grève un peu son appropriation sur un plan concret et rationnel. Nous proposons de combler cette lacune en étudiant quelques secteurs d’application qui rentrent dans les critères de variation énoncés ci dessus, et ont publiquement émis, dans ce cadre évolutif, des exigences en matière d’interopérabilité. Cette déclaration se fait généralement via des organes de gouvernance qui font autorité dans le secteur concerné. Secteur 1 : domaine de la formation supérieure Le développement des échanges internationaux d’étudiants de l’enseignement supérieur offre une démonstration, si besoin est, du rapport entre l’interopérabilité d’une part, et la structure et le fonctionnement des organisations, d’autre part. Comment imaginer que le développement de cursus Cartes blanches au comité scientifique 25 des étudiants qui leur offrent des possibilités de séjour à l’étranger puisse se faire sans des règles d’organisation autour de deux processus majeurs : • l’admission dans l’établissement d’accueil, • l’évaluation de l’étudiant pendant sa formation distante pour l’établissement d’origine ? On connaît ces règles dans les établissements d’enseignement supérieur car elles ont été à l’origine de réformes récentes. Ce qu’on nomme en Europe les critères du processus de Bologne (semestrialisation des cursus, passage au système de crédits ECTS sur un découpage des programmes en unité d’enseignement, par exemple) font partie du développement des capacités d’interopérabilité entre établissements pour des flux qui sont des flux contrôlés d’étudiants. Secteur 2 : domaine de la santé Le développement de la télésanté, incluant la télémédecine, est au cœur de l’actualité de l’année 2009 en France. L’adoption de la loi Hopital, Patients, Santé et Territoires officialise le remboursement des actes de télémédecine, ce qui constitue un pas majeur dans la réforme des systèmes de santé. On sait que la maîtrise des coûts de santé est le principal inducteur de cette réforme. Pour illustrer cela, on peut citer un chiffre parlant : 17 milliards d’euro sont dépensés chaque année pour les frais de transport liés aux soins ambulatoires sur un budget d’environ 400 milliards. La perception des gains potentiels liés aux développements des technologies de l’information et de la communication pour un fonctionnement en réseau entre des acteurs distants est immédiate. Ce développement ne doit pas se faire de manière contraignante, c’est à dire que le rapport entre des professions libérales et les patients doit rester libre. Il ne doit pas nuire à la qualité des soins, au contraire, l’accès facilité à des moyens de contrôle et d’analyses médicales est vu comme une facilité accrue. Enfin, il ne doit pas déroger aux obligations réglementaires qui régissent l’exercice des professions de la santé. Le suivi d’un patient à domicile pose de nouveaux problèmes de coordination des compétences. Le caractère incertain fortement lié au suivi d’un patient dont l’évolution de la maladie n’est pas totalement prédictible induit des besoins de reconfiguration du réseau de soins au cas par cas, et parfois en situation critique. Un formidable domaine de développement est en train de naître au sein duquel l’interopérabilité est déjà annoncée comme un maître mot. Secteur 3 : domaine de l’énergie Le développement durable porte la question de l’indépendance énergétique au premier plan des préoccupations gouvernementales. On ressent déjà les 26 Management des Technologies Organisationnelles : Journées d’Etude 2009 effets de ces nouvelles politiques. Nous allons développer le cas de la fourniture de l’énergie électrique aux usagers. Ce cas a un intérêt particulier car le flux que crée la distribution d’énergie entre des acteurs a la propriété d’être un flux strictement tendu, pour la raison qu’il n’existe pas aujourd’hui de moyens de stocker massivement cette forme d’énergie. Les réseaux de production-distribution-consommation d’énergie sont de plus en plus difficiles à piloter. Le fait est que l’actualité pointe fréquemment des phénomènes locaux de dégradation de service (rupture d’alimentation) dont les conséquences peuvent être graves. Structurellement, les formes de production sont très diversifiées, et cette diversification augmente avec l’apparition des énergies renouvelables. Côté consommation, trois phénomènes apparaissent : • par la libération des marchés, les prestataires de la production sont plus nombreux, et la situation monopolistique a disparu, le client peut choisir son prestataire même si le distributeur reste le même, • le consommateur peut avoir une diminution de la demande externe parce qu’il est producteur d’énergie (panneaux solaires et géothermie), mais si son besoin est inférieur à sa production effective, la distribution doit assurer le dispatching de cet excès sur le réseau. Les incitations économiques sont telles que ce cas de figure n’est plus marginal, • le comportement du consommateur peut devenir une source de flexibilité. De fait, les distributeurs ont tendance à développer des tarifs séduisants sur un marché libre. Ainsi, les progrès en domotique induisant des objets consommateurs intelligents, on peut penser qu’à terme, il s’établira une négociation entre les agents de la maison et le compteur d’électricité pour essayer d’effacer les pics de consommation sur le réseau. Ce qui était hier une incitation économique par tranches horaires figées peut devenir demain une incitation événementielle au gré de la politique réactive de contrôle du réseau de distribution. Une telle somme de variations structurelles et comportementales illustre le besoin d’interopérabilité sur un cas dominé par des systèmes nativement étrangers et le besoin de qualité de service. Secteur 4 : domaine du transport Voyageant récemment entre l’aéroport de Lyon St Exupéry et le centre ville par taxi, je me désespérais en examinant la console centrale du véhicule dans lequel j’étais monté. Oui, ce chauffeur disposait de multiples fonctionnalités pour obtenir des informations de routage, des informations de plannings ou des contacts directs avec de futurs clients, pour calculer le coût de mon transport ou pour réaliser l’édition de la facture, ainsi que réaliser l’encaissement de mon règlement. Seulement, tous ces moyens étaient non reliés aboutissant à un Cartes blanches au comité scientifique 27 enchevêtrement incroyable d’appareils et de fils ! Dialoguant avec lui pendant le temps d’un bouchon sur l’autoroute, il me fit part de la mise sur le marché prochainement d’une console parfaitement moderne avec le tout intégré à des prix dépassant ses moyens. Joli affaire qu’un marché rendu ainsi captif. Pourquoi ces appareils ne deviendraient ils pas interopérables dans leur prochaine génération en utilisant, de plus, des liaisons sans fils ? Plus généralement, le transport est aussi, comme pour le cas de l’énergie, un système fondé sur un marché libre de niveau planétaire, et dominé par la qualité de service pour aller le plus facilement possible et au coût le moins élevé d’un point A à un point B. Le trajet peut inclure de multiples moyens de transport différents, et concevoir son voyage, c’est agencer ces moyens dans une logique de pertinence. Même si ce secteur a notablement évolué avec l ‘essor des technologies du Web, il n’en reste pas moins que ce fonctionnement en réseau a encore de nombreuses lacunes et que la diversité des situations est telle que ces systèmes de transport multimodaux vont encore faire l’objet de nombreuses recherches. De par cette diversité native entre l’offre et le besoin, nul doute que l’interopérabilité sera au rang des challenges principaux. Secteur 5 : domaine de la gestion de crise Par nature, la gestion de crise crée des situations critiques. Ce sont des situations où l’incertitude est pesante, et où la pression sur les prises de décision est intense. Beaucoup de crises liées à des phénomènes naturels mobilisent des besoins de transport, d’énergie ou de soins. Par conséquent, le système de réponse à la crise est un réseau qui se construit sur la base des capacités d’interopérabilité évoquées dans les secteurs étudiés auparavant. Une cellule de gestion de crise est un lieu de management qui doit être correctement informé sur l’évolution de la situation, qui en elle même peut impliquer de nouveaux acteurs au fil de son développement, mais qui doit aussi adapter sa réponse en pilotant la structure et le comportement du système de traitement, soit par anticipation, soit de façon curative. Des travaux sont en cours dans le cadre d’un projet ANR-CSOSG IsyCri (2007-2009) [4] pour faire évoluer les méthodes, les moyens et les pratiques en la matière. Nous invitons le lecteur intéressé à consulter les communications sur ces travaux pour de plus amples informations. SECONDE SYNTHESE Outre le caractère illustratif de toutes ces applications sectorielles émergentes vis à vis des éléments de notre première synthèse, nous pouvons chercher à factoriser ces différents cas pour alimenter une seconde synthèse. 28 Management des Technologies Organisationnelles : Journées d’Etude 2009 De nouveau, nous le faisons par affinité avec une évolution récente de l’ingénierie des systèmes. Elle correspond à l’avènement du concept de système de systèmes qui ponctue des besoins de mieux comprendre et maîtriser des fonctionnements de systèmes en réseau. Nous avons repris les critères discriminants d’un système de systèmes énoncés par Maier en 1998 [5] pour les faire nôtre. Ils sont au nombre de cinq : • indépendance opérationnelle des éléments • indépendance managériale des éléments • développement évolutif • comportement émergent • distribution géographique Nous invitons aimablement le lecteur à relire les cinq secteurs d’application émergents en s’interrogeant sur le bien fondé de chacun de ces critères. Nous pensons que le système des systèmes se conçoit et s’exploite avec beaucoup d’ingéniosité si la capacité d’interopérabilité est travaillée et mise à profit dans chacun des systèmes contributeurs. Ce travail ne se cantonne bien évidemment pas aux seuls systèmes d’information, le pilotage est inclus dans ce dispositif. Il semble que les écoles de pensée qui se développent outre atlantique autour de ce concept d’interopérabilité empruntent résolument cette position. CONCLUSIONS Nous avons proposé une définition du concept d’interopérabilité qui favorise une ouverture sur une discussion du potentiel ainsi créé pour les organisations de production de biens et de services. Nous avons cherché à illustrer le concept en lui même, mais aussi ce potentiel d’innovation par quelques faits tirés essentiellement du domaine des services, ce qui les rend assez faciles à appréhender (ou tout au moins, nous avons la légèreté de le penser). Notre discours n’a pas abordé les cas plus classiques du Génie Industriel avec des organisations de production de biens (entreprise étendue, virtuelle, supply chain…). Mais ces objets ont été le centre de préoccupation des travaux de recherche supportés par la commission européenne et évoqués en introduction. Une bibliographie est disponible sur le site Web du laboratoire virtuelle InterOp VLab sur ce sujet. De mon point de vue, le potentiel d’innovation n’est pas aussi intense que sur les secteurs évoqués ici. Ce parcours nous a conduits à élaborer deux synthèses pour essayer de caractériser des faits saillants des recherches sur ce sujet. Sans aller jusqu’à Cartes blanches au comité scientifique 29 affirmer qu’il s’agit d’un champ disciplinaire nouveau (avec toutes les conséquences que cela peut induire de la part de ceux qui sont bien installés dans le paysage…), nous sommes persuadés que cette connaissance créée autour de ce concept concret d’interopérabilité est susceptible de promouvoir une culture nouvelle, sous l’impulsion de l’ingénierie des systèmes et de toutes les disciplines qui se trouvent sensibilisées par des applications potentielles. De cette culture devront naître d’autres secteurs émergents. NOTES ET REFERENCES BIBLIOGRAPHIQUES [1] site Web du 8ème congrès http://www.enit.fr/cigi2009/ [2] site Web de GdR I3 du CNRS ‘http://www.irit.fr/GDR-I3/), Groupe “Modélisation et Interopérabilité des Enterprises et des Systèmes d’Information” [3] site Web du laboratoire virtuel InterOp Vlab, http://interop-vlab.eu/ [4] international de Génie Industriel, CIGI09, S. Truptil, F. Benaben, P. Couget, M. Lauras, V. Chapurlat, H. Pingaud, Interoperability of information systems in crisis management : crisis modeling and metamodeling, I-ESA'08 conference, Ed. Springer, ISBN 9781848002203, (2008), 583-594 [5] M.W. Maier, Architecting principles for systems of systems, disponible en ligne, http://www.infoed.com/Open/PAPERS/systems.htm 30 Management des Technologies Organisationnelles : Journées d’Etude 2009 Cartes blanches au comité scientifique 31 Pour une éthique relationnelle dans les organisations contemporaines ? Véronique RICHARD Professeur Directrice du CELSA Université Paris-Sorbonne Les questionnements cherchant à analyser les rapports de l’éthique et de l’économie ne sont pas récents. Ils ont suscité chez les philosophes de l’Antiquité comme chez les économistes contemporains nombre d’œuvres majeures [1]. Depuis l’avènement des grandes entreprises au début du vingtième siècle, dirigeants, syndicalistes, hommes politiques comme économistes, sociologues, psychosociologues…, se posent la question de la moralisation (de l’humanisation ?) des rapports sociaux et des relations humaines au sein des organisations, les uns et les autres portés par des approches et des finalités souvent différentes et parfois convergentes. Visée utilitariste et visée humaniste s’entrecroisent et se superposent laissant souvent planer une ambiguïté sur la posture adoptée : descriptive/explicative, normative/prescriptive ou résultant d’une combinatoire de ces orientations. Mon parcours de recherche m’a conduite à m’intéresser tout d’abord aux « modalités d’amélioration de la communication interne dans les organisations à structure éclatée » [2] pour me focaliser par la suite sur « les incidences des changements de l’organisation du travail et du management sur les fondements et les pratiques de l’éthique relationnelle » [3]. J’entends par éthique relationnelle l’éthique implicite et explicite qui s’exprime dans les comportements et sous-tend les relations interpersonnelles hiérarchiques, horizontales et transversales entre les hommes dans les organisations. Les résultats obtenus alors et complétés depuis par l’observation de cas concrets ou la lecture de matériaux composites [4] m’ont convaincue qu’il était toujours pertinent de se poser cette question de la nécessité/possibilité d’instaurer une éthique relationnelle dans les organisations. L’analyse cursive 32 Management des Technologies Organisationnelles : Journées d’Etude 2009 faite à la lecture des évènements contemporains [5] et des écrits récents [6] montre qu’il y a d'une part rémanence d’un socle théorique et méthodologique stratifié au cours des siècles précédents, correspondant à des imaginaires et à des mondes vécus variés, et d'autre part renouvèlement de la question, notamment du fait de la révolution technologique et de la mondialisation et des évènements à longue portée qu’elles provoquent. Ce qui sera tenté dans cet article, c’est de pointer la variation mais aussi la convergence de points de vue interrogeant les rapports au travail en regard de l’éthique. Comment l’ethos ambiant colore la manière dont les acteurs s’organisent ? Quelle responsabilité sociale endossent les acteurs [7] lorsqu’ils interviennent dans une situation organisationnelle ? L’entrelacement des problématiques environnementale, économique et sociale du fait de leur complexité induit plusieurs types d’approches et de tentatives d’explication provenant de systèmes de références différents qui seront mobilisés ci-après [8]. DEFINITION LIMINAIRE Au cours de mes recherches, j’ai pris le parti de considérer l’éthique comme une visée, un optatif et de retenir, dans la lignée des écrits de Paul Ricœur, qu’elle est un questionnement sur le sens de la vie qui aboutit à une position personnelle sur la « visée d’une vie accomplie avec et pour autrui dans des institutions justes » [9]. S’inscrire dans cette optique permet de se focaliser sur la responsabilité personnelle des choix de conduite dans la vie au travail et de s’intéresser aux positions existentielles et aux attitudes comportementales à l’œuvre dans les relations entre les hommes. L’éthique est réflexion au double sens du terme : la réflexion qui permet d’analyser les phénomènes et les situations et la réflexion qui produit de la réflexivité et renvoie en miroir aux acteurs le résultat de l’analyse, induisant une boucle récursive de questionnements / réponses, modifiant les visions et les actions des uns et des autres. Ethique de conviction et éthique de responsabilité [10] encadrent les décisions des individus sachant que, dans un collectif de travail, les individus sont liés les uns aux autres par des communautés de pratiques et de routines [11] et des relations d’interdépendance ; ils doivent travailler ensemble, s’allier même temporairement même si leurs visées diffèrent. Ils produisent de façon imposée, négociée ou conjointement [12] les règles du jeu social. La structure organisationnelle par ses systèmes de contraintes, ses normes formelles, ses cultures, définit l’action et les représentations individuelles. Des compromis se négocient quotidiennement dans les relations interindividuelles à propos de la combinaison des visées individuelles et des contraintes collectives. Cartes blanches au comité scientifique 33 Poser le contexte, c’est-à-dire rappeler les caractéristiques humaines les plus saillantes des organisations actuelles du travail et évoquer leurs incidences sur les modes d’accord (1er temps) et sur les difficultés relationnelles et les dissonances qui en résultent (2ème temps) s’impose avant de questionner les discours du management sur l’éthique et d’envisager les incertitudes et les ambiguïtés qu’ils induisent (3ème temps), pour tenter en ouverture d’établir la nécessité/possibilité de l’éthique relationnelle. EVOLUTIONS DES FORMES D’ORGANISATION DU TRAVAIL ET DES MODES D’ACCORD Il ne peut s’agir ici d’englober ni de détailler les différentes structures et lois de fonctionnement caractérisant les organisations contemporaines. On les considérera comme des systèmes socio-productifs, différenciés par la taille, le métier, les implantations, l’histoire, la culture, les identités… On tentera de voir comment les mutations actuelles provoquent des bouleversements dans les relations d’interdépendance nouées entre les acteurs qui y œuvrent. Parmi les caractéristiques les plus fréquemment mises en avant figure le fait que nous sommes dans l’ère du changement permanent [13]. Les organisations ne sont pas stabilisées ; elles évoluent en fonction du contexte et des évènements [14] dans leurs structures, leur configuration, leur périmètre, leur métier (recentrement/décentrement). Elles incluent/excluent de nouveaux entrants/sortants. L’instabilité des structures, la flexibilité et la mobilité qu’elles imposent, la destruction/reconstruction de liens et l’insécurité qui en découle reconfigurent les agencements organisationnels et modifient les identités individuelles et les rapports interindividuels. Les statuts ne sont plus acquis à vie, les collectifs de métier éclatent, les identités doivent se reconstruire, les relations se figent sur des modèles défensifs fluctuant entre individualisme et solidarité. L’insécurité est accrue par la pression de l’objectif du résultat à court terme mesuré par des systèmes d’évaluation peu adaptés à la complexité des situations. Dans ces nouvelles configurations-instables-, on cherche à pallier les carences d’intercompréhension par différents moyens souvent contradictoires et ambivalents, oscillant entre rationalité procédurale et appel à l’autonomie et à la responsabilité. Le surcroît d’objectivation des relations s’allie à l’injonction à la créativité. Les modèles d’organisation post-tayloriens reconnaissent comme fondement des rapports sociaux du travail la créativité et la responsabilité. L‘innovation participative, la dimension entrepreneuriale -schumpétérienne- du travail, l’organisation en mode projet (à durée limitée), le travail en « réseau » [15] nécessitent une coopération qui repose in fine fondamentalement sur la qualité des rapports sociaux et l’engagement des acteurs. Ces « investissements 34 Management des Technologies Organisationnelles : Journées d’Etude 2009 de forme » [16] résistent à la programmation « pure et parfaite » ; ils produisent de façon imprévisible ordre et désordre [17]. Les processus d’émancipation nécessités par l’innovation ne peuvent être maîtrisés formellement. Les rapports de force dans ce contexte supposent de laisser des marges de manœuvre aux acteurs pour qu’ils aménagent leur mode opératoire et négocient et renégocient de façon constante, individuellement et collectivement, la part acceptable de la contrainte organisationnelle. L’ « horizontalisation de la hiérarchie » [18] et la « désautomatisation » [19] des comportements » induite par l’appel à l’initiative et à la créativité ne libère pas du contrôle ; le contrôle évolue du contrôle par la règle, au contrôle par l’objectif, l’implication, l’engagement. La confusion fréquente entre évaluation des individus et évaluation des activités menées et de l’action réalisée accroît l’insécurité identitaire et entrave la liberté d’action a contrario des objectifs d’innovation. Dans une boucle récursive, le fait de laisser des marges d’adaptabilité permet d’« intérioriser » et d’« incorporer » [20] les nouvelles contraintes organisationnelles plus floues mais tout autant coercitives. Le dilemme autonomie/contrôle, le souci d’éviter les écarts entre les règles de coordination technique et les pratiques effectives de coopération ne sont pas des butées nouvelles. Nombre d’auteurs réactivent les schèmes de sociabilité mis en lumière depuis l’avènement de la sociologie : boucle du don/contre-don [21], sens du devoir [22], logique de l’honneur [23]… et corroborent l’idée de mécanismes de régulation sociale basée sur une « adhésion librement consentie », telle que développée par J. Rawls dans sa théorie de la justice. Dans cette optique, l’accord sur les modalités d’organisation est négocié selon une double matrice d’intérêt économique (maximisation du profit) et de vertu morale (respect des règles de justice). On le voit, il est impossible de démêler dans les organisations ethos et praxis ; questions factuelles et questions morales sont indissociables, tant l’efficience de l’organisation est dépendante des conceptions que l’on a de l’Homme et de la liberté dont il peut user. ATTENTES ET DISSONANCES RELATIONNELLES La prise de conscience de la nécessité d’un « développement durable » et de la « responsabilité sociale des entreprises » s’enracine dans les esprits et accroît la pression de la société civile sur les entreprises. On attend d’elles qu’elles prennent leur part dans le développement tant social et sociétal qu’économique. Les normes socio/morales portées par les tenants du développement durable interfèrent avec les injonctions qui viennent de l’économique. Les règles du jeu propres au monde des affaires, la morale utilitariste recherchant l’accroissement Cartes blanches au comité scientifique 35 de la richesse sont remises en cause par les différents cercles internes et externes auxquels sont reliées les entreprises. Les paramètres normatifs que sont le droit, le contrat de travail, les codes de déontologie, les règles administratives, les standards sociaux… oscillent entre un universalisme juridique (les règles supra et internationales) et les ordres nationaux, ajoutant à la tension entre l’universalité des principes et les particularités culturelles. La superposition de normes et d’institutions dessine un entrecroisement qui peut provoquer flou et conflit de normes et nécessite des arbitrages dont la justification n’apparaît pas toujours valide. Risque judiciaire et risque d’opinion sont des facteurs exogènes de régulation auxquels s’ajoutent les facteurs endogènes provenant du vécu et des attentes des salariés. Nombre d’auteurs soulignent le malaise, la souffrance [24] au travail, le sentiment d’injustice [25], la peur de la précarité [26] exprimés par les « travailleurs sans qualités » [27] victimes potentielles de la « montée des incertitudes » [28] induites par la mobilité des marchés, les politiques de flexibilité et les transformations dans l’ordre productif. Les vagues successives de « désaffiliation » [29], fragilisent les individus et partant obèrent les potentialités de cohésion sociale. Les bouleversements socio-productifs pour ce qu’ils charrient d’incertitude et d’inquiétude touchent aux dimensions les plus intimes de la subjectivité. L’accentuation des contraintes, la perte de repères, la peur de l’avenir, produisent des sentiments de domination dilués dont on n’identifie ni la source, ni la force, ni la durée. Malgré les discours convenus sur l’Homme [30], les ressources humaines sont considérées comme des variables d’ajustement et les acteurs se sentent « chosifiés », objet et non sujet de l’activité productive, au rebours de ce qui est attendu d’eux lorsqu’il est fait appel à leur ingéniosité et à leur engagement. On retrouve ici les situations d’injonction paradoxale où les cadres sont confrontés à la gageure d’obtenir l’adhésion sans pouvoir vraiment ouvrir d’espaces de dialogue et où l’initiative et la responsabilité des salariés sont sollicitées sans qu’il y ait de contreparties en échange de l’investissement demandé Pour autant, nombre d’auteurs, de documentaristes, de chroniqueurs mettent en exergue le fait que les attentes de reconnaissance [31], le souci de ne pas perdre l’estime de soi, l’exigence d’équité, le besoin de sens se superposent, voire dépassent les besoins de redistribution. Dans les échelles d’analyse sur la valeur accordée au travail, les « jugements de beauté » [32] (registre de la valeur professionnelle) comptent tout autant que les « jugements d’utilité » [33] (valeur économique). Ces points de saillance mettent en évidence des dissonances qui certes ne sont pas nouvelles dans le monde du travail mais sont amplifiées dans « un 36 Management des Technologies Organisationnelles : Journées d’Etude 2009 monde incertain », une société traversée par la peur du risque [34], société désenchantée, qui met en doute le progrès et suscite conflits, critiques, perturbations, problèmes sociaux… DISCOURS ETHIQUES DE JUSTIFICATION Dans une visée résolutoire, le management produit des discours de justification et de légitimation visant à définir la ligne, la stratégie, la règle, à donner l’impulsion…. L’objectif principal est de fixer un cadre normatif fournissant des schèmes de pensée et des représentations acceptables sur le plan moral comme sur le plan de l’efficacité. La littérature managériale à caractère institutionnel et programmatique peut se lire sur deux plans : l’un instrumental, l’autre moral. Elle vulgarise des modèles normatifs prenant appui sur des valeurs génériques [35] correspondant aux aspirations au bien, au bon, au juste, à l’utile… tendus vers des règles de conduite à caractère opératoire. La langue managériale cherche à créer un univers partagé, s’inscrivant dans une histoire, une culture, un projet, un avenir commun [36]. Elle use d’une parole phatique plus que cognitive. Les déclarations déontologiques, les chartes éthiques, les codes de conduite qui se sont multipliés et fleurissent sur tous les terrains organisationnels visent à encadrer l’action. Le vocabulaire est souvent prescriptif, mélangeant les genres, maniant le flou dans l’utilisation des concepts [37], se rapportant à une « doxa » du vraisemblable et de l’acceptable. Ces textes qui s’auto-nomment « éthiques » formalisent des nœuds entre la justification et la persuasion. Ils hésitent entre l’informatif, le performatif et l’argumentatif. Ils disent ce qui doit être et non ce qui est (…) à la façon des exemplum, comme l’ont montré L. Boltanski et E. Chiappello [38]. OUVERTURE Avoir recensé ainsi un certain nombre de points de vue sur les relations de travail telles que vécues aujourd’hui, certes provenant de sources variées et présentés de façon succincte, pointe les exigences contradictoires et les conflits d’interprétation que connaissent les acteurs dans les organisations contemporaines. Il s’agit dans ce moment d’ouverture de mener une interrogation d’arrière-plan sur l’ambiguïté résiduelle que dessinent ces points de vue. L’idée que le « capital humain » représente un avantage concurrentiel durable et qu’on ne peut le faire fructifier que dans une logique gagnant/gagnant qui suppose clarification des objectifs, fixation des règles d’équité et des principes d’évaluation est validée par nombre d’acteurs et Cartes blanches au comité scientifique 37 d’auteurs dans une double assertion instrumentale et morale. En filigrane, s’inscrit l’idée qu’aujourd’hui pour favoriser la collaboration intelligente et bénéficier de l’ingéniosité collective, il faut rechercher la coopération plutôt que l’obéissance, qu’il faut accepter la négociation, négociation où l’on peut être l’ « otage » de l’autre ou des autres dans des relations bilatérales ou plurielles. Ne doit-on pas alors reprendre l’idée développée par les éthiciens procéduralistes [39] qu’une norme ou une décision n’est juste que dans la mesure où elle est acceptée selon une procédure instituée, un débat contradictoire où le questionnement, la démarche critique, l’attention portée aux diverses opinions, la mise en visibilité des critères de choix fonde l’agir communicationnel permettant l’agir stratégique [40] ? Le débat sous-tendant la négociation n’aboutit pas toujours à l’accord consensuel mais permet d’établir des compromis acceptables au regard d’une éthique relationnelle. Favoriser une éthique relationnelle passant par un contrat de communication ne relève pas du souci de moralisation (humanisation) des relations de travail mais de l’obligation de mettre en cohérence changements d’organisation et modification du rapport individuel à l’entreprise dans une logique conventionnelle. Peut-être est-ce conjuguer utopie et stratégie ? NOTES ET REFERENCES BIBLIOGRAPHIQUES [1] L’ouvrage de J. Ballet et F. de Bry, « L’entreprise et l’éthique », Ed. du Seuil, 2001, expose la généalogie de ces questionnements [2] Thèse de doctorat, 1987, Université de Paris-Sorbonne ; les terrains étaient une entreprise de service répartie en agences régionales et des organismes de sécurité sociale régionaux [3] Dossier d’habilitation, soutenu en 1994, Université de Paris-Sorbonne. [4] Presse, revues spécialisées, mémoires et thèses, littérature grise, littérature managériale, actes de colloques, communications… [5] Notamment cette dernière année entre juillet 2008 et juillet 2009 [6] Notamment ouvrages en sociologie parus ces dix dernières années [7] Dirigeants, cadres, salariés, syndicalistes… [8] Sont mobilisés des auteurs en sciences de l’information et de la communication, philosophie de la communication, sociologie, éthique et économie [9] P. Ricoeur, « Soi-même comme un autre », Ed. du Seuil, 1990 [10] Selon la distinction posée par M. Weber, « Le savant et le politique », Union générale d’éditions, 1963 [11] Comme le montre A. Giddens, « La constitution de la société : éléments de la constitution de la structuration », PUF, 1987 38 Management des Technologies Organisationnelles : Journées d’Etude 2009 [12] Selon J.D. Reynaud, « Les règles du jeu : l’action collective et la régulation sociale », A. Colin, 1989 [13] Cet oxymore traduit la dialectique insoluble des remaniements organisationnels [14] Notion chère à P. Zarifian. Cf : « Le travail et la compétence : entre puissance et contrôle », PUF, 2009 [15] M. Castells, « La société en réseaux », Fayard, 1998 [16] F. Eymard-Duvernay, « Économie politique de l’entreprise », Ed. La Découverte, 2004 [17] N. Alter, « L’innovation ordinaire », PUF, 2000 [18] J.L. Génard, Le contexte de l’irruption du référentiel éthique dans la question du travail, in L’éthique au travail, Liber, 2009 [19] P. Zarifian, « Le travail et la compétence : entre puissance et contrôle », PUF, 2009 [20] Sur le mode du dispositif foucaldien [21] N. Alter, « Donner et prendre ; la coopération en entreprise », Ed. La Découverte, 2009 [22] M. Weber, « L’éthique protestante et l’esprit du capitalisme », Plon, 1964 [23] Ph. d’Iribarne, « La logique de l’honneur », Ed. du Seuil, 1989 [24] C. Dejours, « Souffrance en France », Ed. du Seuil, 1998 [25] F. Dubet, « Injustices : les inégalités au travail », Ed. du Seuil, 2006 [26] S. Paugam, « Le salarié de la précarité », PUF, 2000 [27] R. Sennett, « Le travail sans qualités. Les conséquences humaines de la flexibilité », Albin Michel, 2000 [28] R. Castel, « La montée des incertitudes : travail, protections, statut de l’individu », Ed. du Seuil, 2009 [29] R. Castel, « Les métamorphoses de la question sociale : une chronique du salariat », Fayard, 1995 [30] Le fameux aphorisme de Jean Bodin « il n’est de richesse que d’hommes… » [31] Développé par A. Honneth, « La lutte pour la reconnaissance », Le Cerf, 2000 [32] C. Dejours, op. cit. [33] ibidem [34] U. Beck, « La société du risque », Ed. La Découverte, 1986 [35] Comme l’excellence, l’innovation… Le registre utilisé est assez limité [36] Nombre d’entre elles utilisent le « storytelling » [37] Cf. l’article de C. Renouard, « L’éthique et les déclarations déontologiques des entreprises », Problèmes économiques, n° 2975, (2009) 43-48 [38] L. Boltanski et E Chiapello, « Le nouvel esprit du capitalisme », Gallimard, 1999 [39] J. Habermas, J.M. Ferry, J. Rawls… [40] Irréductibles l’une à l’autre selon J. Habermas Cartes blanches au comité scientifique 39 Les projets d’intégration à base de progiciels intégrés Guy SAINT-LEGER Professeur ESC / Saint-Etienne INTRODUCTION Un directeur d’une grande « Business Unit » chez l’un des principaux éditeurs de progiciel du marché nous fait part très fièrement du récit suivant : « Dans cette grande PME nationale nous avons mis en place notre ERP en un temps record et dans le budget alloué. C’est une « success story » que nous n’hésitons pas à utiliser dans nos « démarches commerciales ». Par contre et avec un peu plus de modestie le directeur nous fait partager une grande interrogation qui le laisse perplexe et un peu désabusé: « Dans cette autre entreprise de même taille, positionnée sur le même environnement de marché, possédant les mêmes ressources internes et avec la même méthode d’implémentation, le projet s’est traduit par un véritable échec ! Pourquoi un tel écart entre ces deux projets ? ». Sur la base de retours d’expériences de projets ERP [1] et de travaux de recherche sur la question des intégrés nous proposons de mener une réflexion à partir de cette interrogation, et d’y apporter quelques éléments de réponses. LES SYSTEMES D’INFORMATION A BASE DE PROGICIELS INTEGRES : DES MULTI-OBJETS Les systèmes d’information intégrés font partie du paysage informatique des entreprises et de nombreux travaux de recherche leurs sont consacrés. Leur évolution au fil du temps montre une intégration de composantes fonctionnelles toujours plus poussée. Les ERP ne sont qu’une partie dans un ensemble quand on s’intéresse au développement des Systèmes d’Information InterOrganisationnels. Ils deviennent de plus en plus complexes et de plus en plus difficiles à manager. Nous comprenons que la réponse à apporter à notre 40 Management des Technologies Organisationnelles : Journées d’Etude 2009 directeur de BU n’est pas à rechercher dans la technicité ou les fonctionnalités du produit. Par contre, la focalisation des énergies sur la seule dimension technique de l’outil nécessite une remise en cause profonde de sa part. Cette pratique que nous avons pu rencontrer dans de nombreux projets a pour conséquence d’occulter d’autres dimensions laissées pour compte qui ont, selon notre approche de ces projets, autant d’importance, voire même davantage. En effet, à vouloir dissocier ou fragmenter les éléments, nous déformons les choses selon certaines préférences en travaillant sur des contenus simplifiés dépourvus de relations et de sens. Nos réponses sont donc incomplètes et ressemblent le plus souvent à des recettes. Le copier collé est devenu un réflexe, et le raisonnement : un problème rencontré = un outil informatisé pour y répondre, un mode de pensée. Bon nombre de dysfonctionnements observés dans les organisations sont ainsi fossilisées pendant les projets et dans les diagnostics. Ils remontent en surface plus tard et souvent de manière insidieuse dans les phases post-projet avancées. La théorie socio-économique des organisations montre l’existence d’interactions entre les structures des organisations et les comportements des acteurs [2]. Dans un monde « idéal » nous serions confrontés à un mode de fonctionnement des organisations dit « orthofonctionnel » ce qui signifie sans dysfonctionnement entre les structures et les comportements ([S<->C]). Il est vrai que les exigences techniques imposées par les ERP tendent à guider les entreprises dans ce sens. Le discours commercial des vendeurs de solutions auprès des directions d’entreprises vante les mérites d’un outil « miracle » sensé résoudre les maux de l’organisation. Dans le monde de la réalité ces dysfonctionnements sont présents et affectent à la fois la performance économique et la performance sociale des organisations. Dans le cas des projets d’intégration, nous pouvons étendre ce couple ([S<->C]) à d’autres dimensions pour développer in fine une approche dysfonctionnelle globale, et mieux aborder ainsi la complexité [3][4][5]. Dans les différents projets où nous sommes intervenus, nous avons remarqué la présence récurrente de six dimensions inter-reliées (figure 1). Nous présentons très succinctement dans le tableau suivant le contenu de chacune d’entre elles. Dimensions impliquées ERP Projet ERP Contenu succinct Soit l’objet technique en lui-même et ses caractéristiques d’intégration. La constitution d’une équipe projet pour la mise en œuvre de cet outil de gestion est incontournable. L’entreprise ne peut réaliser seule ce type de Cartes blanches au comité scientifique Organisation Comportement des acteurs Environnementale Stratégique 41 projet et doit faire appel à des compétences externes. L’organisation en place, ses spécificités métier et contextuelles Les attitudes et comportements des différents acteurs de l’organisation en particulier à l’égard du nouveau système. Les spécificités de l’environnement externe de l’entreprise. Alignement stratégique du nouveau système et vision stratégique de l’entreprise. Le projet d’équiper l’organisation de ce type d’outil est-il inscrit dans une démarche stratégique ? Tableau 1 Dimensions présentes dans les projets d’intégration Partant de la prise en compte de ces nouvelles dimensions, nous pouvons en proposer une modélisation rassemblant de manière plus visuelle et pédagogique les composantes en jeu dans ce type de projet (tableau 2). Tableau 2 Approche multidimensionnelle des projets d’intégration 42 Management des Technologies Organisationnelles : Journées d’Etude 2009 Cette modélisation est le fruit d’une réflexion de fond à deux niveaux : Le premier provient du retour d’expériences de 25 projets menés dans des secteurs d’activités de production de biens et de services et de tailles d’entreprises différentes. Le second s’appui sur des travaux de recherche sur ce type de projets engagés depuis une dizaine d’années. L’élaboration de ce modèle s’est réalisée en plusieurs phases au fil du temps et des projets. La première phase, rassemblait de manière basique les dimensions ([Outil ERP<->Projet ERP<->Organisation]). Puis les dimensions ([Comportementale des acteurs<->Stratégique<->Environnementale]) sont venues compléter la première version du modèle insuffisamment étoffée pour traiter des questions du changement. Enfin la mise en relation des liens entre dimensions a été approfondie avec l’étude des interactions ([Structures<->Comportements]). L’alignement et la performance globale du projet sont au cœur de cette combinatoire multidimensionnelle et de cette ingénierie des liens qui devrait davantage mobiliser les attentions. Dans un mouvement dynamique d’ensemble, chaque dimension du modèle possède sa propre boucle de rétroaction temporelle et ses ramifications spécifiques. En effet, dans la prise en compte de l’écoulement du temps, qui donne le « tempo » dans cette approche à géométrie variable ? : Est-ce l’horloge de l’organisation ? L’horloge du progiciel ? L’horloge de l’environnement externe ? L’horloge des comportements … ? N’oublions pas que les progiciels intégrés ont un mode de fonctionnement en temps réel ou presque. Dès lors, pour mieux appréhender la dynamique et l’équilibre / déséquilibre du modèle, l’accent se portera autant sur les relations que le contenu des six dimensions. Avec cette approche, nous ne sommes plus en présence d’un monoobjet : le progiciel, mais d’un multi-objet à six dimensions. Au départ de chacune d’entres elles, des couples dimensionnels peuvent être définis pour l’identification de la nature et des caractéristiques des relations à étudier (ex : ([ERP<->Comportements])). Le centre de gravité de ce multi-objet variera selon l’entreprise étudiée. C’est particulièrement le cas lorsqu’une ou plusieurs dimensions sont complètements élaguées des projets. On rencontre ces situations lorsque les dirigeants d’entreprise abordent un projet intégré sans remise en cause de l’organisation existante ou encore lorsque la dimension stratégique est absente du projet. Enfin, si nous admettons le multi-objet nous devons admettre également l’existence d’une multi-problématique. Revenons au cas critique cité par notre directeur de BU, sur lequel nous avons pu intervenir par la suite. Si l’on examine en profondeur la qualité des données associée à la logique d’interdépendance des échanges imposée par le système intégré, on peut évaluer la dimension comportementale des acteurs Cartes blanches au comité scientifique 43 dans l’utilisation du progiciel, et analyser les impacts sur l’organisation. Nous pouvons admettre que la qualité des données du système a un impact sur les échanges avec l’environnement externe mais également sur la dimension stratégique. Une pollution du système intégré lié à son mauvais usage va généralement à contre sens des objectifs stratégiques recherchés par l’entreprise. Cette dernière avait fait le choix de s’équiper d’une solution intégrée pour améliorer sa performance ... Voilà la spirale d’échec dans laquelle s’est retrouvée piégée l’entreprise en question. Le comportement des acteurs à l’égard du nouveau système et les changements organisationnels associés ont été minimisés par la direction de l’entreprise lors du projet. Au final, on a plaqué un progiciel intégré sur une organisation qui ne l’était pas… L’approche multidimensionnelle décrite ci-dessus à permis de corriger cette phase post-projet en dérive par des actions spécifiques (dimension projet) sur les couples dimensionnels du modèle présenté. L’entreprise pour laquelle le projet avait été un succès avait pour sa part pris le temps de procéder au préalable au toilettage de ses dysfonctionnements organisationnels et comportementaux internes-externes. Dans cette première partie nous avons souligné les éléments permettant de répondre au questionnement du directeur de BU sur l’écart entre les deux projets. Dans la deuxième partie de ce texte nous aborderons les exigences techniques imposées par les outils intégrés et les problématiques dysfonctionnelles récurrentes qui les accompagnent. EXIGENCES ET RESPECT DES EXIGENCES Quels enseignements tirer de cette complexité ? En premier approximation, nous pouvons avancer que bon nombre d’obstacles majeurs pourraient être évités ou atténués si les décideurs avaient une connaissance plus approfondie des processus humains en cause, et s’ils pouvaient intégrer ces connaissances au plus tôt dans leur projet [6]. En seconde approximation, il faut admettre que ces outils structurés et structurants nécessitent beaucoup de rigueur dans leur maniement de la part des acteurs. Les exigences techniques imposées par l’outil intégré sont-elles au rendez-vous avec les comportements organisationnels en place ? Si la réponse est positive alors le contexte est plutôt favorable à l’accueil de l’outil et son adoption par les utilisateurs. Dans le cas contraire, le dirigeant doit admettre qu’un travail de toilettage préalable des pratiques internes s’avère nécessaire. Nous nous intéressons plus particulièrement au couple ([Outil ERP <-> comportements des acteurs]) et ses dysfonctionnements. Nous allons passer en revue quelques unes de ces exigences au regard des problématiques 44 Management des Technologies Organisationnelles : Journées d’Etude 2009 dysfonctionnelles que l’on rencontre le plus souvent dans les projets d’intégration. Pour traiter les dysfonctionnements nous utiliserons le diagnostic socio-économique des organisations développé par le centre de recherche ISEOR [7]. Six familles de dysfonctionnements sont répertoriées dans le diagnostic, comme indiqué dans la première colonne du tableau suivant (Tableau 3). Toutes ont leur importance et demandent une attention particulière quant aux traitements de leurs causes-racines. Nous listons dans ce tableau les principales problématiques récurrentes auxquelles nous avons été confrontés dans les projets, ces 15 dernières années. Si nous devions nous prononcer sur une graduation des difficultés dans le cadre des projets d’intégration, nous mettrions en avant les trois premières familles : La Gestion du temps (GT), La Communication-Coordination-Concertation (3C), l’Organisation du travail (OT). En second et sans en minimiser l’intensité des impacts : Les Conditions de travail (CT), La Formation intégrée (FI), et la Mise en Œuvre Stratégique (MOS). Approche dysfonctionnelle Exigences techniques des projets d’intégration imposées par l’ERP Gestion du temps (GT) . Mise à jour des données en temps réel sur le court terme . Planification des ressources du long terme au court terme Communication-Coordination- . Unicité des données Concertation (3C) . Qualité des données (fiabilité) . Intégration informationnelle . Traçabilité des transactions . Interopérabilité . Interdépendance Organisation du travail (OT) . Transversalité . Intégration Organisationnelle des processus . Cible organisationnelle définie (architecture) . Nombreuses saisies transactionnelles . Niveau de granularité des processus . Best practices prédéfinies Conditions de travail (CT) . Adéquation de l’outil . Adoption de l’outil par les utilisateurs . Facilité d’utilisation . Utilité perçue . Maintenance de l’outil . Qualité de l’infrastructure Hardware, software et réseau . Granulométrie des processus Formation intégrée (FI) . Maîtrise des processus informationnels et des corrections en cas d’erreurs . Processus de traitement des anomalies en place Mise en œuvre stratégique . Méthodologie de mise en œuvre et (MOS) conduite du changement . Remise en cause des processus existants Exemples de manifestations dysfonctionnelles récurrentes . Mode de gestion centré . Saisies aléatoires des données transactionnelles dans le temps . Données de paramétrage, de base et transactionnelles erronées ou manquantes . Non transparence des données . Systèmes de gestion parallèles . Décloisonnement des fonctions . Qui devrait faire quoi ? non défini . Absence de remise en cause des processus existants . Systèmes hétérogènes non communiquant . Processus d’affaires non formalisés . Informatisation de dysfonctionnements existants . Glissements de fonction collectifs . Stress engendré par des déresponsabilisations d’acteurs à tous les niveaux de la hiérarchie . Excès de contrôle . Résistance . Inadéquation de la formation . Plan de formation inexistant ou atrophié . Absences de référents internes . Déterminisme technologique . Projet ERP non considéré stratégique . Attitude de la direction à l’égard du système d’information . Sous-estimation des changements par les directions Tableau 3 Les exigences imposées par les systèmes intégrés / couple dimensionnel (outil ERP<-> Comportements des acteurs). Cartes blanches au comité scientifique 45 Notons que ces familles de dysfonctionnements ne sont pas isolées les unes des autres, mais se combinent entre elles comme les six dimensions dont nous avons parlées précédemment. LA GESTION DU TEMPS (GT) Les exigences du progiciel sur la gestion du temps repose sur une planification des ressources et un suivi des activités du long terme au court terme, et tout changement dans cet espace-temps se fait en temps réel (Enterprise Resource Planning). Or, dans beaucoup d’entreprises et en particulier dans les PME, le mode de gestion du temps se réduit à une activité centrée et coordonnée sur le court terme. On parle de gestion-réaction au court terme ou de « culture pompier», où l’on cherche en permanence à éteindre des incendies dysfonctionnels. L’anticipation ou la planification des activités est la plupart du temps perçue comme utopique ou non adaptée au métier par les opérateurs et par le management, parce ces notions demandent le plus souvent de la rigueur et un engagement à tenir dans le temps. C’est l’un des changements les plus importants subit par l’organisation lorsqu’un système intégré est implémenté. Par ailleurs, pour que l’outil puisse donner toute sa puissance en efficacité, les saisies transactionnelles doivent se faire au fil de l’eau. Cette exigence dans la déclaration ou la signature de son activité par les opérateurs et le management est loin d’être un réflexe dans la réalité des entreprises. LA COMMUNICATION-COORDINATION-CONCERTATION (3C [8] ) Inter-reliés avec la gestion du temps, les 3 C représentent la famille des dysfonctionnements les plus récurrents dans les projets d’intégration. L’arrivée d’un progiciel va modifier en profondeur les modes de communicationcoordination-concertation de l’organisation. Le coté à la fois structurant et structuré de l’outil ERP va directement impacter les mécanismes d’échanges, les jeux de pouvoir, la transparence ou l’opacité entretenue par le management autour des données. C’est sans doute pour cette raison que les dirigeants d’entreprises voient le système ERP comme le meilleur moyen pouvant leur permettre de détruire les barrières existantes entre les différents départements de leur organisation. Mais contrairement à ce que peuvent penser les concepteurs de solutions et certaines directions d’entreprises, relier ne suffit pas. L’intégration informationnelle est nécessaire mais n’est pas suffisante. Le chainon manquant se situe dans l’absence d’intégration des comportements pour arriver à un bon niveau de collaboration construit sur la confiance. Les processus 46 Management des Technologies Organisationnelles : Journées d’Etude 2009 sont mis en tension les uns par rapport aux autres, les acteurs sont interconnectés et interdépendants en temps réel, in fine les cloisonnements inter-fonctionnels issues de l’histoire de l’organisation et de ses guerres intestines se désagrègent. Les anciens ont le pouvoir mais n’utilisent pas le nouveau système, les nouveaux entrants n’ont pas le pouvoir mais savent utiliser l’outil informatique puisque cela fait partie de leur éducation. Voilà les ingrédients des tensions qui s’opèrent au quotidien dans les organisations, et qui changent les règles du jeu. Par ailleurs on peu observer que l’intégration informationnelle de l’outil ERP instaure une forme de désintermédiation entre le management et les salariés, l’organisation des échanges d’information s’en trouve modifiée. « Avant on communiquait, on se rendait visite ou alors on se téléphonait, aujourd’hui tout cela a disparu avec le progiciel ! ». La régulation des échanges est maintenant traitée et tracée [9] par l’outil. Ainsi il n’est pas rare de constater que lorsque le système devient trop contraignant voire compromettant, les utilisateurs reconstruisent des réseaux locaux parallèles d’échanges d’information plus en adéquation avec leurs pratiques personnelles. En cela les 3C donnent une bonne représentation de la transversalité [10] présente ou pas dans l’organisation, et de l’usage qui est fait du nouveau système. L’ORGANISATION DU TRAVAIL (OT) Dans les organisations où l’on ne sait pas trop qui fait quoi, mais où finalement il y a entente des acteurs sous la forme d’un « statu quo » plus ou moins institutionnalisé, les arrangements internes vont bon train, et des ajustements s’opèrent à chaque instant (en temps réel). Ces pratiques sont mises en exergue avec l’arrivée du progiciel en particulier lorsque les processus internes n’ont pas été épurés des dysfonctionnements liés aux pratiques en place. La mise en œuvre des bibliothèques de processus embarquées [11] dans le progiciel n’est pas forcément en accord avec les modes de fonctionnement de l’organisation. Le terme de « fit » organisationnel est souvent utilisé dans la littérature ERP pour exprimer ce type de rapprochement entre le(s) métier(s) de l’entreprise et son système d’information. La standardisation des processus au bon niveau de réglage [12] de l’organisation est donc un point clé pour la réussite du projet, elle conditionne en particulier l’usage du système qui en sera fait par la suite. Cette approche par les processus est souvent mal vécue dans les entreprises fortement hiérarchisées. En effet, la notion de processus ne connait pas de frontière fonctionnelle, de plus elle est orientée client ; or la notion de client n’est pas forcément partagée par tous les acteurs. La Cartes blanches au comité scientifique 47 transparence informationnelle devient de mise et bon nombre d’acteurs ne sont pas toujours prêts à jouer le jeu. Le qui devrait faire quoi à moment donné devient visible aux yeux de tous. La synchronisation parfaite aux interfaces (3 C) devient l’enjeu majeur, et l’outil par son haut niveau d’intégration informationnelle et organisationnelle révèle les dysfonctionnements anti-flux. Travailler en flux nécessite un comportement adapté de la part de chacun. Chaque maillon de la chaîne est à la fois client et fournisseur dans l’organisation, et l’acteur bicéphale doit faire ce qu’il faut pour ne pas mettre en difficulté ses collègues de travail amont-aval-hiérarchique-exécutant. C’est encore une fois de la rigueur personnel et du respect envers autrui. LES CONDITIONS DE TRAVAIL (CT) Les utilisateurs des outils intégrés peuvent voir leurs conditions de travail se dégrader lorsque l’outil a été introduit par les directions dans un but excessif de contrôle. Le grand nombre de saisies transactionnelles demandé a ses limites. A choisir entre la complexité de l’outil informatique et la réalisation de son travail, l’opérateur fera un choix très pragmatique et préférera faire ce pour quoi il est rémunéré. L’autre facette des dégradations de travail concerne le stress. Plusieurs situations de travail peuvent être à la source de stress avec les systèmes intégrés. Sur le plan individuel, le fait de ne pas être formé suffisamment à l’utilisation du progiciel est générateur de stress. Sur le plan collectif, quand le progiciel est mal renseigné par les acteurs de l’organisation, le phénomène de pollution des données qui en découle se trouve amplifié par la puissance intégratrice du système. Cette situation dégradée du système en place entraine une perte de confiance dans l’utilisation de l’outil. Ainsi, ceux pour qui l’outil est indispensable dans l’exercice de leur activité doivent passer un temps considérable à corriger les données erronées ou manquantes venant d’acteurs déresponsabilisés et peu scrupuleux à l’égard des exigences informationnelles du système de gestion. Par l’interdépendance qu’ils génèrent entre les acteurs, les progiciels sont des outils conçus pour l’organisation et non pour l’individu. En résumé, les dysfonctionnements d’usages sont à l’origine de pertes de temps considérables pour ceux qui les subissent. Les surtemps qui en découlent peuvent atteindre 30 à 60 % de leur activité. Le stress intervient également lorsque les acteurs craignent pour leur l’avenir, quand les directions font le choix de s’équiper de tels outils. Les exemples cités par les média ces dernières années décrivent un certain nombre d’excès, d’où une certaine méfiance dans les entreprises avec l’arrivée de ce type de projet. 48 Management des Technologies Organisationnelles : Journées d’Etude 2009 LA FORMATION INTEGREE (FI) Par formation intégrée nous entendons une formation adaptée aux réels besoins de l’utilisateur dans l’exercice de son activité, et accessible à son niveau de compétences. Nous avons pu observer dans de nombreux projets d’intégration que le processus d’apprentissage était souvent « atrophié ». Plusieurs explications peuvent être apportées. Le positionnement de l’apprentissage intervient en fin de projet au moment de la phase de basculement [13]. Le budget formation a souvent été réduit par les coûts supplémentaires non prévus, absorbés par les dépassements de consommation de ressources des phases précédentes. Finalement, un plan de formation révisé à la baisse, voire réduit à sa plus simple expression. L’effort pour l’apprentissage a été minimisé par les directions par un réflexe purement comptable et à la fois inconscient ; « ils apprendront sur le tas en faisant ! ». Il va de soit que les conséquences de cette déresponsabilisation des directions sont catastrophiques en phase post-projet en particulier, avec en retour un mésusage du système. Les formations « catalogue » à l’opposé du concept de formation intégrée sont responsables de nombreux dégâts dans le processus d’apprentissage parce qu’elles ne sont pas adaptées aux besoins des utilisateurs finaux, et construites le plus souvent sur la base standardisée d’un iso-profil d’acteur [14]. Par ailleurs, la notion d’usage arrive tardivement dans le projet alors qu’elle pourrait être intégrée dans la phase de conception du projet. Enfin, il existe une disproportion entre les méthodologies d’implantation des projets très centrées sur l’objet technique au détriment d’une véritable méthodologie de conduite du changement. Il apparaît clairement au travers de toutes ces remarques dysfonctionnelles un certain nombre de carences liées à un manque d’intérêt envers les utilisateurs finaux. Une distanciation entre la perception qu’on les dirigeants de l’usage futur de ces systèmes et la réalité des moyens mis en œuvre pour parvenir aux résultats escomptés est un constat malheureusement récurrent de la réalité des projets. Le processus d’apprentissage serait comparable à un tour de magie par lequel les choses se mettraient en place naturellement d’elles mêmes. Ces différents facteurs de sous-efficacité sont en rupture avec les exigences d’apprentissage organisationnel des outils intégrés. LA MISE EN ŒUVRE STRATEGIQUE (MOS) Les dysfonctionnements identifiés dans cette thématique concernent le décalage existant entre les déclarations d’intentions stratégiques et leurs réelles mises en œuvre dans les faits. Ce constat se retrouve dans beaucoup de projets. Il peut être le résultat d’une trop grande distance hiérarchique avec le terrain. Des plans ambitieux sont élaborés en huit clos par une équipe restreinte de Cartes blanches au comité scientifique 49 direction avec l’aide de consultants extérieurs. Ces plans, ou excatement ces déclarations d’intentions stratégiques sont déconnectés des réalités socioéconomiques des organisations, et le plus souvent sans traduction opérationnelle. Le choix d’un progiciel est décidé sans consultation des intéressés avec une volonté de faire vite dans le déploiement de la solution technique. Sous la pression du temps, la conduite du changement est élaguée du projet. Faute de définition concertée des nouvelles règles de gestion, la direction empruntera la logique du progiciel comme modèle d’organisation. Le bilan économique de tels comportements est généralement catastrophique en termes de gaspillage de temps et de ressources de toute nature. Au final, le coût de l’investissement projet peut-être doublé voire triplé pour un résultat d’usage déconcertant. Au bout du compte, on voulait standardiser les données de gestion, en réalité on a réinventé le logiciel maison avec l’outil intégré. C’est généralement un déficit de gouvernance et de compétences internes qui est à la source de ce désalignement du système d’information avec les objectifs stratégiques et l’organisation métier de l’entreprise. L’accent est souvent mis sur la rationalité à des fins de contrôle renforcé, plutôt que sur un projet d’organisation pour améliorer le pilotage des activités. Les exigences des projets d’intégration sont sous-estimées dans leur phase de préparation, de communication et dans leur dimension stratégique. CONCLUSION Dans cet article, nous avons introduit, à partir d’une interrogation formulée par un directeur de Business Unit, la question de la complexité des projets d’intégration. Nous avons montré que la seule focalisation des énergies sur la dimension technique de l’outil était insuffisante pour répondre à la complexité de mise en œuvre de ces systèmes. Une approche multidimensionnelle s’avère nécessaire pour traiter un multi-objet où sont présentes six dimensions inter reliées entre elles, et rarement positionnées de la même manière d’un projet à l’autre. Cette vision dynamique, qui devrait animer les projets d’intégration et qui présentée ici, fait référence à de nombreuses interventions sur des projets d’intégration et à des travaux de recherches menés sur les dysfonctionnements d’usage de ce type de systèmes d’information dans les organisations ces quinze dernières années. Puis en prenant du recul, nous avons abordé les exigences imposées aux organisations par les systèmes intégrés. Partant de l’exemple d’un couple dimensionnel ([outil ERP <-> Comportements des acteurs]) nous avons recensé quelques grands dysfonctionnements récurrents rencontrés dans les projets d’intégration lorsque ces exigences ne sont pas au rendez-vous. Ces 50 Management des Technologies Organisationnelles : Journées d’Etude 2009 dysfonctionnements, pour être abordés selon leurs spécificités sont classés par grandes familles également inter reliées entre elles. Ce développement peut servir de point de départ pour des échanges sur les multi-problématiques soulevées tant dans la mise en œuvre que l’usage de ces systèmes ainsi que de nouvelles approches multidimensionnelles et orientées « ingénierie des liens ». Les préconisations pour traiter les causes racines à l’origine de ces dysfonctionnements peuvent également faire l’objet d’une thématique à approfondir pour contribuer à une meilleure connaissance des projets d’intégration organisationnelle et informationnelle, tant sur le processus projet à mettre en œuvre que son mode de pilotage. NOTES ET REFERENCES BIBLIOGRAPHIQUES [1] ERP : Enterprise Resource Planning ou progiciel de gestion intégrée en Français. [2] H. Savall et V. Zardet, Recherche en Sciences de Gestion : Approche Qualimétrique, Observer l’Objet Complexe ?, Préface du Professeur David BOJE (USA), Edition Economica, Collection Recherche en Gestion, (2004), 432 p. [3] D. Genelot, Manager dans la complexité, Insep Consulting Editions, (2001), 357 p [4] J. Gharajedaghi, Systems Thinking: Managing Chaos and complexity, ButterworthHeinemann, (1999), p. 1-152. [5] P. Senge, The Fifth Discipline: The Art and Practice of the Learning Organization, New York, Doubleday, (1990), 462 p. [6] C. Bareil, C. Bernier, A. Rondeau, Un nouveau regard sur l’adoption et la mise en œuvre de systèmes de gestion intégrée (SGI/ERP), Actes du XIIe Congrès de l’AGRH, Vol. 1, (2001), p. 54-68. [7] Institut Socio-Economique des Organisations (www.iseor.com) [8] Encore appelé 3C dans l’Analyse Socio-Economique. [9] Enregistrée dans l’outil. [10] R. El Amarani, De l’intégration du Système d’Information à la vision transversale de l’organisation, Systèmes d’Information et Management, N°4, Vol. 13, (2008), pp 6193. [11] Les best practices. [12] Les concepteurs utilisent le terme de tuning pour qualifier cette opération. [13] Passage au nouveau système. [14] Les concepteurs de formation ne connaissent pas le métier de l’utilisateur final et inventent un profil d’acteur idéal pour justifier de la bonne utilisation de leur produit. II – Communications MTO’2009 Daniel BONNET Guy SAINT-LEGER et Daniel BONNET Eric LACOMBE Corinne BAUJARD Mélanie BURLET, Romain CHEVALLET et Thierry PRADERE Marie-Françoise COMBAZ Marc BIGRET Vincent CHAPURLAT, Didier CRESTANI et Yousra BEN ZAÏDA André DELAFORGE et Nicolas MOINET Frédéric ELY et Marielle METGE Denis ZANDVLIET et Yann XOUAL Sihem MALLEK, Nicolas DACLIN, Vincent CHAPURLAT Afef DENGUIR-REFIK, Gilles MAURIS, Jacky MONTMAIN, Abdelhak IMOUSSATEN Monique COMMANDRÉ et Pierre-Michel RICCIO 52 Management des Technologies Organisationnelles : Journées d’Etude 2009 Communications MTO’2009 53 Le pilotage d’un processus de transformation de la connaissance : application en Management des Technologies Organisationnelles Daniel BONNET Chercheur-associé à l’ISEOR Université Jean-Moulin / Lyon RESUME Cette communication concerne une recherche-intervention réalisée au sein de deux entreprises, les cas D et E, ayant pour objet de définir et de mettre en œuvre une stratégie de transformations. Elle concerne plus particulièrement le thème de la transformation de la connaissance. Cette communication souligne que l’utilisation de l’outil technique organisationnel induit des opérations cognitives de transformation de la connaissance. Ces opérations assignent le processus de la transformation. La globalisation des technologies organisationnelles requiert de développer des compétences nouvelles, sur le plan de la capacité à se transformer d’une part, sur le plan de la maîtrise des processus cognitifs d’autre part. Cette évolution fait surgir des problématiques qui concernent la rationalité axiologique et cognitive. Ces problématiques nécessitent de piloter des processus de transformation de la connaissance. Cette communication souligne l’importance de la référence à un cadre théorique adapté pour conduire un projet de pilotage sur ce thème. Elle souligne également l’importance de la qualité de la connaissance. 54 Management des Technologies Organisationnelles : Journées d’Etude 2009 INTRODUCTION L’étude sur les «Technologies clés 2005 » réalisée pour le compte du Ministère de l’Economie et des Finances, a souligné le caractère stratégique et l’importance croissante des technologies et méthodes de l’organisation (Seyvet, 2002). Cette étude insiste sur l’importance du développement et de la gestion des compétences. Elle recommande d’articuler le processus du développement des compétences et le processus de la conduite du changement (Ibid. pp.96100). Dans le même ordre d’idée, la mise en œuvre des technologies organisationnelles nécessite de traiter des problématiques de réglage du fonctionnement de l’organisation nécessitant d’opérer des transformations, en considérant différents registres d’intervention systémique, ce qui impose de déployer une stratégie de transformations. Constatons à cet égard que la conduite du changement est généralement considéré de manière contingente, parce qu’elle n’est pas l’objet au centre de la mise en œuvre des technologies organisationnelles. Par conséquent, quand elle ne l’est pas non plus au centre de la politique générale de management, l’objectif opératoire est souvent limité à la réalisation de l’accommodation du fonctionnement de l’organisation aux modalités de fonctionnement de l’outil technique organisationnel. Constatons également que certaines approches du management considèrent les technologies et les compétences comme des ressources, gérées en pratique selon les principes d’économicité. Il y a donc manifestement un paradoxe à ne pas mettre au centre des politiques de management le développement et la gestion des compétences. In fine, c’est bien parce que une entreprise développe ses compétences et se transforme qu’elle est performante et compétitive. Au surplus, les entreprises n’ont pas vraiment développé de compétences dans le domaine de la capacité à se transformer. Certes, les méthodes de la conduite du changement soulignent l’importance de la communication et de la formation. Cependant, il n’apparaît pas qu’il s’agit de réaliser un processus de transformation de la connaissance. La transformation de la connaissance est une problématique constante dans la conduite du changement lorsque celui-ci comporte de mettre en œuvre un projet de transformations. Cette communication s’inscrit dans le cadre d’une recherche-intervention en cours, qui explore l’hypothèse fondamentale de la transformation des invariants. Cette recherche est réalisée actuellement sur deux terrains d’observation d’intention scientifique : une société de prestations de services intellectuels (cas D) et une société exploitant des commerces d’optique (cas E). La méthodologie mise en œuvre est celle de l’intervention socio-économique (Savall et Zardet, 1995, 2004, 2005). Cette méthodologie permet de concevoir et d’implanter des Communications MTO’2009 55 stratégies de transformations. Le cadre théorique est donc celui de la théorie socio-économique des organisations. Le cadre épistémologique est celui du constructivisme générique (Savall et Zardet, 2004). Dans les deux cas, l’intervention comporte d’intégrer dans la stratégie de transformations le management de technologies organisationnelles. Nous traitons le sujet en deux parties, après avoir présenté un aperçu liminaire de la littérature en Sciences de Gestion permettant de positionner notre recherche dans le champ de la gestion et du management de la connaissance. La première partie argumente les choix fondamentaux de la modélisation, élaborée afin d’explorer l’hypothèse de la transformation des invariants, et rend compte de l’avancement de la recherche pour le thème du pilotage des processus de transformation de la connaissance. La seconde partie discute les implications managériales, plus particulièrement dans le domaine du management des technologies organisationnelles et de la conduite du changement pour leur mise en œuvre. REVUE DE LITTERATURE Cette revue de littérature a pour objet de montrer comment notre recherche se positionne dans le champ transversal de la gestion et du management de la connaissance. La connaissance est généralement abordée en Sciences de Gestion sous l’angle de sa création (Nonaka, 1994 ; Nonaka et Takeuchi, 1997), de son transfert (Argote et Ali., 2000), de sa gestion et de son management (Alavi et Leidner, 2001 ; Ferrary et Pesqueux, 2006). Les progrès de la recherche dans le domaine des théories de la firme (Grant, 1996) et des théories des ressources et compétences (Penrose, 1959 ; Hamel et Prahalad, 1990) ont largement contribué au développement de recherches dans ce domaine de la gestion et du management des connaissances. En pratique, ce développement est fortement soutenu par l’avènement de l’économie de l’innovation, de l’économie de l’immatériel, et par le développement technologique. Il est largement prescrit pour défendre son avantage concurrentiel. Le développement des technologies de l’information et de la communication accélère le développement de ces thématiques, mais selon différentes perspectives. La première concerne le développement des Systèmes de Gestion de la Connaissance (Alavi et Leidner, 2001, Christensen, 2003) dont la fonction principale est d’organiser et de gérer la connaissance. La seconde concerne les domaines d’application. Bayad et Simen (2003) distinguent trois courants de déclinaison : Le courant économique et managérial, le courant de l’intelligence artificielle et le courant de l’ingénierie des systèmes d’information. Concernant ce 56 Management des Technologies Organisationnelles : Journées d’Etude 2009 dernier courant, deux modèles génériques ont été identifiés (Alavi, et Leidner, 2001) : Le modèle intégratif qui permet de constituer des répertoires électroniques de connaissances, généralement adossé à une démarche technologique ou socio-technique, et le modèle interactif correspondant aux usages développés pour la gestion des ressources humaines et par les communautés de pratiques notamment (Cohendet, 2006). Encore faut-il faire la distinction entre les différents concepts, de la donnée, de l’information, du savoir, de la connaissance et de la compétence (Ferrary et Pesqueux, 2006), voire de la capacité. Le concept du Knowledge Management intègre pour sa part deux notions, celle du savoir et celle de la connaissance (Prax, 2007, Dugag, 2007). L’information peut être considérée comme une ressource qui vient actualiser la connaissance, que celle-ci transforme pour constituer le savoir et la compétence. Le pilotage doit s’inscrire dans le processus de transformation de la chaine de valeur de la connaissance (Brunel et Ali., 2009), ce qui nous conduit à souligner l’importance de la qualité de la connaissance. Le statut de la connaissance est flou cependant. Les définitions sont différentes d’un auteur à l’autre, ne serait-ce que parce que en management, les auteurs peuvent s’inscrire dans différents cadres épistémologiques. Pour Charreire et Huault (2005), les avatars du positivisme restent bien ancrés dans la discipline du management. Ces auteurs plaident pour un déplacement dans l’ancrage constructiviste en s’appuyant sur l’article fondamental de Von Krogh et Ali. (1994). Le choix des définitions et des conceptualisations nécessite donc de faire référence au cadre théorique des auteurs. Toutefois, Charreire et Huault (Ibid., 2005) remarquent que les résultats de recherche, dans le champ de la connaissance organisationnelle, ne se différencient pas fondamentalement selon le cadre épistémologique. La méthodologie et l’instrumentation de la recherche ne seraient pas toujours cohérents avec les modalités caractéristiques de genèse de la connaissance dans le paradigme constructivisme. Pour gérer le changement organisationnel et stratégique, il faut dépasser la problématique de la transformation de la connaissance individuelle. Pour cette raison, notre recherche s’inscrit dans le domaine plus général de l’activité cognitive de transformation de la connaissance (Nonaka et Takeuchi, 1995 ; Baumard 1996), selon une perspective constructiviste et intersubjective, afin d’explorer notamment les problématiques de la transformation de la connaissance collective (cas D et E). Le cadre épistémologique de notre recherche, et la modélisation que nous proposons s’inscrivent dans le cadre de l’épistémologie intégrée de Savall et Zardet (2004, p.44). Ce cadre permet de dépasser les problématiques posées par les cadres épistémologiques classiques, Communications MTO’2009 57 du positivisme et du constructivisme, telles qu’étudiées par Charreire et Huault (Ibid. 2005). En outre, il permet de considérer les éléments de la méthode et de l’instrumentation comme des « objets intellectuels », car le rapport à ces objets constitutif de l’outil implique de réaliser des actes intellectuels (Janet, 1932, p.18) [1]. Les travaux de Piaget (1970) ont confirmé que ces objets contribuaient à la genèse des opérations cognitives et à la genèse des structures opératoires [2]. L’une des perspectives pratiques recherchées est la transformation de la connaissance en compétence(s) (Dupuich-Rabasse, 2006), en dépassant la problématique de la subjectivité. Le cadre épistémologique élaboré par Savall et Zardet (2004, p.388) permet de générer des connaissances génériques, de nature intersubjective, définie par les auteurs comme des invariants ou des régularités que le chercheur s’efforce de trouver en observant avec persévérance son objet de recherche et ses métamorphoses. La connaissance générique confère une certaine objectivité [3] (Savall et Zardet, 2004, pp.192 et 345 ; Popper, 1999, p.46). Cette objectivité permet d’améliorer la qualité des accords et des coopérations. CADRE THEORIQUE ET METHODOLOGIE Cette première partie argumente les choix théoriques de la recherche. Cette argumentation explicite l’hypothèse de l’invariant de transformation. Le concept de l’invariant de transformation est une abstraction proposée par Piaget (Henriquès, 1990 ; Boldini, 1994) qui est renseignée au cours des investigations. Notre recherche expérimente l’usage de ce concept pour modéliser et piloter une stratégie de transformations profondes. L’observation de la transformation de l’objet complexe impose au chercheur de discuter ses choix fondamentaux. Bien que la littérature en Sciences de Gestion évoque assez largement la nécessité de développer la capacité à changer, les cadres théoriques et méthodologiques usuels du management de la conduite du changement ne permettent pas d’explorer ce domaine du développement de la capacité à se transformer. En première approximation, changement et transformation sont deux notions distinctes. La transformation requiert de procéder à des investigations dans les infrastructures du fonctionnement et du management des organisations. Certes un courant de recherche sur le thème de la capacité à changer a émergé, bien analyser par les travaux de Demers (2002). La revue de littérature ne cite pas cependant les travaux du courant de la recherche-intervention, bien que l’ouvrage de référence coordonné par David et Ali. (2000) fut à cette époque publié. 58 Management des Technologies Organisationnelles : Journées d’Etude 2009 Relativement aux choix fondamentaux que nous voulons argumenter, l’auteur (Ibid., p.210) soulignait que cette méthodologie permet d’observer les constantes et les régularités, mais également de procéder à l’expérimentation des modèles et des outils de la conduite du changement. Cette perspective définit le principe de la contingence générique chez Savall et Zardet (1995b, p.495), posant l’existence de régularité et d’invariants qui constituent des règles génériques dotées d’un noyau dur de connaissances présentant une certaine stabilité et une certaine universalité, à partir duquel Savall et Zardet (Ibid., p.324) ont élaboré le cadre épistémologique du constructivisme générique. Ce cadre permet d’opérer un déplacement de la perspective d’observation en réarticulant les invariants du structuralisme et du constructivisme. La nouvelle perspective offerte par le cadre épistémologique du constructivisme générique permet d’introduire l’hypothèse de la transformation des invariants. Au cours de notre recherche, nous expérimentons une méthodologie d’extraction de l’invariant de transformation (Piaget, 1968 ; Henriquès, 1990 ; Boldini, 1994 ; Rosch, 1973). Le structuralisme s’est surtout intéressé à la recherche des invariants structurels permettant de décrire l’objet et la manière dont il s’organise. L’œuvre féconde du structuralisme a été analysée par Dosse (1992). Sur ce plan, l’approche de Savall et Zardet recouvre le paradigme global (Mauss, LeviStrauss) et méthodique (Lewin), puisqu’elle considère à la fois le système des interactions comme unité d’analyse et fournit des explications relatives aux transformations dans les infrastructures. L’invariance est une propriété qui ne varie pas. Les travaux d’Henriquès (1990) ont distingués les invariants de remplacement et les invariants de transformation. Succinctement, les invariants de remplacement répliquent les opérations de transformation ; les invariants de transformation transforment les opérations. Il convient donc d’explorer les schèmes opératoires à l’œuvre dans le déroulement des processus de transformations. L’observation phénoménologique ne permet pas de décrire ces opérations. Mais, elle permet de recueillir les matériaux afin d’identifier les constances et les régularités. Le constructivisme pour sa part cherche à comprendre le fonctionnement de l’objet selon deux perspectives qui sont celles du projet de connaissance d’une part, de l’interaction entre le chercheur et l’objet d’autre part. A minima, le projet de connaissance peut être contemplatif (études de cas, observation participante …). Cette double perspective permet d’introduire des hypothèses explicatives. Ces hypothèses sont cependant contingentes, du contexte d’une part, de la méthode d’observation d’autre part. Communications MTO’2009 59 Le constructivisme générique introduit une troisième perspective qui est celle de l’observation des interactions entre les structures et les comportements (Savall et Zardet, 1995a, p.173), considérées comme systèmes de transformations. Cette observation permet d’identifier les invariants dans la dynamique de leur fonctionnement. Cette posture épistémologique permet d’observer la transformation des structures. Le constructivisme générique permet d’introduire des hypothèses prescriptives. Le chaînage des hypothèses descriptives, explicatives et prescriptives permet d’élaborer des règles génériques expliquant le fonctionnement et la transformation de l’objet complexe. Dans le cas d’une recherche-intervention, ces hypothèses permettent d’observer la transformation de l’objet en intervenant sur celle-ci selon un protocole scientifique. Dans le champ de la science, Piaget (1968, p.108) a souligné le caractère génétique des structures, pour justifier la relation entre le structuralisme et le constructivisme, car il considérait que ce sont les opérations de transformations qui sont les éléments constitutifs des structures (Ibid., p.120). Simondon (2005, p.559) pour sa part considérait que les structures et les opérations sont un complément ontologique. Les hypothèses épistémiques sont généralement posées dans le cadre de cette disjonction des corpus épistémologiques. A partir de ce constat, Savall et Zardet (2004, p.50) introduisent la notion d’épistémologie intégrée pour marquer leur opposition à cette disjonction dans les pratiques des chercheurs notamment. Aussi, notre recherche montre que le constructivisme générique s’origine dans cette conjonction du structuralisme et du constructivisme. Cette conjonction permet de dépasser l’hypothèse de l’invariance structurelle, qui est insuffisante pour observer la transformation, pour faire l’hypothèse de la transformation de l’invariant. Les invariants ne sont que des éléments rendant compte de l’aspect inchangé de la transformation (Bion 1982, p.7), c’est-à-dire ce que nous en percevons, compte tenu de nos connaissances. En conclusion de cette 1° partie, notre recherche établie une distinction claire entre les notions de changement et de transformation. La méthodologie proposée permet d’observer deux catégories de processus génériques de transformations déterminant la nature du changement : l’un de type rigide est piloté par les invariants de remplacement, le second de type projectif est piloté par les invariants de transformation. Ces processus ne s’excluent pas. Ils fonctionnement de manière indépendante. Aussi faut-il les observer dans leur rapport de phase. Dans les cas D et E, cette approche a permis d’identifié un déficit de nature épistémophilique (déficit d’envie d’apprendre) expliquant les difficultés rencontrées par les dirigeants dans la mise en œuvre des changements. La 60 Management des Technologies Organisationnelles : Journées d’Etude 2009 modélisation permet d’établir la convergence avec les typologies du changement, de type 1 (Homéostasie) et de type 2 (homéorhésie), ainsi qu’avec les typologies de l’apprentissage organisationnel. IMPLICATIONS MANAGERIALES Les implications managériales sont à étudier de deux points de vue, examinés dans leur rapport de phase: le point de vue fonctionnel projectif, et le point de vue dysfonctionnel régressif. Dans les cas D et E, nous avons analysé le thème du développement des technologies organisationnelles. Dans les deux cas, la transformation ne se réalise pas, bien que contextuellement ils s’opposent. Toutefois, précisons la définition de technologie organisationnelle. Les technologies organisationnelles sont définies comme des méthodes dans la littérature en sciences de gestion. On trouve deux acceptions : les technologies organisationnelles d’accompagnement et les technologies organisationnelles informationnelles. Cette définition nous paraît insuffisante. Nous proposons de définir les technologies organisationnelles comme des composantes de dispositifs de gestion au sens proposé par Moisdon (1997, p.10). Les technologies organisationnelles proposent des « outils de gestion et de production », mais leur usage doit être contextualisé en intégrant dans la définition les modalités caractéristiques des systèmes de fonctionnement et de management. Pour le pilotage des processus de transformation de la connaissance, ils doivent être considérés comme des « objets intellectuels » au sens définis par Janet (1932, p.18). Cette définition introduit une nouvelle perspective. Le management des technologies organisationnelles ne peut pas être réduit à un management technologique de ressources. Le management des technologies organisationnelles devient un domaine de compétences stratégiques. La technologie et l’organisation se conjuguent dans le même processus : l’une et l’autre ne se conçoivent plus que si elles s’intègrent l’une dans l’autre. Cette conjonction transforme les termes mêmes du management des organisations. Le concept du management des technologies organisationnelles s’inscrit donc en rupture d’une conception duale de la technologie et de l’organisation. Cependant, cette évolution ne garantit pas une amélioration consécutive de la qualité du fonctionnement. L’amélioration en termes d’efficacité ne signifie pas non plus une amélioration en termes d’efficience. Le concept découvre un abîme de la connaissance en ce domaine. Le management doit se réinventer comme technologie générale, en ce sens que sa nouvelle définition incorpore une structure technologique. Cette incorporation nécessite d’opérer le transfert des Communications MTO’2009 61 connaissances scientifiques dans les pratiques du management. La conduite du changement doit alors mieux intégrer le traitement des problèmes de transformation de la connaissance. A cet égard, la recherche étudie des solutions permettant d’analyser, de concevoir et de transmettre les connaissances au sein des organisations (Brunel et Ali., 2008). En France, le retard dans le développement des applications trouve largement son explication dans les pratiques du management courant, et dans le déficit de diagnostic (Seyvet, 2002 ; Jacquesson, 2003). Ces pratiques, comme en atteste le cas E, entretiennent des contextes d’apprentissage restreint, ainsi que la régression des processus de la stratégie émergente. Elles ne favorisent pas le développement de la capacité à se transformer. Elles évoluent lorsque les dirigeants s’interrogent sur les pratiques de management. Le cas E illustre un déficit de nature épistémophilique, dont le déficit de management des technologies organisationnelles n’est que l’un des symptômes parmi d’autres. Cas E : Diagnostic socio-économique des dysfonctionnements Thème « Performance des systèmes d’information et de gestion » IDEE-CLE N°1 : Les systèmes d’information et de communication informatisés, et les systèmes de télécommunication, ne sont pas performants (toujours). VERBATIM : On a du matériel à renouveler que j’ai acheté un reprenant ce magasin. Il y a un souci au niveau de l’informatique. C’est vétuste, notamment pour Internet, on est sur du bas débit. On ne peut pas fonctionner sur des clients jeunes, il faut les appeler, on ne peut pas leur envoyer de mails. Le matériel informatique est inadapté. Il n’est pas assez rapide, et il faudrait passer à l’ADSL. L’informatique est vétuste. Elle tombe souvent en panne. C’est embêtant quand il a des clients dans le magasin. Le matériel informatique me prend la tète ; c’est un système qui plante quand on sollicite beaucoup d’applications en même temps. Ca serait bien d’avoir une maintenance sur l’ordinateur. On y connaît tous un peu quelque chose, mais on bidouille. On a un vieux système téléphonique. Il faudrait avoir un téléphone sans fil aux tables de vente. 62 Management des Technologies Organisationnelles : Journées d’Etude 2009 Le téléphone est en haut. Quand il y a du monde, c’est un peu compliqué à gérer. Les opticiens prennent la communication et me la transfert. Je dois arrêter des tests et j’ai de la gène par rapport à la personne (Audio). IDEE-CLE N°2 : LE MANQUE DE PERFORMANCE DES SYSTEMES D’INFORMATION ET DE GESTION, ET DES SYSTEMES DE TELECOMMUNICATION, EST UN FACTEUR RECURRENT DE PERTURBATION DE LA GESTION DU TEMPS (TOUJOURS). VERBATIM : On est fréquemment dérangé au téléphone car on n’a pas de standardiste, surtout que l’on fait également le standard pour l’audio en bas. On perd du temps avec l’informatique ; on perd du temps à redémarrer quand le système plante. On est dérangé par le téléphone, mais les gens le prennent bien. On est dérangé par le téléphone. On répond à tour de rôle. IDEE-CLE N°3 : CERTAINES REFORMEES (TOUJOURS) HABITUDES DE TRAITEMENT DE L’INFORMATION NE SONT PAS VERBATIM : J’ai gardé l’enregistrement par fiches, plus l’informatique, car pour moi, avoir une pochette client est plus pratique. J’ai toujours travaillé comme cela. Après je prends le temps de rentrer les fiches à l’informatique (Audio). IDEE-CLE N°4 : LES MOYENS DE TELECOMMUNICATION NE SONT PLUS ADAPTES (TOUJOURS). VERBATIM : Il manque Internet. On aurait moins de frais téléphoniques. Les postes ne fonctionnent pas très bien. La recherche est longue sur l’un des deux postes. Une vente qui pourrait durer cinq minutes, dure vingt cinq minutes. Pour limiter le problème des coûts, il faudrait repenser le système pour prévenir les clients. On appelle systématiquement pour dire que le produit est arrivé. On appelle trois fois le même fournisseur dans la journée. Ca serait intéressant de centraliser. Les deux cas D et E s’opposent du point de vue de l’investissement technologique, mais le point commun, élément de connaissance générique, est le rapport déficitaire à « l’objet intellectuel » (Janet, 1932). Cette problématique est de même nature que celle observée par Charreire et Huault (Cf. Revue de littérature, al.6). Communications MTO’2009 63 Dans ces deux cas, le choix de l’invariant de transformation a été fait à partir d’un ensemble d’observations réalisées sur différents thèmes au cours du diagnostic socio-économique, renvoyant à des régularités du fonctionnement et du management. Ce choix permet d’orienter les choix fondamentaux et opératoires de la stratégie de transformations pour traiter un ensemble de problèmes ayant une cause commune identifiée dans les infrastructures du fonctionnement et du management. Dans le cas D, des investissements ont été réalisés, mais leur usage n’est pas intégré dans le fonctionnement. Les observations font apparaître également un déficit qui concerne « l’acte intellectuel ». Dans ce cas, où l’entreprise dispose de moyens modernes, nous avons recueillis les verbatim suivants : Cas D : Diagnostic socio-économique des dysfonctionnements Thème « Performance des systèmes d’information et de gestion » IDEE-CLE N°5 : LE FONCTIONNEMENT ET LE MANAGEMENT DE L’ORGANISATION N’INTEGRE PAS LES OUTILS TECHNOLOGIQUES ORGANISATIONNELS (TOUJOURS). VERBATIM : On remet beaucoup de choses en cause, mais on avance. Le grand changement est celui de notre positionnement « métier ». On bute sur les outils. Le 2° axe est le changement des outils. On a des outils qui marchent bien à un moment, mais ultérieurement on s’aperçoit qu’ils ont des effets pervers. Sur les méthodes, on travaille régulièrement dessus et on les améliore. Mais, ce n’est pas du changement. Elles doivent changer un peu avec le changement de métier. On a communiqué sur des dispositifs, mais ce n’est pas le niveau du nouveau positionnement, c’est le niveau de formateur ou de consultant. On a mis en place un bel outil Internet, mais, on ne le fait pas vivre. C’est un outil pour la communication interpersonnelle. On n’a pas fait d’actions depuis un moment. Il y a une sous utilisation de la CRM. Je n’ai pas le réflexe d’y aller dans le cadre du travail. Je pense que M… est aussi en retrait par rapport à l’utilisation de la CRM. La CRM est un outil de développement commercial qui ne remplit pas sa fonction, qui n’est pas utilisée. 64 Management des Technologies Organisationnelles : Journées d’Etude 2009 Dans ce cas D, le diagnostic fait ressortir une résistance du dirigeant, que nous avons observé sur différents thèmes. L’attention était portée exclusivement sur la posture. Les questions relatives à l’instrumentation étaient esquivées. Sur ce plan, le processus de transformation de la connaissance stagnait au stade cognitif antérieur. La fixation s’opérait donc sur l’invariant de remplacement. La sophistication des systèmes de management entraine cependant d’avoir à traiter des problématiques nouvelles. Les travaux de Morineau (2001) identifient de nouvelles problématiques dans le domaine de la psychogénèse des connaissances. Sur ce plan, l’approche génétique de Piaget permet d’écrire l’hypothèse que l’invariance structurelle est une transformation déterminée par la prise que l’objet offre à la perception, et en même temps la capacité que cette perception possède d’avoir prise sur ou d’être en prise avec ces prises. C’est le concept de l’affordance chez Gibson (1977 : pp.67-82). Ce concept est utilisé par les chercheurs pour concevoir les interfaces Homme-Machine (qui relève du rapport à « l’objet intellectuel ») des systèmes automatiques et d’environnements virtuels (Morineau, 2001). Nous retenons des travaux de Morineau (Ibid., p.87), reproduisant d’une part l’épreuve du « chemin parcouru » (Piaget, 1946) dans une environnement virtuel, d’autre part l’épreuve de la quantification des inclusions (Piaget et Ali., 1967), qu’un sujet (jeune adulte) traiterait de manière privilégiée les seules informations sensori-motrices jugées pertinentes, ce qui explique son adaptation rapide. Ce qui apparaît de prime à bord positif, est cependant problématique, car ces résultats attestent de ce que les sujets immergés dans un environnement virtuel tombent dans le piège piagétien des conflits cognitifs non résolus, c’est-à-dire que le chercheur se trouve confronté à des problématiques de rationalité axiologique et cognitive. Selon ces travaux (Ibid., p.88), le sujet doit développer de nouvelles qualités cognitives : la capacité d’inhibition et de traitement des affordances saillantes, la capacité cognitive à se décentrer, la capacité contrôler ses processus cognitifs. La transformation de la connaissance n’a pas pour seul objet l’acquisition de connaissances, mais également la transformation des qualités cognitives. C’est en particulier l’enjeu pour les cas D. Ces deux cas montrent l’intérêt de considérer les problématiques de la transformation de la connaissance pour piloter les processus de transformations. Les courants de la transformation stratégique ou organisationnelle ne s’intéressent qu’à certains aspects de la transformation (Brassard, 2003, p.261). Cette limite est aussi celle des théories psychologiques et sociologiques utilisées pour la conduite du changement. Brassard (Ibid., 2003) souligne notamment que la transformation n’intervient que lorsque les modes d’actions et d’interactions Communications MTO’2009 65 ont installé des caractéristiques significativement différentes dans le modèle de fonctionnement organisationnel. La transformation du rapport à « l’objet intellectuel » impose le passage à l’acte. Il ne suffit pas de s’inscrire dans une approche transformative pour obtenir un changement. Pour être effectif, le changement doit se concevoir dans le cadre d’un processus d’individuation (Simondon, 2005). L’hypothèse de l’invariant de transformation permet d’opérer selon le principe. Ce concept permet de définir de manière conceptuelle et opératoire les stratégies de transformations de sorte à intervenir sur les variables à transformer pour entrainer un changement. CONCLUSION Notre recherche explore l’hypothèse de l’invariant de transformation pour définir et mettre en œuvre une stratégie de transformations. La modélisation permet de conduire un changement multicritères, en pilotant la transformation à partir d’une variable clé du système de transformations, positionnée comme invariant de transformation. Dans les cas D et E, l’invariant de transformation choisit est « l’envie d’apprendre ». Cette variable a été retenue car elle permet de piloter le processus de la transformation sur plusieurs thèmes conjointement. Notre recherche contribue à faire la distinction entre les stratégies de changement et les stratégies de transformations. Jusque-là, en Sciences de Gestion, les stratégies de transformations étaient considérées comme des cas particuliers des stratégies de changements. Les stratégies de transformations permettent de conduire des transformations profondes. Ces transformations requièrent de traiter des problèmes de transformation de la connaissance. La généralisation des technologies organisationnelles introduit des problématiques nouvelles, sur le plan cognitif. Les technologies organisationnelles nécessitent de traiter plus rapidement un plus grand nombre de connaissances, et dans le même temps de se détacher mentalement de l’outil de gestion. Les individus doivent donc développer les processus méta-cognitifs. Les cas D et E montrent que les opérations de transformation de la connaissance assignent le processus de la transformation. Ces cas montrent qu’il faut observer la structure groupale du leadership, l’individu au centre qui est le dirigeantfondateur dans le cas D, qui structure par sublimation les structures mentales et le fonctionnement du groupe. Mais, l’intervention sur le processus de transformation de la connaissance requiert un cadre théorique spécifique qui l’inscrive bien dans la stratégie de transformations. La qualité de la connaissance prévaut sur son accumulation. 66 Management des Technologies Organisationnelles : Journées d’Etude 2009 NOTES [1] Les travaux de Piaget s’inscrivent dans cette perspective ouverte par Janet. [2] La 2° partie explore une problématique relative à ce rapport à l’instrumentation. [3] Résultats de recherche, règles de connaissance, noyau dur de connaissances, théories … Savall et Zardet rappellent que Piaget considère l’objectivité comme un processus et non comme un état. RÉFÉRENCES BIBLIOGRAPHIQUES ALAVI M. et LEIDNER M.E. (2001), « Review : knowledge management and knowledge management systems : conceptual foudation and research issues », MIS Quaterly, 25, n°1, pp.107-136. ARGOTE L. et INGRAM P. (2000), « Knowledge transfert : a basis for compétitive advantage », Organizational Behaviour and Human Decsision Process, vol.82, n° 1, pp.150-169. BAUMARD P. (1997), Organisations déconcertées : La gestion stratégique de la connaissance, Préface de W.H. Starbuck. Dunod, 264 p. BAYAD M. et SIMEN S.F (2003), « Le management des connaissances : Etat des lieux et perspectives », XII° Conférence Internationale de l’AIMS, Tunis, 27 p. BION W.R (1982), Transformations : Passage de l’apprentissage à la croissance, PUF, 208 p. BOLDINI (1994/2), « Morphismes et catégories : une lecture formelle de Piaget », Revue Intellectica, pp.187-216. BRASSARD A., « Adaptation, transformation radicale », Revue des Sciences de l’Education, vol.XXIX, n°2, 2003, pp. 253-276. BRUNEL S., ZOLGHADRI M., GIRARD P., (2008), « Ingénition : Une méthode pour la génération de la connaissance », IMS-LAPS Bordeaux, 18 p. BRUNEL S., ZOLGHADRI M., GIRARD P., (2009), « Triple instrumentation : Une approche de la chaine de valeur ajoutée de la création des connaissances », IMS-LAPS Bordeaux, 9 p. CHARREIRE S. et HUAULT I. (2005), « De l’existence d’une rupture paradigmatique. Une application aux recherches constructivistes sur la connaissance organisationnelle », XIV° Conférence Internationale de l’AIMS, Angers, 29 p. COHENDET P., CREPLET F., DUPOUÊT O. (2006), La gestion des connaissances : Firme et communautés de savoir, Economica, 202 p. CHRISTENSEN P.H. (2003), Knowledge Management : Perspectives et Pitfalls, Copenhagen Business School Press, 120 p. DAVID A., « La recherche-intervention, cadre général pour la recherche en management », in DAVID A., HATCHUEL A., LAUFER R., (Coord.), Les nouvelles fondations des sciences de gestion, Vuibert, 2000, pp.193-211. DEMERS Christiane, « De la gestion du changement à la capacité de changer : L’évolution de la recherche sur le changement organisationnel de 1945 à aujourd’hui », GestionRevue Internationale de Gestion, vol.24, n°3, 1999, pp. 131-139. DOSSE F. (1992), Histoire du structuralisme, I.Le champ du signe, 1945-1966, 472 p., II.Le champ du Cygne, 1967 à nos jours, 542 p., La Découverte. Communications MTO’2009 67 DUGAG R. (2007), Organisation 2.0 : Le knowledge management nouvelle génération, Eyrolles, 258 p. DUPUICH-RABASSE F. (2006), La gestion des compétences collectives, L’Harmattan, 218 p. FERRARY M. et PESQUEUX Y ? (2006), Management de la connaissance : Knowledge Management, Apprentissage Organisationnel et Société de la Connaissance, Economica, 230p. GIBSON J., The Theory of Affordances : Acting and Knowledge: Toward an Ecological Psychology, in Robert Shaw and John Bradsford (Ed.), Perceiving, acting and Knowing, Hillsdale, N.J.: Lawrence Erlbaum Associates, 1977, pp. 67-82. GRANT R.M. (1996), « Toward a knowledge-based theroy of the firm », Strategic Management Journal, 17, pp.109-122. HAMEL G. et PRAHALAD C.K (1990), « The Core Competence of the Corporation », Harvard Business Review,, n°68, pp.79-91. HENRIQUES G. (1990), « Morphismes et transformations dans la construction d’invariants », In Piaget, Henriques et Ascher, Morpshismes et catégories. Comparer et transformer, Delachaux et Niestlé, 230 p., pp.182-209. JACQUESSON M. (2003), « Technologies organisationnelles : Maîtriser le changement », Revue Industrie, Tertiaire n°107, Mai-Juin, pp.5-6, http://www.cndp.fr/archivage/valid/41617/41617-6045-5876.pdf et http://www.industrie.gouv.fr/biblioth/docu/kiosque/cahiers/pdf/c0084.pdf JANET P. (1932), les débuts de l’intelligence, Flammarion, 52 p. – Source : http://www.scribd.com/doc/9596211/Pierre-Janet-Debut-de-lIntelligence-B MOISDON J.C. (1997) (Coord.), Du mode d’existence des outils de gestion, Seli-Arslan, 286 p. MORINEAU T. (2001), « Eléments pour une modélisation du concept d’affordance », Actes du Colloque EPIQUE, Nantes, 29-30 Octobre, pp. 83-95. NONAKA I. (1994), « A dynamic theory of organizational knowledge creation », Organization Science, vol.5, n°1, pp.14-37. NONAKA I., TAKEUCHI H., (1995), The knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation, Oxford University Press, 304 p. NONAKA I. et TAKEUCHI H. (1997), La connaissance créatrice : La dynamique de l’entreprise apprenante, Préface de G.Koenig et contirbutions de M.Ingham, De Boeck Université, 303 p. PENROSE E. (1959), The Theory of the Growth Of The Firm, 4° édition 2009, Oxford University Press, 304 p. PIAGET J. (1968), Le structuralisme, PUF, 125 p. PIAGET J. (1970), Epistémologie génétique, PUF, 127 p. POPPER K. (1999), La connaissance objective, Champs-Flammarion, 578 p. PRAX J.Y. (2007), Le manuel du knowledge management , 2° édition, Dunod, 511 p. ROSCH E. (1973), « Natural catégories, Revue Cognitive Psychology, Vol.4, pp.328-350. SAVALL H. et ZARDET V. (1995a), Maîtriser les Coûts-Performances Cachés : Le contrat d’activité périodiquement négociable, Préfaces de M-A Lanselle et de J_M Doublet, Prix de Management stratégique Harvard-l’Expansion, Editions Economica, 405 p. SAVALL H. et ZARDET V. (1995b), Ingénierie stratégique du roseau, Economica, 517 p. 68 Management des Technologies Organisationnelles : Journées d’Etude 2009 SAVALL H. et ZARDET V. (2004), Recherche en Sciences de Gestion : Approche Qualimétrique : Observer l’objet complexe, Préface du Pr.D.Boje (Usa), Economica, 432 P. SAVALL H. et ZARDET V. (2005), Tétranormalisation,Economica, 195 p. SEYVET J. (2002) « Technologies organisationnelles pour l’entreprise », Direction Générale de l’Industrie des Technologies de l’information et des Postes, 113 p. www.industrie.gouv.fr/biblioth/docu/dossiers/sect/pdf/technorg.pdf SIMONDON G. (2005), L’individuation à la lumière des notions de forme et d’information, Million, 571 p. VON KROGH G., ICHIJO K., NONAKA I., (2000), Enabling Knowledge Creation : How to Unlock Mystery of Tacit Knowledge and Release the Power of Information, Oxford University, 30 p. Communications MTO’2009 69 Impacts des dysfonctionnements d’usages avec les systèmes intégrés de type ERP/PGI [1] Guy SAINT-LEGER et Daniel BONNET Chercheurs-associés à l’ISEOR Université Jean-Moulin / Lyon RESUME Les processus d’implémentation des systèmes d’information à base de progiciels intégrés ont été largement étudiés. Il est possible d’aborder maintenant la manière dont ces outils de gestion sont réellement utilisés dans les organisations. Les phases post-projets deviennent un terrain intéressant pour les chercheurs, mais aussi pour les praticiens. Cette communication concerne le diagnostic des dysfonctionnements d’usage, c'est-à-dire les écarts entre les usages attendus des systèmes et les usages réels dans les entreprises. Comment les identifier et les comprendre, quelles sont les causes à l’origine de ces décalages ? Quels enseignements peut-on tirer sur la question des mésusages pour améliorer le processus de conduite de changement à mettre en œuvre dans les e-projets ? INTRODUCTION Cette recherche concerne l’usage des systèmes d’information à base de progiciels intégrés. Les phases post-projets deviennent un terrain intéressant pour les chercheurs, mais aussi pour les praticiens, notamment lorsque ces derniers ont eu à surmonter de lourdes difficultés (Saint-Léger, 2004). Nous pouvons comprendre aujourd’hui que la réussite d’un projet jugé essentiellement sur le couple délai-budget perd tout son sens si l’application 70 Management des Technologies Organisationnelles : Journées d’Etude 2009 n’est pas utilisée ou détournée de son usage par les utilisateurs et le management. La problématique du mésusage des systèmes d’information est abordée ici dans le cadre des systèmes de gestion intégrés. Notre recherche repose sur le suivi détaillé de l’activité quotidienne d’un utilisateur d’un ERP du marché. Notre intervention se situe en phase post-projet avancée, dans le secteur de l’automobile, et s’est déroulée sur une période de quatre années. Dans la première partie de cet article, nous préciserons la notion de « dysfonctionnements d’usage », ainsi que les spécificités liées aux systèmes d’information de type ERP. Nous précisons ce que dit la littérature sur ce thème. Nous privilégions l’analyse de deux types de dysfonctionnements fréquents, que sont les « glissements de fonction » et les « surtemps ». Le diagnostic est réalisé en empruntant à la théorie socio-économique des organisations (Savall et Zardet, 2004) sa méthode d’analyse des dysfonctionnements (rechercheintervention). La seconde partie est consacrée à l’analyse des résultats. Dans la troisième partie, nous examinons quels sont les facteurs à prendre en compte dans le processus de conduite du changement dès l’amont des e-projets d’intégration pour éviter les scénarios post-projets critiques. Nous examinons, également la question du type d’interventions possibles en phase post-projet avancée ou les dysfonctionnements d’usages perdurent. 1° PARTIE : LES DYSFONCTIONNEMENTS D’USAGES La notion de « dysfonctionnements d’usage » prend tout son sens avec la généralisation des technologies organisationnelles. Nous aborderons les éléments théoriques en relation avec les usages, puis les raisons pour lesquelles nous étudions le cas des progiciels intégrés. Eléments théoriques en relation avec les usages Le concept de « l’usage» associé aux systèmes d’information est largement étudié et fait l’objet de très nombreuses publications [2]. Pour l’Anact [3], la notion d’usage est partagée par de nombreuses disciplines (sociologie, ergonomie, gestion), et s’appuie sur des approches méthodologiques variées. Cette diversité d’approches fait que les termes « usage » (Davis, 1989), « utilisation », (Boffo, Barki, 2003), « appropriation » (Dumont et Ali., 2008), « adoption » (Titah, Barki, 2005; Agarwal, 2000, Markus et Tanis, 2000), voire « alignement des usages » (Fimbel, 2006, 2007), entretiennent des confusions sémantiques. L’usage s’inscrit dans une construction sociale et organisationnelle (Chaumat, 2008). Pour Thomas et Pascal (2008), les usages des TIC ne se déduisent pas Communications MTO’2009 71 directement du travail de conception qui est réalisé à partir d’un objet. Les TIC ne peuvent pas, en elles-mêmes, améliorer les pratiques, faire augmenter ou baisser la productivité : seul leur usage le peut. Bachelet et El Harouchi (2008) s’intéressent pour leur part à l’usage « effectif » et résument leur point de vue par la question suivante : les usages réels sont-ils les usages prévus ? La dimension sociale fait souvent défaut dans la conduite des e-projets d’intégration (Chevallet et Rocher, 2003), où l’approche technologique reste prédominante. Comme l’a montré Orlikowsky (2000), c’est seulement une fois que la technologie est utilisée dans des pratiques récurrentes de travail que se construisent les usages. Notre recherche observe plus particulièrement les dysfonctionnements d’usages ([SI<->C]) dans le couple des interactions [SI-comportement des utilisateurs]. Deux catégories d’entre eux, les glissements de fonctions et les surtemps, révèlent les formes de pratiques d’usage. La méthode du diagnostic permet d’analyser les causes et les coûts cachés de ces dysfonctionnements d’usages. Dans l’approche socio-économique des organisations, le glissement de fonction correspond à un travail effectué par une personne à la place d’une autre. Cette situation de travail inscrit un processus de « déresponsabilisation [4] » dans le fonctionnement de l’organisation du travail. Ces déresponsabilisations sont à l’origine de nombreux dysfonctionnements dont les conséquences se traduisent in fine par des surtemps [5] passés à reprendre tout ou partie d’un travail non réalisé ou de mauvaise qualité [6]. Les surtemps engendrent des coûts supplémentaires, du stress et affectent les relations de travail entre les personnes. Ces deux composantes sont pertinentes à étudier dans les cas des ERP/PGI. D’autant qu’avec la puissance d’intégration de ces systèmes (Bidan, 2004), la notion de « glissements de fonction » répartie sur l’ensemble du réseau des utilisateurs devient vite complexe. Le glissement de fonction peut s’exercer de manière « verticale » et/ou « tranversale » [7]. Par sa conception le système intégré ne connait pas de frontière « fonctionnelle », ni géographique. Il expose en temps réel le management à une transparence et une fiabilité des données (Gumb, 2005 ; Brasseur, 2005) pour lesquelles ce dernier n’est pas toujours prêt à collaborer (Pollard, 2002 ; Rowe, 1999 ; Simatupang et Ali., 2002). Pourquoi étudier le cas des intégrés ? Cette absence de collaboration avec le système n’est pas fortuite. Elle se manifeste sous différentes formes, dont celle de déresponsabilisation. La question des déresponsabilisations liée aux mésusages des systèmes d’information intégrés est assez nouvelle, et la littérature sur ce questionnement, 72 Management des Technologies Organisationnelles : Journées d’Etude 2009 comme les études empiriques, sont assez rares. Elle porte plutôt sur le thème de la responsabilisation, notamment l’empowerment (Bowen et Lawler, 1992 ; Veltz et Zarifian, 1993 ; Wilkinson 1998, Thomas et Velthouse, 1990). Ce que confirment Heili et Vinck (2008), car il y a aussi une réelle difficulté à aller observer le fonctionnement des ERP en usage [8]. Il faut généralement pratiquer une recherche de type ethnographique, assez longue et coûteuse. Les travaux reflètent souvent les discours des porteurs de projet ERP ou des chefs d’entreprises, ou d’auteurs qui se veulent critiques et qui dénoncent les dégâts et les tromperies liées aux ERP. Nous partageons le point de vue de Heili et Vinck (Ibid.), selon lequel l’étude des usages nécessite une proximité avec le terrain pour comprendre les jeux d’acteurs dans l’exercice de leurs activités. 2° PARTIE : ETUDE DE CAS Cette communication concerne plus particulièrement l’analyse d’un poste d’agent d’ordonnancement des opérations dans le secteur automobile, utilisant un ERP. Nous avons observé l’activité quotidienne de cet agent qui a un rôle clé dans la planification des opérations et qui doit réguler les dysfonctionnements consécutifs au manque de coopération des acteurs. Problématique étudiée Chaque lundi, l’agent d’ordonnancement se trouve confronté à une difficulté majeure pour « lisser » la charge de travail des ateliers sur la semaine à venir en fonction des capacités dont il dispose (Tableau 1). Une charge résiduelle importante [9] d’articles à fabriquer apparaît à l’écran chaque lundi matin. Cet agent doit répartir cet excédent de charge sur les autres jours de la semaine. Mais chaque jour, de nouvelles commandes viennent s’ajouter au prévisionnel à fabriquer ce qui laisse peu de marge de manœuvre à l’opérateur. Cette charge résiduelle pose problème, et son explication est devenue prioritaire, d’autant que les trois autres agents d’ordonnancement de l’entreprise semblent être confrontés au même phénomène. Quels sont les mécanismes qui conduisent à l’apparition de cette charge résiduelle et pourquoi est-elle récurrente ? Date A fabriquer Capacité prod. Ecart Lundi 62959 27000 35959- Mardi 8160 27000 18840 Mercredi 18480 27000 8520 Jeudi 20640 27000 6360 Vendredi 18480 27000 8520 Samedi 23880 27000 3120 Tableau 1 : Gestion de la planification des lignes de production Communications MTO’2009 73 Approche méthodologique L’observation rapprochée des pratiques permet d’accéder au vécu réel des acteurs, de bénéficier de données primaires de grande qualité (Cristallini, 2007), et de procéder à des expérimentations pour envisager des transformations. Le chercheur intervient sur le terrain de la recherche pour aider, éventuellement en proposant et / ou concevant lui-même un certain nombre d’outils (David et Ali., 2000). Dans le cas étudié, le processus de diagnostic socio-économique repose sur les étapes suivantes : 1 - Identification des dysfonctionnements et de leurs causes apparentes Les causes apparentes représentent un premier niveau d’analyse et sont associées aux représentations que les acteurs se font des dysfonctionnements à la fois quantitatifs et qualitatifs qu’ils rencontrent dans leur travail ainsi que de leur énumération. 2 – Identification des causes profondes Ce deuxième niveau d’analyse reprend les causes identifiées précédemment en mettant en lumière les raisons cachées liées à leur existence. 3 – Identification des causes racines Ceci représente le troisième niveau d’analyse à la source des dysfonctionnements réels. Il s’agit des causes racines sur lesquelles des actions curatives conséquentes doivent être engagées pour neutraliser les dysfonctionnements observés. 4 – Validation et restitution des résultats Validation et restitution des résultats auprès de la direction à l’aide des notions de « glissement de fonction » et de surtemps développées toutes deux dans la suite de cet article. Cette recherche intervention s’est déroulée sur une période de trois mois. Elle a été étendue par la suite à l’échelle de l’entreprise, soit trois autres unités de fabrication totalisant 950 salariés. 74 Management des Technologies Organisationnelles : Journées d’Etude 2009 Résultats et discussions Le tableau 2 résume les relevés effectués sur une période de trois mois par l’agent d’ordonnancement. Ce tableau présente un arbre de causalité montrant l’encapsulation des différentes causes et leur localisation. Nous ne détaillons dans ce tableau que les dysfonctionnements les plus significatifs : les absences de re-planification [10] (87.23% des situations), les erreurs dans les données de base, de paramétrage, et les saisies transactionnelles (7,8 %). Ces données sont également partagées par les trois autres agents d’ordonnancement des autres unités de production de l’entreprise qui utilisent le progiciel. Les deux composantes socio-économiques étudiées pour l’identification des dysfonctionnements d’usages sont les surtemps associés aux glissements de fonction. La demande du client définissait précisément l’objet et le champ de notre intervention. La demande du client n’a pas portée sur les autres composantes. Il n’a donc pas été possible d’évaluer les pertes globales imputables aux dysfonctionnements de la composante non-production, notamment les pertes de production et de productivité engendrées par les manquants (produits et capacités). Décalage charges / Capacités accentué par la fréquence du calcul des besoins nets Dysfonctionnements majeurs identifiés : causes apparentes Raisons cachées à l’origine de la déresponsabilisation : causes profondes Manquants (Produits) Absences de replanification des opérations, (87.23 %) Facteur(s) venant alimenter la raison cachée : causes racines Localisation des déresponsabilisations [01] Retards fournisseurs Achats/approv. [02] Réceptions matières premières non mises à jour dans le progiciel. Magasin [03] Ruptures d’approvisionnement des lignes de fabrication Magasin [04] Matières bloquées en contrôle qualité Qualité [05] Erreur emplacements Magasin [06] Nouveaux produits non gérés dans le progiciel Conception [07] Fichier article mal paramétré par les achats Achats/approv. [08] Cannibalisme en utilisant des produits réservés à d’autres commandes Production [09] Hors délais fournisseurs (pression sur fournisseurs) ADV (Adm.Des Vtes) [10] Pannes machines Production [11] Absentéisme Production Repères 1 Manquants (Capacités) Tableau 2a : Identification des facteurs de déresponsabilisation Communications MTO’2009 75 Absences de re-planification des opérations. Quand des aléas de production se manifestent, les responsables d’ateliers n’en informent pas le système : les ordres ne sont donc pas re-planifiés. Cette pratique dissimule une réalité de gestion dans l’urgence. Nous avons observé deux types de déresponsabilisation : celle qui n’est pas intentionnelle et qui se matérialise in fine par des actes de déresponsabilisation, et celle qui est bien réelle. Les absences de re-planification appartiennent dans notre cas à cette deuxième catégorie. Les « manquants [11] » en sont la principale manifestation et c’est ce que cherche à occulter les responsables d’atelier (repères (1) à (11) du tableau 2). Cette pratique de déresponsabilisation provoque un décalage informationnel entre ce qui est affiché à l’écran et la réalité des situations d’ateliers. Elle génère des pertes de temps considérables - des surtemps [12] et du de stress. Dysfonctionnements majeurs identifiés : causes apparentes Raisons cachées à l’origine de la déresponsabilisation : causes profondes Repères Décalage charges / Capacités accentué par la fréquence du calcul des besoins nets 2 Facteur(s) venant alimenter la raison cachée : causes racines Erreurs dans les données de base et de paramétrage, (6.38 %) Contournement du progiciel [12] Données erronées ou manquantes Ordres de fabrication ne correspondant pas aux ordres de distribution (2.84 %) Absences de coordination entre les services [13] Décalages dans les quantités des ordres entre les sites de productions Absences de saisies transactionnelles ou saisies erronées (1.42 %) Pratiques d’utilisation de l’ERP [14] Données erronées ou manquantes Conception, Méthodes Localisation des déresponsabilisations Achats/approv. Conception Production, ADV Méthodes, Ventes Achats/approv. Magasin Conception Production ADV, Ventes Temps de défilement erronés (0.71 %) Pratiques internes douteuses [15] Paramétrage erroné des différentes étapes du processus physique Demande client inférieure au cycle de fabrication (0.71 %) Laxisme à l’égard des clients peu respectueux des contrats commerciaux [16] Dysfonctionnements des clients reportés sur l’entreprise ADV, Ventes Date de commande forcée dans le système par l’Administration Des Ventes (0.71 %) Délinquance interne [17] Absences de saisies des commandes au fil de l’eau ADV, Ventes Ordres de fabrication non-soldés sur cette période (0 %) Pratiques d’utilisation de l’ERP [18] Désordre ateliers Production dans les Tableau 2b : Identification des facteurs de déresponsabilisation 76 Management des Technologies Organisationnelles : Journées d’Etude 2009 Données erronées ou manquantes La combinatoire des dysfonctionnements (12) et (14) donne une information précieuse sur la manière dont est utilisé le système ainsi que sa fiabilité. Nous avons observé de nombreuses pratiques de contournement du système par le management, et un nombre important de données erronées ou manquantes. Sur l’ensemble des dysfonctionnements identifiés, l’étude montre que l’agent d’ordonnancement se retrouve in fine confronté au quotidien et de manière aléatoire à 30 actes de déresponsabilisation issus de 8 fonctions différentes dans l’organisation. Les dysfonctionnements ne surviennent pas en même temps. Mais, ces actes occasionnent pour la correction des pertes de temps pour l’agent pouvant atteindre 60 % de son temps d’activité. Combinatoire des glissements de fonctions Les surtemps passés à corriger les actes de déresponsabilisation caractérisent les « glissements de fonction ». La combinatoire des glissements de fonctions « verticaux et horizontaux » est-elle la traduction d’actes de déresponsabilisation qui concerneraient toute l’organisation ? Dans le cas étudié, la réponse est oui. Nous sommes en présence d’un glissement de fonction « collectif ». Le cas de l’agent d’ordonnancement n’est pas isolé dans cette organisation ; on le retrouve par ailleurs dans toutes les fonctions. Il existe donc dans cette entreprise une problématique de fond importante avec l’intégration des usages de son outil informatique (Bérard, 2003). Cette défaillance affecte le climat social interne, mais à également les relations avec les clients et les fournisseurs que nous avons rencontrés. Coûts cachés des surtemps de l’agent d’ordonnancement Dans l’analyse des coûts cachés, le calcul des surtemps est valorisé à l’aide de la CHMCV [13] qui représente au moment de cette intervention une valeur d’environ 60 euros /heure de travail quel que soit le profil du salarié. Sur la base de 8h00 de travail / jour et de 225 jours travaillés par an, l’estimation est la suivante : Nb. postes Hypothèse surtemps mini. 40% Hypothèse surtemps maxi 60 % 1 agent 60 € x (192/60) x 225 = 43 200 € 60 € x (288/60) x 225 = 64 800 € 4 agents 43 200 € x 4 = 172 800 € 64 800 € x 4 = 259 200 € Tableau 3 : Valorisation des surtemps Cette étude ne concerne que les surtemps subis par un poste spécifique dans la fonction de production. A l’échelle de l’entreprise le nombre d’acteurs en interaction dont le travail est directement conditionné par l’utilisation du progiciel Communications MTO’2009 77 donne aux lecteurs une idée de l’ampleur des coûts cachés lié à une mauvaise intégration des usages (Tableau 4). 3° PARTIE : INTEGRER LE PROCESSUS DE LA CONDUITE DU CHANGEMENT – DISCUSSION ET IMPLICATION MANAGERIALE Les problèmes d’intégration des systèmes intégrés de gestion dans le fonctionnement des organisations, considérés comme « dispositifs de gestion » (Moisdon, 1997) se posent toujours, y compris dans des organisations qui utilisent couramment des outils de gestion technologique. Les utilisateurs des systèmes intégrés de gestion prennent la mesure des lacunes fonctionnelles et organisationnelles des outils proposés au cours de leur usage. L’usage du système intégré de gestion est défini par rapport à un modèle normatif de fonctionnement nécessitant d’installer de nouvelles conventions de coopération et de gestion entre les acteurs. Cette installation nécessite de procéder à des transformations dans les infrastructures du fonctionnement de l’organisation, car les inflexions requises ne s’opèrent pas d’elles-mêmes. Dans cette 3° partie, nous allons fournir les indications permettant d’intégrer le processus de la conduite du changement, en distinguant ce qui doit être envisagé en amont de l’installation du système intégré de gestion d’une part, puis au cours de son usage d’autre part. En conclusion, nous montrerons que la mise en œuvre d’un système intégré de gestion nécessite d’installer une stratégie de transformations continue permettant de piloter le processus de management à partir des méthodes de la conduite du changement. Facteurs à prendre en compte dans le processus de conduite du changement dès l’amont des e-projets d’intégration pour éviter les scénarios post-projets critiques. La méthode de conduite du changement a son importance. Le plus souvent, le changement est abordé selon les principes de la rationalité méthodologique. Toutes les méthodes prescrivent des actions de formation et de communication, qui se révèlent souvent peu efficaces, même adossées à un diagnostic organisationnel. En toutes circonstances, l’installation d’un système intégré de gestion fait surgir les dysfonctionnements, et plus largement la partie issue des dysfonctionnements organisationnels. Le fonctionnement qui s’installe alors, consécutif aux compromis entre les acteurs, est un ersatz du fonctionnement organisationnel qui se modifie sous l’effet de ses propres réactions aux dysfonctionnements. Le noyau dur des dysfonctionnements s’enkyste dans le fonctionnement courant. Comme le montre l’étude, les acteurs consacrent alors 78 Management des Technologies Organisationnelles : Journées d’Etude 2009 beaucoup de temps à la régulation de ces dysfonctionnements. Cette régulation s’installe dans le fonctionnement courant. Au préalable, il est important d’avoir une vision claire et critique de la réalité du fonctionnement de l’organisation, en premier lieu de ne pas entretenir la confusion entre les symptômes et les problèmes, à savoir les causes profondes et les causes racines. Evidemment, le changement n’est pas la question, mais c’est aussi le problème (Brénot et Tuvée, 1996). Ces auteurs indiquent que le manque d’efficacité dans l’action est généralement dû à une sous estimation des problèmes et à un déficit de conduite du changement. Sur la question de l’évaluation des problèmes, le choix d’une méthodologie de diagnostic est important. Il est très probable que les problèmes sont déjà installés dans les infrastructures du fonctionnement de l’organisation et de son management, bien avant l’installation du progiciel de gestion intégré. Les problèmes sont donc déjà structurés et les pratiques de régulation ont installé un processus d’assuétude du management. Comme le montre l’étude, chacun des acteurs accomplit des efforts pour surmonter les difficultés. Mais, les acteurs sont dans un contexte asymétrique d’information entre eux. Ils ne peuvent jamais résoudre les difficultés. Le déficit de conduite du changement, quant à lui, surgit toujours dès lors que le projet des transformations à réaliser n’est pas clairement établi d’une part, que le projet programmatique n’est pas lui même défini et piloté d’autre part. Le pilotage d’un processus de transformations requiert un management pro-actif, transformateur et qualifiant. Ces deux conditions ne doivent pas être seulement réalisées au moment de l’implantation du progiciel de gestion intégré, mais doivent être constamment maintenues dans le fonctionnement courant de l’organisation. A la suite du diagnostic socio-économique, la méthode d’intervention consiste à définir un projet socio-économique de conduite du changement qui est installé dans les infrastructures du fonctionnement et du management. Cette technique d’intervention permet à l’entreprise, dès lors qu’elle en assure la maintenance, de développer sa capacité à se transformer. Il est démontré que le changement obéit à des styles de management différent selon les contextes (Brénot et Tuvée, 1996). Mais, la généralisation des technologies organisationnelles fait surgir une autre exigence : évaluer les problèmes de manière qualimétrique, c’est-à-dire pas seulement sur le plan qualitatif et quantitatif, mais également sur le plan de leur incidence financière (coûts-performances cachés). Dans l’étude, le montant des coûts cachés est très important : 65 K€ par personne et par an, imputables à un seul facteur, le surtemps qui a été le seul facteur évalué [14]. Ce qu’il faut en déduire, c’est que le fonctionnement de cette organisation recèle une importante réserve de valeur ajoutée. La transformation des coûts-performances cachés en valeur ajoutée Communications MTO’2009 79 productive contribuerait fortement à l’amélioration de la performance et de la compétitivité qui est recherchée par la mise en œuvre d’un progiciel de gestion intégrée. L’entreprise n’optimise pas son investissement. Par là même, notre communication démontre que l’optimisation de l’investissement en technologies organisationnelles nécessite de mettre en œuvre des méthodes nouvelles de management. Nous avons examiné dans cette section les deux conditions majeures à prendre en compte en amont des e-projets pour optimiser l’investissement technologique, à savoir, disposer d’un diagnostic des causes profondes et des causes racines des dysfonctionnements d’une part, installer une stratégie de transformation des infrastructures du fonctionnement courant de l’organisation d’autre part. Nous allons maintenant examiner les modalités de conduite d’un changement en phase post-projet lorsque les dysfonctionnements perdurent. Type d’interventions possibles en phase post-projet où les dysfonctionnements d’usages perdurent. Le non-alignement stratégique devrait être perçu comme une situation pathologique (Cigref, 2002) qui entretient des processus d’apprentissage restreint. L’organisation ne développe pas sa capacité à se transformer. L’argument de la transformation de l’entreprise est la reconnaissance que l’investissement informatique seul ne produit pas de résultats sans une réflexion et des actions sur la stratégie, les structures, les processus, les compétences de l’ensemble de l’entreprise, soulignent encore l’étude du Cigref (ibid.). Le management des technologies organisationnelles doit considérer l’hypothèse de l’ambiguïté causale, qui est l’incertitude attachée au processus de l’alignement stratégique. Selon cette approche, une aptitude organisationnelle doit être considérée comme plus rigide à transformer qu’une ressource (Métais, 1997), car l’aptitude se transforme en fonction de l’interaction de plusieurs ressources. En phase post-projet, si les dysfonctionnements perdurent, il faut considérer que la situation est pathologique. Dans ce contexte, il faut opérer une transformation. La conduite du changement doit être réalisée avec une méthode permettant d’opérer cette transformation. En premier lieu, il faut prendre conscience de l’étendue et de la profondeur des transformations à entreprendre. L’étude montre que les dysfonctionnements ne sont pas causés par l’opérateur d’ordonnancement qui consacre jusqu’à 60 % de son temps à leur régulation. L’intervention à réaliser ne concerne pas que le seul usage du système intégré de gestion. La problématique est plus profonde. Sur le plan organisationnel, on note un déficit de coopération organisationnelle qui concerne plus particulièrement les processus de communication-coordinationconcertation. Trois présupposés sont observables : il est considéré implicitement 80 Management des Technologies Organisationnelles : Journées d’Etude 2009 que le logiciel est fonctionnel, que les dysfonctionnements font partie du fonctionnement normal de l’organisation, qu’il est dans les attributions de l’agent d’ordonnancement de procéder aux régulations de dysfonctionnements. En fait, l’agent d’ordonnancement gère à lui seul une grande quantité de dysfonctionnements internés dans son service, provenant des clients internes qui ne renseignent pas le système d’information, mais également de clients externes qui modifient les spécifications des commandes. Les investigations sont donc à réaliser dans l’ensemble de la chaine de valeur. Au stade post-projet, le traitement des dysfonctionnements ne saurait être envisagé en mettant en œuvre une démarche de reconception du système d’information. Le diagnostic socio-économique ne faisait pas apparaître que le système intégré de gestion est inadapté. Il s’agit d’intervenir sur la bonne pathologie. On vérifie cependant comment le changement a été envisagé à l’origine lors de la mise en œuvre du système intégré de gestion. A cet égard, notre intervention a contribué à faire évoluer la représentation du changement. Le changement fait rarement l’objet d’une demande d’intervention précise, et dès lors, c’est ce qui fait problème. Le changement avait été appréhendé de manière empirique. Les acteurs se sont trouvés dans l’embarras, compte tenu du fonctionnement systémique de l’organisation, et se sont focalisés sur la régulation des dysfonctionnements. On doit également distinguer et analyser les dysfonctionnements dont les causes sont attribuées aux insuffisances éventuelles du système intégré de gestion. Dans le cas d’espèce, les dysfonctionnements sont déterminés par des facteurs comportementaux d’une part, et par les facteurs de contingence des « dispositifs de gestion » au sens défini par Moisdon (1997) d’autre part, que l’auteur distingue des outils de gestion. Le « dispositif de gestion » est un concept plus large qui englobe l’ensemble des arrangements et des pratiques permettant d’optimiser l’utilisation des outils de gestion. Il faut ensuite considérer que les dysfonctionnements trouvent leur origine dans un faisceau de causes qui peuvent être analysées par catégories. Mais, cette analyse ne peut pas être faîte par chacun des acteurs considérés individuellement car leur champ de vision est limité. Chacun des acteurs organise pour son propre compte les régulations de dysfonctionnements, ce qui relève de la régulation autonome. Dans le cas d’espèce, le seul facteur de contingence analysé a été le surtemps, c’est-à-dire l’impact des dysfonctionnements sur le facteur gestion du temps. La théorie socio-économique des organisations propose une méthode permettant d’établir le diagnostic dans cinq autres domaines qui interfèrent avec la gestion du temps : les conditions de travail, l’organisation du travail, la communication-coordination-concertation, la formation intégrée et la mise en Communications MTO’2009 81 œuvre stratégique. Enfin, il est probable que la gestion du temps chez les clients internes et externes impacte également le fonctionnement de l’organisation. C’est donc un diagnostic socio-économique global dans la chaîne de valeur de l’usage des systèmes d’information qu’il faut envisager en phase post-projet pour optimiser l’investissement technologique. Il serait évidemment tentant de ne réaliser le diagnostic, ou même un simple audit, que dans le périmètre de la mise en œuvre du système intégré de gestion. Mais par nature, un audit se concentre sur les écarts de non conformité. Quant au diagnostic, pour être efficace, il doit démontrer les véritables mécanismes des dysfonctionnements. Cette approche est requise pour une raison simple. On ne conduit pas un changement en agissant sur une multitude de facteurs, mais sur un facteur clé qui entraine le processus de transformations et corrélativement la transformation du facteur clé. Ce facteur clé est identifié à partir du diagnostic de la cause racine des dysfonctionnements. Les travaux de recherche de Savall et Zardet (1995b) ont montré que la cause racine la plus fréquente expliquant les dysfonctionnements était le déficit de pilotage des processus du management et du changement. Ces travaux ont montré qu’il faut intégrer les méthodes de la conduite du changement dans les processus du management pour piloter effectivement. Il peut apparaître cependant que certains modules du système intégré de gestion soient difficiles à utiliser dans une organisation, ou ne sont pas activés, car généralement les éditeurs de progiciels de gestion intégré, pour les plus anciens, sont partis de logiciels existants dans les fonctions logistiques ou production qu’ils ont fait évoluer en élargissant leurs attributs et modalités de fonctionnement (Meyssonnier, 2007). Ce qui signifie qu’en tout état de cause, il faut évaluer l’historique des progiciels sélectionnés. Les situations pathologiques sont assez fréquentes. Selon Meyssonnier (Ibid.) qui fait référence aux travaux de Willis (2001) et de Pérotin (2003), elles concernent un très grand nombre d’entreprises utilisant les ERP. Dans une proportion assez significative des cas connus, la mise en place des ERP est un échec, précisent-il encore (Ibid.). CONCLUSION L’étude des dysfonctionnements d’usage dans un contexte de généralisation des technologies organisationnelles pourrait bien révéler l’urgence d’une approche épidémiologique du phénomène. Les dysfonctionnements d’usage génèrent probablement des coûts-performances cachés exorbitants, largement concentrés dans la fourchette haute des évaluations faîtes par Savall et Zardet. 82 Management des Technologies Organisationnelles : Journées d’Etude 2009 Les systèmes intégrés de gestion sont des outils de gestion. Le traitement des dysfonctionnements d’usage ne doit pas être envisagé dans la catégorie des outils de gestion qui sont fonctionnellement incomplets, mais dans celle des « dispositifs de gestion ». Il s’agit de traiter des problématiques de technologies organisationnelles, qui requièrent d’opérer des transformations dans les infrastructures du fonctionnement courant des organisations et de leur management. Ces problématiques sont d’essence socio-économique. Cette évolution transforme également la définition du concept de pilotage. Il ne s’agit plus de piloter des projets ou le changement, mais de piloter des transformations. Nous montrons dans cette communication que cette fonction de pilotage requiert d’intégrer les méthodes transformatives de la conduite du changement dans les processus courants du fonctionnement et du management des organisations. Globalement, le développement des technologies organisationnelles renforce l’exigence de professionnalisation du management des organisations. C’est la vocation du management des technologies organisationnelles. NOTES [1] Enterprise Resource Planning ou Progiciel de Gestion Intégré en Français. [2] Etude de recherche du CIGREF sur l’usage des TIC, Travaux de L’Anact… [3] Agence Nationale pour l’Amélioration des Conditions de Travail. [4] Absence de responsabilité, intentionnelle ou pas, à l’égard de l’utilisation du système d’information et de la maintenance des données. [5] C’est le coût du temps passé pour corriger les dysfonctionnements (informationnels dans notre cas). L’évaluation de ce coût est faite sur la base de la contribution à la valeur ajoutée (marge) sur coûts variables. [6] Tant sur les flux physiques de transformation des produits que sur celui des données numérisées. [7] Intégration informationnelle de l’ERP. [8] Entretien avec R. Chevallet, Anact Lyon, Février 2009. [9] 35 959 articles dans le cas de cette semaine. [10] Lors d’une modification du programme existant, il est nécessaire de réactiver ce programme pour que la mise à jour soit effective dans le progiciel. [11] Matières premières, sous-ensembles, produits-finis, ressources machines et humaines pour les capacités de production. [12] Temps passé à corriger les dysfonctionnements, pour ensuite pouvoir réaliser dans de bonnes conditions son propre travail. Communications MTO’2009 83 [13] Valorisation des coûts à l’aide de la CHMCV (Contribution Horaire à la Marge sur Coûts Variables). [14] Le diagnostic socio-économique permet d’évaluer 4 autres facteurs : sursalaires, surconsommations, non production, non création de potentiel. REFERENCES BIBLIOGRAPHIQUES Agarwal R. (2000), Individual Acceptance of information Technologies, In Robert W. ZMUD, Michael F. PRICE (eds), Framing The domains of IT Management: Projecting the Future Through the Past, Pinnaflex Educational Resources Inc., p. 85-104. Bachelet C., El Harouchi L., “Une méthode des scénarios d’usage appliquée à l’utilisateur externe”, In Benedetto-Meyer M., Chevallet R., Analyser les usages des systèmes d’information et des TIC, Quelles démarches, quelles méthodes ?, Editions du réseau ANACT, pp. 78-97. Bérard D. (2003), « ERP : De nouvelles formes de travail ? », Travail et Changement, Anact. Bidan, M., (2004), «Fédération et Intégration des Applications du Système d’Information de Gestion, Système d’Information et Management, Edition ESKA, Vol. 9, N. 4, 2004, p. 5-25. Boffo, C. et H. Barki, (2003), "Conceptualizing Information System Use: A Behavioral and Perceptual Framework," actes de congrès de l'ASAC, Division Systèmes d'information Halifax, NE, 14-25. Bowen D.E, Lawler E.E. (1992), « The empowerment of service workers what, why, how and when ? », Sloan Management Review, vol.33, n°3, pp.31-39. Brasseur C. (2005), Data Management : Qualité des données et compétitivité, Hermes Science Publications, 166 p. Brénot J. et Tuvée L. (1996), Le changement dans les organisations, Edition PUF, Collection Que Sais-Je ?, 127 p. Chaumat D. (2008), D’une gestion de la résistance au changement » au management des usages, In Benedetto-Meyer M., Chevallet R., Analyser les usages des systèmes d’information et des TIC, Quelles démarches, quelles méthodes ?, Editions du réseau ANACT, pp. 236-266. Phelizon R., Rouhier S. (2002), « Alignement stratégique du système d'information », Rapport CIGREF. http://cigref.typepad.fr/cigref_publications/gouvernance_du_systme_dinformation/i ndex.html Chevallet R., Rocher O. (2003), La conduite des e-projets, Edition Liaisons. Cristallini V. (2007), Quelle responsabilité sociale du manager vis-à-vis des personnes ? Actes du 6ème Congrès de l’ADERSE, Groupe ESC Pau, 22 et 23 Janvier 2009, 14 p. David A., Hatchuel A., Laufer R. (2000), Les nouvelles fondations des sciences de gestion, Paris, Vuibert, p. 83-109 et p. 193-213. Davis, F.D. (1989), "Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology," MIS Quarterly, 13, 3 pp. 319-340. Dumont V., Mallet C., Rousseau A. (2008), « La construction d’un tableau de bord pour accompagner l’appropriation des TIC », In Benedetto-Meyer M., Chevallet R., Analyser les usages des systèmes d’information et des TIC, Quelles démarches, quelles méthodes ?, Editions du réseau ANACT, pp. 206-235. 84 Management des Technologies Organisationnelles : Journées d’Etude 2009 Fimbel E. (2006), “DGAM: a new alignment model in response to the limits of the SAM model and the shifting expectations and processes of practitioners”, Actes du 11ème colloque de l’AIM, Luxembourg, 7-9 juin. Fimbel E. (2007), Alignement stratégique : synchroniser les systèmes d’information avec les trajectoires et manœuvres des entreprises, Edition Village Mondial. Gumb B. (2005), Des idées pour décider, Pilotage et Systèmes d’information, Village Mondial, p. 5-15. Heili J., Vinck D. (2008), « Penser les relations entre technique et organisation : un examen de la littérature », In Vinck D., Penz B., L’équipement de l’organisation industrielle, les ERP à l’usage, Hermes science, Lavoisier, pp. 47-84. Markus M.L. and Tanis C. (2000), “The Enterprise Systems Experience – From Adoption to Success”, In Zmud R.W. and Price M.F. (eds), Framing The domains of IT Management: Projecting the Future Through the Past, Pinnaflex Educational Resources Inc., p. 173-207. Meysonnier F., (2007), “Calcul des coûts dans les ERP: Le cas SAP, In Azan W., Système de pilotage et Performance, Editions Eska, 270 p.pp.199-212. Moisdon J.C, (1997) (Dir.), Du mode d'existence des outils de gestion : Les instruments de gestion à l’épreuve de l’organisation, Edition Seli Arslan, 286 p. Orlikowsky W. (2000), “Using technology and constructing structures: a practice lens for studying technology in organizations”, Organization Science, vol. 11, N° 4, julyaugust p. 404-428. Pérotin P. (2003), Mise en place de SAP/3: Résultats d’une étude exploratoire, actes du congrès des IAE, 20 p. Pollard D. (2002), « Will that be coordination, cooperation, or collaboration » ? HTTP://BLOGS.SALON.COM/0002007/2005/03/25.HTML Rowe F. (1999), « Cohérence, intégration informationnelle et changement : esquisse d'un programme de recherche à partir des Progiciels Intégrés de Gestion », Systèmes d’Information et Management, 4, no. 4: 3-20. Saint-Léger G. (2004), « L’après projet ERP : Retour d’expérience sur un changement qui n’a pas eu lieu », Revue Systèmes d’Information et Management, N°2, Vol 9, p. 77-107. http://revuesim.free.fr Savall H. et Zardet V. (1995a), Maîtriser les coûts et les performances cachés : Le contrat d’activité périodiquement négociable, Prix de management stratégique de HarvardL’Expansion, Préface de M.A Lanselle et avant-propos de JM Doublet, Edition Economica, 405 p. Savall H. et Zardet V. (1995b), Ingénierie stratégique du roseau, Préface de Serge Pasquier, Edition Economica, 517 p. Savall H., Zardet V., Bonnet M. (2008), Libérer les performances cachées par un management socio-économique, Bureau International du Travail (BIT), 180 p. Savall H., Zardet V. (2004), Recherche en Sciences de Gestion : Approche Qualimétrique, Observer l’Objet Complexe ?, Préface du Professeur David BOJE (USA), Edition Economica, Collection Recherche en Gestion, 432 p. Senge P. (1990), The Fifth Discipline: The Art and Practice of the Learning Organization, New York, Doubleday, 462 p. Simatupang T.M., Wright A.C., Sridharan R. (2002), “The knowledge of coordination for supply chain integration”, Business Process Management journal. Communications MTO’2009 85 Thomas, K.W, Velthouse, B.A, (1990), « Cognitive Elements of Empowerment An « interpretive » model of Intrinsic Task Motivation », Academy of Management Review, Vol. 15, n°4, pp. 666-681. Titah R., Barki H. (2005), “e-Governement Adoption and Acceptance: a literature Review”, cahier de la chaire de recherche du Canada en implantation et gestion des technologies de l’information, N° 05-03. Veltz P., Zarifian P., (1993), «Vers de nouveaux modèles d'organisation», Sociologie du Travail, n°35, pp. 3-25. Wilkinson A. (1998), “Empowerment: theory and practice”, Personnel Review, Vol. 27, Iss. 1, pp. 40-56. Willis D. (2001), Codes for Cost management in Field-Operating Organisations, Journal of Cost Management, Septembre-Octobre, 5 p. 86 Management des Technologies Organisationnelles : Journées d’Etude 2009 Communications MTO’2009 87 Liens, flux et réseaux : indicateurs et repères pour le management des technologies organisationnelles Eric LACOMBE Consultant eGuilde / Montpellier INTRUDUCTION Nos organisations sont des reflets de notre représentation du monde. Celle-ci a évolué au cours de l'histoire suivant ainsi le développement des connaissances et des technologies. En suite au développement extraordinaire des transports et des moyens de communication durant le XXème siècle, tout lieu sur notre planète est désormais accessible en un temps très bref à l'échelle d'une vie humaine. Nos organisations en tiennent compte. Malgré cela, elles sont aujourd'hui fortement secouées. Notre expérience dans les systèmes d'information nous conduit à penser que : • la période de turbulence actuelle est profonde mais n'est que la conséquence logique d'un processus généralisé de fragmentation qui s'est principalement déroulé au cours du siècle dernier, • ce déséquilibre résulte d'un décalage entre le potentiel de nos organisations et nos raisonnements, • un changement de points de vue est la première des conditions pour que nous puissions adapter nos organisations et tendre vers un nouvel équilibre, plus dynamique. 88 Management des Technologies Organisationnelles : Journées d’Etude 2009 LA FRAGMENTATION Etat des lieux Notre vision du monde s'est élargie progressivement selon deux directions opposées, pour tenter de découvrir et comprendre d'un côté l'infiniment petit, et de l'autre l'infiniment grand. L'occident s'est engagé dans une voie iconoclaste mais efficace, consistant à « découper pour comprendre ». Poussée à son extrême, cette approche analytique a eu plusieurs effets dans la seconde moitié du siècle dernier : compensatoires et directs. Les effets compensatoires ont donné naissance à une approche complémentaire, l'approche systémique, et à la notion de complexité, utiles à la compréhension et à la modélisation des organisations (Le Moigne, 1990). Les effets directs sont à l'image de l'organisation morcelée de notre connaissance (Morin, 1986): un processus de fragmentation, qui s'applique aujourd'hui indifféremment à la matière, au vivant, et à l'information. La division de la matière a conduit à la découverte de ses composants élémentaires : à un premier niveau, l'atome, à un niveau inférieur, les particules élémentaires. De même, le décodage du vivant a conduit à la découverte de ses composants élémentaires : à un premier niveau la cellule, à un niveau inférieur, les gènes. Enfin, l'échantillonnage du signal et sa numérisation fragmentent l'information en une unité élémentaire, le bit (0 ou 1). L'usage des ordinateurs pour le « codage de la différence » avec l'unité élémentaire qu'est le bit a des effets à trois niveaux, sur notre avenir, notre passé et notre présent. Les ordinateurs furent d'abord utilisés pour le calcul, conduisant ainsi au développement de la modélisation et de la simulation, afin d'essayer de prévoir et éventuellement contrôler notre avenir. Leurs possibilités de mémorisation, s'appuyant sur des supports permettant de stocker une quantité astronomique d'informations, vont jusqu'à remettre en cause la notion de vie privée et le droit à l'oubli. Aujourd'hui, le développement des interfaces (entrées/sorties), à la fois entre systèmes, entre machines et utilisateurs et donc entre utilisateurs, se concrétise par un réseau informatique mondial standardisé, l'Internet, support d'une explosion des échanges, et source d'une remise en cause complète de l'activité humaine et des organisations : la décomposition traditionnelle du fonctionnement des organisations (système opérant, système d'information, système décisionnel) s'applique désormais à l'échelle de la planète. Communications MTO’2009 89 Conséquences D'un côté, la matière, le vivant et l'information se retrouvent gérés à un niveau microscopique : nous disposons désormais des pièces élémentaires d'un gigantesque puzzle. De l'autre, l'humanité voit émerger une intelligence collective, grâce à un système d'information et de communication mondial. Les conditions sont donc réunies pour nous permettent de construire d'innombrables objets interconnectés, au sens le plus large du terme. Nous commençons tout juste à en ressentir les premiers effets. Le contrôle fin de la matière met les industriels face à l'hyperchoix des matériaux. Les possibilités offertes par la programmation du vivant nous confrontent à de nouvelles questions éthiques. La numérisation est la source d'un décloisonnement des réservoirs du savoir, dont nous entrevoyons à peine les multiples conséquences. La représentation unifiée de l'information ainsi que sa duplication quasi gratuite soulèvent de nouvelles et profondes questions identitaires : « Lorsqu’on partage un bien matériel, il se divise. Lorsqu’on partage un bien immatériel, il se multiplie », comme aime à le rappeler Serge Soudoplatoff (Soudoplatoff, 2008). La numérisation appelle sans doute de nouveaux modèles et de nouvelles perspectives, comme la perspective numérique, que propose Olivier Auber. Nous partageons ces réflexions et estimons que ces nouvelles représentations des connaissances doivent s'accompagner de changements de points de vue à trois niveaux : • La fragmentation nous ouvre la voie d'une réorganisation permanente et donc à privilégier la notion de relation par rapport à celle d'objet. • La dynamique, issue de la multiplication et de l'abondance des échanges autorisés par ces nouveaux liens, nous impose une gestion de flux au lieu d'une gestion d'états. • Liens et flux génèrent de nouvelles structures optimisant l'échange et la communication : les réseaux doivent prendre le pas sur la classification et la hiérarchie. DE LA NOTION D'OBJET A CELLE DE RELATION A l'image du peintre qui travaille sur sa toile à la fois les formes et les espaces entre les formes, notre premier défi est de faire apparaître les relations qui se cachent derrière les objets. 90 Management des Technologies Organisationnelles : Journées d’Etude 2009 Les relations, intrinsèques à l'objet Pour illustrer la différence des points de vue centrés, soit sur la notion d'objet, soit sur celle de relation, il nous semble utile de rappeler au préalable quelques caractéristiques de l'objet : • l'objet (sens concret) est défini dans un espace à trois dimensions. Il est donc soumis aux lois qui régissent le monde réel. Par exemple, sa production et son transport dépendront étroitement de ses caractéristiques physiques. • l'objet est désignable par une étiquette verbale, un nom. Un objet a donc une double existence, tant au niveau physique qu'au niveau informationnel, ce qui ouvre la possibilité d'une double gestion. • l'objet est défini par les relations externes qu'il entretient avec son environnement. La notion de relation est donc intrinsèque à l'objet. Le rapport entre objet et relation peut ainsi s'exprimer par la simple équation suivante : objet = relations Et ces relations sont « essentielles » : « L'essence des choses devant nous rester toujours ignorée, nous ne pourrons connaître que les relations de ces choses, et les phénomènes ne sont que des résultats de ces relations. » (Bernard, 1865 : 114) Perception des relations Malgré cette équivalence, la perception naturelle de notre environnement passe prioritairement par les objets, du simple fait de leur matérialité. Par exemple, on identifie plus facilement un arbre que les multiples relations de l'écosystème dont il fait partie, et qui assurent son intégrité. De même, dans le sens commun, la voiture prend le pas sur le trajet. Instinctivement, nous raisonnons sur des objets concrets, résultats d'une production, et qui sont liés à la notion de propriété. Il est également plus simple de raisonner sur un objet, visible et à notre échelle, plutôt que sur une infinité de relations, à une échelle souvent microscopique. Relations et liens sont souvent cachés, à l'image des cellules de notre propre système nerveux dont la morphologie est pourtant à l'image de leur fonction. De même, en sociologie, le lien social est par nature invisible. Il ne se « matérialise » que lorsque les relations et règles sociales unissant individus ou groupes sociaux différents sont formalisés sur un support. Lorsque les liens sont matérialisés et visibles à notre échelle, contractualisés, ils apparaissent rigides, et sont rapidement assimilés à des chaînes. Le lien apparait réellement que lorsqu'il se crée ou qu'il se brise. Il relève alors toute sa puissance à l'image des forces de liaisons entre les composants élémentaires de la matière. Communications MTO’2009 91 Nous utiliserons par la suite indifféremment les notions de relation ou de lien, considérant que la mise en relation est rendue possible par un lien, qu'il soit physique ou logique. De même, nous considérerons le lien indépendamment de son effet, qu'il nous rapproche ou nous attache. Lien physique et lien logique Reprenant la double dimension de l'objet, au niveau physique et au niveau informationnel, deux types de liens sont à distinguer : lien physique et lien logique. Par exemple, le lien physique « le livre est dans la bibliothèque » privilégie un classement, et nous prive des autres. Cette classification est artificielle; elle reflète un point de vue. L'ajout d'un système d'indexation va permettre de multiplier ces liens : par titre, par auteur, par genre, par date, par lieu, ... De même, lorsque l'information est attachée à son support, elle hérite naturellement des contraintes de celui-ci. C'est pour cela que les containers page et document sont encore fortement prédominants sur l'Internet. Pour que le lien logique puisse développer tout son potentiel, une condition doit être respectée : la définition de standards de liens. Liens et standards Le réseau Internet est aujourd'hui l'incarnation de cette explosion des liens. En informatique, la notion de lien était déjà au coeur du modèle entité/association. Employé depuis les années 1970 pour concevoir les bases de données, il conserve aujourd'hui tout son intérêt. Tenant compte du contexte des interactions multiples (au niveau des métiers, règles, ou domaines) des entreprises modernes, il s'applique aujourd'hui au processus d'urbanisation des systèmes d'information. Cependant, c'est avec l'apparition du Web, du protocole HTTP, du langage HTML et en particulier des liens hypertextes que le lien logique a révélé toute sa puissance. Avec l'Internet, le lien logique entre deux ressources est désormais à portée d'un simple clic. Depuis, ce standard a été étendu avec la spécification XLink, qui permet de relier plus de deux ressources ainsi que des ressources structurées. Actuellement des initiatives complémentaires se développent, telles LinkingOpenData (W3C, 2009) et Common Tag (Common Tag, 2009). Le projet du W3C, l'organisme qui définit les standards du Web, cherche à automatiser la pose de liens entre données en rapport les unes avec les autres et qui n’auraient pas été liées auparavant. L'autre approche est complémentaire puisqu'elle vise à standardiser l'usage des balises (tag) posées par les internautes sur de multiples 92 Management des Technologies Organisationnelles : Journées d’Etude 2009 ressources (billets de blog, vidéos et photos partagées, ...) ce qui aura également pour effet la pose de liens automatiques. Maitriser la gestion des liens On comprendra que la gestion des liens devienne stratégique. Dans ce domaine, la société Google a pris une avance remarquable. En effet, elle gère comme ses concurrents les liens entre les mots et les pages qui les contiennent, mais surtout les liens entre les pages, pour calculer la popularité d'une page (algorithme PageRank) et permettre ainsi une classification pertinente des résultats de recherche. Enfin, elle gère des liens mot/coût, fixés à l'issue d'une mise aux enchères auprès des annonceurs (système Adwords). L’assignation d’une valeur marchande aux mots, donc au langage, est sans doute l'effet le plus spectaculaire de cette gestion de liens : de nouveaux marchés émergent conjointement à l'évolution du langage. Une approche similaire est conduite avec les informations de nature géographique. La gestion du contexte défini par le couple individu/lieu, disponible en mobilité grâce au GPS, permet d'affiner l'approche précédente et d'envisager une publicité contextuelle et personnalisée. Comme pour les mots, Google s'ouvre ainsi la possibilité de mettre les lieux aux enchères auprès des annonceurs. Ces modèles de gestion de lien peuvent encore être affinés en tenant compte de la dimension temporelle. Par exemple, en agrégeant des données de recherche sur son moteur, Google peut estimer l'activité grippale jusqu'à deux semaines plus rapidement que les systèmes traditionnels (Google, 2008). La priorité revient maintenant au Web, ce qui amenait Francis Pisani, journaliste spécialisé dans les technologies de l’information et de la communication, au constat suivant : « Le média des médias est le Web sur lequel le contenu est dans la relation. Encore plus court ? La relation est le message » (Pisani, 2009). La célèbre formule de Mc Luhan, « The medium is the message », s'applique également au Web (Mac Luhan, 1964). La réalité augmentée et l'Internet des objets Lorsque le lien logique rejoint le monde physique, de nouvelles applications émergent. La superposition en temps réel d'informations à une image de la réalité nous fait entrer dans le monde de la réalité augmentée. La perception du monde réel est enrichie d'une couche d'information contextuelle interactive. Les applications en sont multiples. Elles sont loin d'être explorées, et touchent de nombreux secteurs d'activités comme les loisirs, l'industrie, la publicité ou la médecine. Communications MTO’2009 93 Avec l’arrivée de terminaux mobiles équipés à la fois d'une puces GPS et d'un compas électronique, le marché est prêt à décoller. Si la réalité augmentée vise à enrichir la perception du monde réel par le virtuel, il est également possible d'intégrer aux objets du monde réel des identificateurs uniques (RFID) qui permettront d'associer à chaque objet réel un objet numérique virtuel pour créer ainsi des réseaux d'objets. L'Internet des objets est une réalité émergente devenu en 2009 un sujet d'étude de la Commission Européenne. On peut même s'attendre, comme l'envisage Bruce Sterling, à ce que l’internet des objets change la nature des objets (Sterling, 2005). En conférant une possibilité d'autogestion à ces systèmes, toujours plus miniaturisés, nous arrivons au développement de l'intelligence ambiante : en suite à la miniaturisation et la prolifération de ces systèmes, l'informatique devient « pervasive ». Perspectives De nombreux chercheurs, penseurs, spécialistes de prospective économique et scientifique se sont penchés sur les perspectives et menaces du contexte technologique dans lequel nous nous trouvons désormais. Jacques Robin explique la crise actuelle par le passage de l'ère énergétique à l'ère informationnelle (Robin, 1989). Des interactions entre la biologie, l'informatique et les télécommunications, Joël de Rosnay nous annonce l'émergence d'un « cerveau planétaire » (Rosnay, 1986) et de « l'homme symbiotique » (Rosnay, 1995), puis la révolte des pronétaires, ces usagers avancés du réseau Internet (Rosnay, 2006). William A. Turner nous invite à « Penser l'entrelacement de l'Humain et du Technique », avec « les réseaux hybrides d'intelligence. » (Turner, 1994). Jérémie Rifkin nous avertit que ces technologies transforment la dynamique de nos sociétés pour nous faire entrer dans l’âge de l’accès, cette notion se substituant à celle de propriété (Rifkin, 2005). Dans la continuité de la pensée de Gilbert Simondon (Simondon, 1989), Bernard Stiegler nous signale qu'est venu le temps des « hyperobjets » : « Si le réseau internet structuré par le web a profondément modifié les structures relationnelles des sociétés industrielles, dans le réseau internet structuré par les objets, ceux-ci trament une réticularité invisible, connectée en permanence, et surdéterminant les rapports sociaux. » (Stiegler, 2009). David Weinberger nous précise que « Nous pouvons établir des connexions et des relations à un rythme inimaginable auparavant. [...] Chaque connexion nous dit quelque chose sur les choses connectées, sur la personne qui a établi la connexion, sur la culture dans la quelle une personne a pu l’établir, sur le genre 94 Management des Technologies Organisationnelles : Journées d’Etude 2009 de gens qui la trouvent intéressante. C’est comme ça que le sens croît. » (Weinberger, 2007). Pierre Levy, quant à lui, s'est donné comme objectif d'étudier scientifiquement l'intelligence collective humaine. S'appuyant sur son système de notation sémantique (IEML, Information Economy Meta Language), il travaille donc sur un quatrième niveau de liens, entre unités sémantiques, au dessus des interconnexions entre transistors, entre serveurs d'information et entre documents (Levy, 2008). DE L'ETAT AU FLUX L'importance du lien étant acquise nous en analysons à présent les effets dynamiques. Pour suivre un événement, nous avons le choix entre utiliser un appareil photo et prendre une succession de clichés ou bien filmer la scène avec une caméra. Nos outils doivent être adaptés à la dynamique qui nous entoure. Le second défi à relever est de cet ordre. Du lien au flux La notion de lien appelle la notion d'échange. En prenant en compte la dimension temporelle, interviennent alors celles d'état et de flux. Un état représente une situation à un instant donné, à l'image des bilans annuels des entreprises. La notion d'état illustre donc celle de changement. Elle est adaptée lorsque l'ampleur du changement entre deux états reste limitée mais son intérêt décroit lorsque le volume ou la fréquence des changements augmentent. Il devient alors nécessaire de privilégier la notion de flux. Un flux est un déplacement. La notion de flux est générique. Elle s'applique indifféremment à la matière, à l'énergie, aux données ou à l'information. Elle est donc bien au coeur des organisations qui doivent, pour atteindre leurs objectifs, faciliter la circulation des flux. La notion de flux peut également être considérée au niveau de l'individu. En anglais, Le terme Flow désigne un état psychologique dans lequel une personne est totalement immergée, centrée sur une activité ou une tâche. Concept proposé par le psychologue Mihály Csíkszentmihályi, cet état d'expérience optimale serait même une condition du bonheur (Csíkszentmihályi, 1991). Perception des flux Si la gestion de flux est centrale pour les organisations, dans de nombreux cas les organisations ne gèrent que le flux le plus représentatif de leur activité. Les flux secondaires considérés comme non prioritaires ne sont pas traités comme des flux et ne sont pris en compte que lorsque la situation devient Communications MTO’2009 95 ingérable. Pourtant, les ressources humaines, le courrier électronique, les postes de travail, un site Web, tous obéissent à une même logique de flux. Prenons l'exemple du site Web, puisqu'il répond à une double logique de flux. Un site web n'est pas statique. Il devrait tout d'abord gérer le cycle complet de l'information : de la gestion de l'actualité immédiate (veille), en passant par l'analyse et le débat, jusqu'à la synthèse, qui se traduit par la création d'un référentiel. Ces étapes font partie d'un même flux. La problématique est identique avec le flux des visiteurs que l'on doit capter en amont (référencement), puis fidéliser en aval. Ces deux flux sont eux mêmes en interaction puisque les interventions des visiteurs créent de l'information : des simples statistiques de consultation, jusqu'aux contributions volontaires en mode collaboratif. Flux numériques Les flux les plus complexes à gérer sont sans doute les flux de données et d'information numériques. Les raisons en sont multiples. Les volumes échangés peuvent être considérables mais leur encombrement est difficilement perceptible. Les flux augmentent avec le nombre d'acteurs en relation : internes à l'entreprise, partenaires, prescripteurs, clients. Ils se distinguent par leur extrême variété : il y a peu de ressemblance entre un bon de commande, une notice technique et un film publicitaire, si ce n'est qu'ils concernent le même produit. Leur valeur est variable. Une simple information peut avoir à un instant précis une très forte valeur, ce qui complique terriblement la gestion de la sécurité. Les flux numériques sont mixtes : ils sont facilement constitués de plusieurs types d'éléments qui pourraient être traités séparément. Par exemple, le flux des mails contient le flux des messages générés automatiquement (les spams à filtrer, mais également les alertes), ainsi que le flux des mails produits manuellement - et dans lequel on peut distinguer les mails internes, des mails externes - mais également ceux dont on est destinataire direct de ceux dont on est en simple copie pour information. Caractéristiques des flux : suivre le flux Pour identifier les bons indicateurs d'activité, il est utile de revenir aux caractéristiques des flux. Un flux est caractérisé par une origine, une destination et un trajet. Maîtriser un flux consiste à en contrôler son débit de l'origine à sa destination. En s'appuyant sur la mécanique des fluides, on retiendra les points suivants. La grandeur principale de mesure d'un flux est son débit. Le débit peut être constant ou variable. L'écoulement peut être laminaire (régulier) ou turbulent. 96 Management des Technologies Organisationnelles : Journées d’Etude 2009 Des capteurs permettent de mesurer les différentes grandeurs associées, qui varieront bien entendu avec l'élément constituant le flux. Par exemple, dans le cas des fluides on mesurera les variables suivantes : température, pression, viscosité, ... En fonction des résistances rencontrées sur le parcours, le flux peut se voir déformé ou dévié. Deux approches complémentaires permettront de limiter ces effets : l'encadrement des flux - par l'usage de procédures, référentiels, systèmes anti-erreurs - et la flexibilité de l'organisation. La seconde sera nécessaire lorsque les flux génèrent une tension trop élevée. Un système de mesure performant devra être apte à mesurer les écarts entre les objectifs et la réalité. Pour contrôler les flux, la mise en place de tableaux de bord est essentielle. Ils rassemblent les variables significatives dans des vues synthétiques. L'efficacité du dispositif sera renforcée avec une collecte automatisée et un affichage le plus proche possible du temps réel. A l'échelle nationale ou internationale, le suivi se fera par l'intermédiaire d'Observatoires. Augmenter le flux, c'est mettre en oeuvre les synergies qui permettront d'augmenter les volumes ou la vitesse. Les organisations étant des éléments d'un système ouvert, cette opération est la plus délicate car l'amont et l'aval leur échappent traditionnellement. Seule la position de monopole en permet une réelle maîtrise. Ce dernier point nous conduit à aborder les risques liés au flux. Flux et risques Avec une approche de gestion de flux, les risques peuvent s'analyser par analogie hydraulique. A titre d'exemple, on peut s'intéresser à la simple fuite, à la perte de charge, ou au passage en écoulement turbulent. La fuite se produit lorsque des éléments échappent au flux principal. Elle peut être volontaire (opération de communication) ou mal maitrisée par une gestion insuffisante de la sécurité. La perte de charge peut résulter d'un tarissement de la source ou d'accidents dans le trajet. Si elle est définitive, elle révèle une inadaptation de l'entreprise à son marché, qui n'a pas anticipé l'évolution de son environnement. Le passage d'un écoulement laminaire (régulier) à un écoulement turbulent, provoqué par exemple par une augmentation brutale du débit, peut être volontaire ou non. Dans tous les cas, il nécessite une gestion spécifique. Nous illustrerons ces deux aspects en prenant l'exemple du marketing des produits Hi-Tech. Geoffrey A. Moore a ainsi constaté un double phénomène. Le cycle de vie de l'adoption des technologies présente un fossé entre les adopteurs précoces du produit (amateurs de technologie et visionnaires) et le début de Communications MTO’2009 97 l'adoption massive par les acheteurs conservateurs et pragmatiques : d'où une chute du débit des ventes (Moore, 1999). Ayant franchi ce fossé, l'entreprise qui a la maîtrise du produit se retrouve à l'inverse débordée par le flux des commandes et doit adopter des techniques spécifiques de vente pour satisfaire une demande soutenue, croître plus rapidement que ses concurrents, et s'imposer sur un nouveau marché. Elle se retrouve au coeur d'une tornade (Moore, 2004). Evolutions et conséquences Les flux physiques ont augmenté considérablement au cours de l'histoire. Coûteux en énergie, ils perturbent l'écosystème et tendent naturellement vers une limite. La croissance se poursuivra alors au niveau des flux d'information. On assiste ainsi à un double mouvement. D'un côté l'information se libère de son support - par exemple, on passe de la musique sur disque au simple fichier numérique - et, de l'autre, les objets physiques sont enrichis par des flux d'information. Dans les prochaines années, le développement conjoint du Très Haut-Débit (THD), de la mobilité, de la 3D (avec la représentation numérique de produits physiques) ne fera qu'accentuer ce phénomène. Libéré de son support, le contenu peut circuler dans une autre unité de distribution. Par exemple, lorsque la musique est diffusée sur disque, l'unité est principalement l'album, mais lorsque la diffusion s'effectue directement en ligne, l'unité de diffusion devient le titre. L'évolution récente des technologies, en particulier du réseau Internet, nous invite donc à raisonner de plus en plus en logique de flux. Dans un futur proche, cette approche deviendra une nécessité pour toutes les organisations. STRUCTURES ET RÉSEAUX Le 3ème point de vue à faire évoluer concerne les structures. Il est bien évidemment la résultante des deux premiers changements, sur les liens et les flux, et s'applique aux organisations. De la hiérarchie à l'arborescence Le modèle d'organisation prédominant encore aujourd'hui s'appuie sur la notion de hiérarchie, au sommet de laquelle sont concentrés les pouvoirs. Il se traduit par un découpage en départements, divisions ou « business units ». Adapté aux contraintes de gestion des flux physiques, ce modèle contraint les flux d'informations, qui se trouvent prisonniers, enfermés dans des silos étanches de données. 98 Management des Technologies Organisationnelles : Journées d’Etude 2009 Cet ordre est profondément ancré dans la culture occidentale: il remonte au moins à l'époque d'Aristote, qui fut l’un des premiers à procéder à des classifications hiérarchiques systématiques des connaissances et des concepts. La notion de hiérarchie s'appuie sur celle d'arborescence mais il est important de les distinguer. Dans le concept de hiérarchie se dessine une orientation principale du sommet vers sa base, qui traduit un point de vue unique. Le concept d'arborescence se rattache à l'arbre, qui intègre une double structure d'échange avec le milieu ambiant, par l'intermédiaire de sa ramure et ses racines. La structure arborescente est naturelle. Elle se modélise grâce à la théorie constructale (Bejan, 2000). La théorie constructale La théorie constructale a été développée par Adrian Bejan, diplômé du MIT et professeur d’ingénierie mécanique à l’université Duke de Caroline du Nord. Elle explique de manière simple l'émergence de nombreuses formes naturelles - en particulier des structures arborescentes, telles que les méandres de rivières, les poumons ou les arbres - qui semblent se développer selon des algorithmes comparables dans des domaines très différents (le minéral, le vivant, le sociétal). Elle se résume de la façon suivante. Dans la nature, la complexité naît de la combinaison de processus élémentaires. Ce sont les lois simples de la physique macroscopique, et plus particulièrement de la thermodynamique, qui génèrent l’apparition des formes. Elles se traduisent par une optimisation destinée à diminuer les dépenses d’énergie et de matière pour lutter au mieux contre l’entropie. Le facteur générateur de cette recherche d’optimisation est l’évolution compétitive pour la survie dans laquelle s’affrontent les divers éléments de la matière et de la vie. L'architecture globale ainsi définie est donc intrinsèquement liée à un flux et à son environnement, puisqu'elle résulte d'une optimisation des échanges sous des contraintes locales. Si les contraintes se déplacent, les architectures évoluent en conséquence. La portée de la théorie constructale est immense. Elle est intéressante à plusieurs titres pour le management des organisations, et peut nous apporter des outils d'optimisation de ces structures de flux. Comme cette théorie concerne tout type de flux (chaleur, personne, eau, air, sang), des approches transversales sont envisageables : les modélisations issues d'autres disciplines sont à partager. Elle intègre la notion de croissance, c'est à dire une approche du plus petit vers le plus grand. Elle laisse donc toute sa place à l'humain, entité élémentaire motrice au sein des organisations. Communications MTO’2009 99 Le terme « constructal » a été choisi en écho au mot « fractal », qui évoque la brisure, donc la direction inverse, du plus grand vers le petit, le motif se répétant à l'infini. La théorie fractale de Benoît Mandelbrot partage cependant la notion de récursivité et pourrait servir d'outil mathématique complémentaire pour modéliser la répétition de motifs à des échelles différentes (Mandelbrot, 1975). De part sa vision dynamique, elle s'applique aux différents stades de développement des organisations et permet de prendre en compte non seulement la période de croissance et l'état "adulte" mais également la phase de décroissance, correspondant à une diminution des flux et nécessitant donc un ajustement de la structure. Elle intègre la notion d'environnement. Les organisations ne constituent pas des systèmes isolés mais sont profondément interconnectées avec leur environnement, par l'intermédiaire de multiples liens, contractualisés ou informels. En particulier, les nouveaux liens autorisés par les outils de communication déstabilisent fortement les modèles hiérarchiques classiques qu'ils court-circuitent. C'est une des raisons pour laquelle il devient de plus en plus difficile de conserver une information secrète au sein d'une organisation. Elle légitime le modèle arborescent tout en l'enrichissant. En effet, les organisations gèrent de multiples flux en interaction. La structure résultante doit donc théoriquement se présenter non pas sous la forme d'une hiérarchie rigide et unique mais sous celle d'une multitude d'arborescences liées, dont les interconnexions varieront en fonction des contraintes. Se dessine alors la forme d'un réseau avec des noeuds de poids variable, ce qui nous amène à considérer une autre structure également fortement répandue dans la nature : celle des réseaux invariants d'échelle (Barabasi, 2003). Les réseaux invariants d'échelle Les réseaux sont omniprésents, mais ils ont longtemps été traités comme des graphes aux branchements aléatoires. C'est le cas des réseaux routiers : à un carrefour ne convergera qu'un nombre limité de routes. La carte représentant les liens entre pages du Web présente une autre topologie. Dans ce type de réseaux, certains noeuds peuvent concentrer un nombre gigantesque de liens : les « supernoeuds ». La toile est loin d'être le seul réseau invariant d'échelle. On les retrouve dans des domaines aussi variés que la biologie (un petit nombre de molécules intervient dans de très nombreuses réactions biochimiques), l'aviation (quelques hubs concentrent l'essentiel du traffic aérien) ou certains systèmes sociaux. Dans cette approche le pouvoir se concentre au niveau des supernoeuds. La théorie des six degrés de séparation, puis celle des petits mondes, apportent un éclairage complémentaire. En effet, ces théories soutiennent tout simplement 100 Management des Technologies Organisationnelles : Journées d’Etude 2009 que la distance entre deux individus est réduite à quelques degrés de séparation. Toute personne n'est qu'à une distance de six contacts. Les réseaux sociaux, qui se développent à une vitesse extraordinaire, sont en train de nous démontrer la validité de ces modèles. Enjeux Ces évolutions, une structure en réseau toujours plus interconnectée et gérant des flux de données croissants, nous font entrer dans le domaine de la complexité. Or les sciences de la complexité démontrent que tout réseau, qu’il soit biologique ou technologique, doit trouver son équilibre entre efficience et résilience (capacité d'un système à retrouver son état d'équilibre après une forte perturbation, lui conférant ainsi des capacités d'adaptation). Pour conclure Notre démarche a suivi quatre étapes : Le constat : les progrès de la science réalisés au cours du XXème siècle ont conduit à une compréhension de notre environnement - de la matière et du vivant - à un niveau de finesse inégalé. L'information a suivi le même chemin, puisque sous sa forme numérique, nous gérons la plus petite unité possible (0 ou 1) avec des calculateurs et des capacités de stockage toujours plus puissants. Point de vue n°1 : la notion de lien prend une nouvelle importance car la multiplication des entités appelle la multiplication des liens, favorisée par la diminution des contraintes de temps et d'espace du fait d'un réseau de communication unifié à un niveau mondial. Les combinaisons sont infinies et les recombinaisons incessantes. Point de vue n°2 : la notion de flux doit devenir prioritaire, du fait de l'augmentation du nombre de liens possibles, et donc d'échanges, ainsi que l'augmentation de leur fréquence. Au sein des organisations, elle ne se limite plus à la gestion de flux financiers ou à la logistique mais doit s'appliquer à toutes ses composantes, y compris l'innovation ou la formation. Tout le système éducatif doit être repensé en conséquent. L'information en particulier ne doit plus être prisonnière de ses supports mais aussi fluide que l'eau courante. Point de vue n°3 : la notion de hiérarchie et de classification, sans disparaître, se fond dans la notion de réseaux. Parmi ceux-ci, les réseaux sociaux sont à favoriser puisqu'ils donnent la priorité à l'humain par rapport à la technique. Il devient donc urgent de mettre en place des systèmes d'information collaboratifs et pas simplement coopératifs. Communications MTO’2009 101 En conclusion, il ne s'agit plus de simplement accompagner un changement, ni de passer d'un état A à un état B, mais de mettre en place au sein des organisations des méthodes qui intègreront la notion de changement permanent et qui permettront ainsi de s'adapter à ce nouveau rythme d'innovation continue que nous connaissons aujourd'hui. La faculté d'adaptation devient encore plus essentielle dans un monde qui s'accélère. Pour l'acquérir, la première des démarches consiste sans doute simplement à faire évoluer nos points de vue et nos référentiels occidentaux : comme l'enseignait déjà le Yi Jing (livre des transformations) depuis plus de deux millénaires, il n'y a qu'une chose qui ne change pas, c'est le changement. REFERENCES BIBLIOGRAPHIQUES Auber O., « Qu'est-ce que la "perspective numérique"? », Site Web: http://perspectivenumerique.net/ Barabasi A.L. & Bonabeau E. (12/2003), « Réseaux invariants d'échelle », Pour la Science n°314, pp 58-63 Bejan A. (2000), Shape and Structure, from Engineering to Nature, Cambridge University Press, 324p. Bernard C. (1865 : 114), Introduction à l'étude de la médecine expérimentale, J.B. Baillère et fils, 400p. Common Tag (2009), « Common Tag », Site Web : http://www.commontag.org/ Csikszentmihalyi M. (1991), Flow: The Psychology of Optimal Experience, Harper Perennial, 320p. European Commission, « Radio Frequency IDentification and the Internet of Things », Site Web: http://ec.europa.eu/information_society/policy/rfid/index_en.htm Google (2008), « Google.org Flu Trends », Site Web: http://www.google.org/flutrends/ Le Moigne J.L. (1990), La modélisation des systèmes complexes, Dunod, 178p. Levy P. (09/2008), « IEML : Bilan et Perspectives », Site Web: http://www.ieml.org/ Mac Luhan M. (1964), Understanding Media: The Extensions of Man, McGraw-Hill, 360p. Mandelbrot (1975), Les Objets fractals : forme, hasard, et dimension, Flammarion, 190p. Moore G. (1991, revised 1999), Crossing the Chasm: Marketing and Selling High-tech Products to Mainstream Customers, Harper Business, 256p. Moore G. (2004), Inside the Tornado: Strategies for Developing, Leveraging, and Surviving Hypergrowth Markets, Harper Paperbacks, 272p. Morin E. (1986), La Méthode, tome 3 : La Connaissance de la Connaissance, Seuil, 249p. Pisani F. (01/2009), « Média : deux révolutions », Site http://pisani.blog.lemonde.fr/2009/01/14/medias-deux-revolutions/ Rifkin J. (2005), L’Âge de l’accès. La nouvelle culture du capitalisme, La Découverte, 396p. Web: 102 Management des Technologies Organisationnelles : Journées d’Etude 2009 Robin J. (1989), Changer d'ère, Seuil, 349p Rosnay J. de (1986), Le cerveau planétaire, Seuil, 297p. Rosnay J. de (1995), L'homme symbiotique, Seuil, 349p. Rosnay J. de & Revelli C. (2006), La révolte du pronétariat, Ed. Transversale, 250p. Savall H. et Zardet V. (1995), Maîtriser les coûts et les performances cachés : Le contrat d'activité périodiquement négociable, Economica, 405p. Simondon G. (1989), Du mode d'existence des objets techniques, Aubier, 336p. Soudoplatoff S. (07/2008), « Comment Internet change nos organisations », Interventions au CEDAP, Site Web: http://www.almatropie.org/blgg/ Sterling B. (2005), Shaping Things, éditions du MIT, 152p. Stiegler B. (2009), « Le temps des « hyperobjets », dans la société réticulaire », Site Web: http://internetdesobjets.over-blog.com/categorie-10839255.html Turner W.A. (1994), « Penser l'entrelacement de l'Humain et du Technique : les réseaux hybrides d'intelligence », Site Web: http://biblio- fr.info.unicaen.fr/bnum/jelec/Solaris/d01/1turner.html W3C (2009), « LinkinkOpenData, W3C SWEO Community Project », Site Web: http://esw.w3.org/topic/SweoIG/TaskForces/CommunityProjects/LinkingOpenData/ Weinberger D. (2007), Everything is Miscellaneous, The Power of the New Digital Disorder, Henry Holt & Company Inc, 288p. Communications MTO’2009 103 Technologies organisationnelles : quel alignement stratégique des usages ? Corinne BAUJARD Maître de Conférences Université d’Evry Val d’Essonne RESUME L’introduction d’une nouvelle technologie dans l’entreprise induit des changements, aussi bien en termes de compétences que d’organisation du travail. Dans cet article, il s’agit de poursuivre la réflexion à l’égard du management des technologies organisationnelles pour envisager les transformations qui en découlent. Dans la mesure où tout apprentissage est la traduction d’une dynamique sociale, le changement n’est jamais facile à conduire. Aussi, au moment où l’immatériel prend une place de choix dans le management, les entreprises adaptent-elles leurs processus d’utilisation sur leurs technologies organisationnelles où alignent-elles leurs technologies sur leurs usages ? A partir d’une démarche inductive conduite auprès d’une dizaine d’organisations internationales, un cadre d’analyse fait apparaître que les changements technologiques demeurent un élément déterminant de la stratégie des entreprises qui dépendent plus que jamais de la dimension humaine surtout, lorsque le management en temps réel devient une exigence critique, pour les entreprises internationales. 104 Management des Technologies Organisationnelles : Journées d’Etude 2009 INTRODUCTION La disparition progressive des frontières traditionnelles constitue un enjeu majeur pour les entreprises confrontées à une multitude d’exigences, à des choix d’apprentissage généralement reliés à la poursuite d’un avantage concurrentiel précis. Toutefois, pour s’adapter aux variations rapides de l’environnement, les pratiques managériales favorisent généralement une diversification des dispositifs utilisés et réalisent dans le même temps des actions d’apprentissage associées aux nouveaux dispositifs. Les entreprises internationales ont pris conscience de la nature stratégique de leurs actifs immatériels s’imposant sur les marchés émergents au même titre que la technologie (Jouyet, Lévry, 2006). Il n’est donc pas surprenant qu’elle constitue désormais un enjeu stratégique important dont l’évaluation devient une préoccupation essentielle parce que tout déploiement peut entraîner une remise en question des processus existants dans l’organisation du travail. Par ailleurs, les expériences technologiques ont manqué jusqu’à présent de continuité, sans parvenir aux généralisations souhaitées, précipitant parfois l’échec de projets pédagogiques homogènes. Dans une telle perspective, les organisations n’en disposent pas moins « d’une marge de liberté qu’elles utilisent de façon stratégique dans leurs interactions avec les autres » (Crozier, Friedberg, 1977), sans parvenir à minimiser la perte des connaissances. Pour réagir aux départs massifs en retraite dans les secteurs de l’assurance, de la banque, du tourisme ou des industries, les entreprises deviennent conscientes qu’il ne s’agit pas uniquement de stocker des informations, que l’enjeu réel consiste à construire collectivement des outils tout en alignant leurs usages sur leur stratégie d’apprentissage. Les entreprises qui alignent leurs technologies sur les objectifs internationaux adoptent des politiques d’intégration mondiales, et dans le même temps font preuve de réactivité au niveau local. Loin d’être isolées, les modalités de mise en œuvre des outils informatiques « constituent un phénomène social ouvert qui amène à reconsidérer les processus d’adoption technologique par et dans les organisations » (Carton, 2002). Des ressources technologiques tendent à transformer les actes professionnels en compétence collective, désormais rattachés aux logiques d’apprentissage dans les pays où les entreprises sont localisées dont les contraintes spécifiques sont liées à la flexibilité des outils. Si les entreprises demeurent très réactives aux exigences locales, des stratégies de plus en plus complexes dépendent de la capacité des salariés à les mettre en œuvre. L’instabilité de la technologie montre clairement que le rapprochement avec l’activité professionnelle est lié à l’agencement de formules étroitement mêlées plutôt qu’à la seule simplicité d’utilisation (Salas, et alii, 2002). Les formes organisationnelles ne cessent d’évoluer parce que Communications MTO’2009 105 l’apprentissage suscite de nombreuses interrogations en raison des mutations récentes de l’environnement technologique. Peu de travaux se sont encore cependant penchés sur l’alignement des usages lié aux technologies organisationnelles, alors que dans le même temps, on assiste à une mobilisation de ressources valorisant une diversité de modes d’apprentissage. Dans cette perspective, plutôt que d’examiner les technologiques organisationnelles, il a été décidé de privilégier les usages de l’organisation, tout en recherchant les divers leviers de l’alignement stratégique ; autrement dit, dans la mesure où l’immatériel prend une place de choix dans le management, les entreprises adaptent-elles leurs processus d’utilisation sur leurs technologies organisationnelles où alignent-elles leurs technologies sur leurs usages ? Pour tenter d’y répondre, cette analyse souhaite compléter les travaux menés sur les dispositifs technologiques liés aux apprentissages afin de elles adaptent les technologies aux objectifs stratégiques (Baujard, 2008). Tout d’abord, notre démarche cherche à réduire la dépendance de l’organisation envers son contexte technologique, tant déplorée par la communauté de chercheurs, pour proposer un cadre d’analyse des changements organisationnels. Une approche inductive apparaît la plus à même de rendre compte de la diversité des contextes d’apprentissage. Si de nombreuses études font état de nouveaux modes d’organisation, peu d’analyses intègrent l’usage de la technologie pour appréhender l’organisation, question pourtant essentielle. Aussi faut-il discuter les résultats et conclure sur les apports théoriques et managériaux de notre recherche. REVUE DE LITTERATURE L’introduction d’un outil de gestion est un processus qui suit une dynamique ne présentant pas nécessairement une amélioration (Moisdon, 1987). L’alignement des choix organisationnels sur les objectifs stratégiques dépendent autant du potentiel technologique que du contexte organisationnel (Venkatraman, 1995) alors que dans le même temps, les ressources technologiques donnent un avantage concurrentiel à l’entreprise (Rowe, Reix, 2002). En réalité, les acteurs manifestent généralement peu d’intérêt pour des outils complexes, préférant s’en tenir à des solutions éprouvées lorsqu’ils ont à faire face à des demandes imprescriptibles. La technologie modifie les systèmes d’interaction, d’information et de communication des acteurs dans l’organisation. Cette perspective du déterminisme technologique tend à valoriser l’impact de la technologie sur les choix organisationnels (Woodward, 1965). Il est d’autant plus nécessaire de prendre en compte « le contexte social dans lequel les individus sont impliqués » 106 Management des Technologies Organisationnelles : Journées d’Etude 2009 (Bernoux, 2004). Au reste, la perspective interactionniste reconnaît les effets structurants des technologies sur le contexte social (Giddens, 1987). Dans tous les cas, la technologie est un dispositif construit par les acteurs, dont les technologies sont liées à l’agencement d’une diversité d’apprentisages. Les travaux classiques consacrés aux entreprises apprenantes ont montré que les capacités des acteurs de l’entreprise sont définies par des aptitudes a priori obtenues par le travail en milieu professionnel (Senge, 1990). Ils s’appuient généralement sur une distinction entre différents niveaux d’apprentissage : organisationnel, collectif ou individuel. Dans la mesure où l’appropriation des technologies par les acteurs réalise une dualité de structure (Orlikowski, 2002), les différents apprentissages peuvent se révéler par la suite inadaptés car ils dépendent des représentations collectives (Nonaka, Takeuchi, 1995). Le travail devenu plus abstrait, plus intellectuel, fait appel fréquement aux compétences d’expertise technique dont l’activité professionnelle devient imprescriptible qu’incertaine. Les trajectoires professionnelles (Reynaud, 1982) impliquent de nouvelles procédures de résolution de problèmes. La technologie est un système technique et un système social d’interactions liés à des processus complexes et aléatoires plus ou moins conformes à son esprit initial (Weick, 1990). Les constructions sociales sont quelquefois difficiles, voire parfois impossibles, à conduire (Dubar, 1983). Aussi, souvent l’organisation cherche à modifier ses contraintes ou à se modifier pour répondre aux contraintes de l’environnement (Piaget, 1967). Les transformations lors de la mise œuvre des technologies dans l’organisation résultent de la complexité des phénomènes sociaux. Barley (1990). Ainsi, pour appréhender le changement social, une démarche inductive doit permettre de découvrir les technologies organisationnelles à l’origine des processus d’apprentissage. METHODOLOGIE La théorie enracinée (Glaser, Strauss, 1967) repose sur une dynamique de comparaison constante (Strauss, Corbin, 1994). Dans le cadre de cette recherche, afin de respecter le concept de triangulation des données, des entretiens dans une dizaine de grandes entreprises internationales ont été menés (2004-2007), auprès de responsables de formation, de système d’information ou de ressources humaines. Dans les secteurs d’activités de la banque, de l’assurance, construction automobile, cosmétique, énergie, informatique, industrie, télécommunications, tourisme et transport. L’analyse repose sur des segments de taille et d’activité différents comparée aux changements technologiques. Il s’agit de prendre en compte autant la démarche que le processus organisationnel qui en découle. Communications MTO’2009 107 Le management des outils technologiques est un processus qui déclenche une chaîne de conditions, d’actions et de conséquences. Dans cette optique, afin de dégager des régularités, les actions précédentes constituent donc des conditions pour les autres actions. Dans le cadre de notre analyse, lorsqu’un événement entrait dans la situation, celui-ci aboutissait aux conséquences de manière indirecte à l’événement précédent. Dès lors, même si la relation était rarement linéaire, le recueil des données s’est achevé lorsque les responsables ont répondu à l’ensemble des situations possibles. Après élimination des cas non pertinents, un cadre d’analyse en relation avec le terrain a ainsi permis de découper les entretiens en unités d’analyse afin d’établir progressivement les catégories, et attribuer à chacune un code. Le codage ouvert transforme les unités d’analyses en catégories dont le codage axial repère les interactions explicatives à l’origine des changements organisationnels. Le codage sélectif relie le processus de déploiement aux difficultés rencontrées lors des transformations organisationnelles. L’accès au terrain s’inscrit dans un dispositif d’interactions issu des entretiens menés auprès des responsables qui aide à découvrir le processus d’utilisation. Une matrice de conditions traduit le processus d’utilisation à l’origine du déploiement des outils technologiques. Le codage des verbatims fait apparaître le contexte, les conditions explicatives, l’action, la stratégie et les conséquences des usages des technologies par les organisations. Verbatims - Cadre d’analyse selon matrice de conditions (Glaser, Strauss, 1967) Catégorie : contexte Sous-catégorie : stratégie d’affaires • Industrie : « L’ouverture internationale a du poids dans la réussite des possibilités offertes par les nouvelles technologies qui modifient à la fois la chaîne de valeur et restructure nos échanges ». • Cosmétique : « Le succès du groupe vient de la maîtrise de notre système d’information grâce à l’automatisation de certains processus. Autant d’éléments qui procurent un avantage concurrentiel ». • Banque : « L’apparition de nouvelles relations humaines et sociales nous ont incité à anticiper la mutation de nos agences pour répondre toujours plus rapidement aux clients ». • Industrie : « De nouveaux groupes technologiques dans l’environnement nous permettent de capitaliser sur notre savoir-faire ». • Sous-catégorie : expérience technologique. • Transports : « L’apprentissage des outils technologiques résulte d’une décision stratégique au sein de l’organisation. C’est un outil de 108 Management des Technologies Organisationnelles : Journées d’Etude 2009 reconnaissance du capital de chaque salarié. Il change la manière de travailler ». • Entreprise informatique : « En matière de gestion des ressources humaines, il s’agissait d’élaborer une véritable politique permettant de favoriser la rétention des compétences critiques pour attirer de nouveaux collaborateurs ». • Banque : « Pour répondre à la volonté stratégique du secteur, nous avons impacté nos métiers dans les nouvelles technologies demandant des compétences différentes aux salariés ». • Catégorie : conditions explicatives Sous-catégorie : avantage concurrentiel. • Entreprise de cosmétique : « La problématique de notre groupe, c’est notre banque de connaissances indispensable car nous devons faire face à la concurrence. Plusieurs grands groupes convoitent notre place ». • Entreprise informatique : « Nous travaillons sur un marché où les compétences sont très vite périmées, il est primordial de disposer d’une vision globale des ressources humaines dont nous disposons, c’est pour nous une question de survie à l’égard de nos concurrents : piloter le potentiel de compétences c’est piloter l’entreprise ». • Banque : « De nombreux changements technologiques dans les processus de services ont imposé un système toujours plus concurrentiel ». Sous-catégorie : compétences internes. • Tourisme : « Le groupe se développe à l’international dans des pays où la complexité des marchés, la création de nouveaux métiers et l’apparition des nouvelles technologies demandent à chaque collaborateur des compétences qui sont en augmentation ». • Télécommunications : « Nous avons adopté de nouveaux outils pour optimiser les coûts. Plus les moyens technologiques sont utilisés pour améliorer notre organisation, plus l’accompagnement se renforce et obtient une qualité toujours meilleure ». • Télécommunications : « Je suis tout à fait conscient que l’expérience que nous menons actuellement n’est pas transposable, à coût équivalent, dans une autre entreprise française. Nous avons découvert certains éléments progressivement, au fur et à mesure du déroulement de l’expérience ». Catégorie : action Sous-catégorie : accompagnement Communications MTO’2009 • 109 Industrie : « La nouvelle plateforme entérine l’intégration de technologies avancées, développées par les membres de la communauté logicielle ». • Télécommunications : « Le manager doit jouer son rôle d’encadrement, il doit également répondre aux stratégies locales de la prise de décision tout en conservant la culture des unités dont il a la responsabilité dans la nouvelle organisation ». • Banque : « Les TIC suscitent des changements lourds dans les modes de management. Il fallait associer dès le départ toutes les strates du management, les managers de managers, afin d’en faire de véritables sponsors pour aider nos équipes à intégrer les changements technologiques ». • Télécommunications : « La mise en œuvre de notre outil d’expertise vise à transformer le responsable en véritable manager. il devient le fondateur de la nouvelle organisation ». • Industrie : « Les utilisateurs peuvent consulter toutes les informations concernant les produits, processus et ressources dont ils ont besoin pour leur activité ». Sous-catégorie : collaboration. • Banque : « Nous avons expliqué les enjeux des nouvelles technologies de l’information pour faire comprendre la stratégie Internet de l’entreprise, optimiser l’utilisation de l’intranet pour en faire un véritable outil collaboratif ». • Industrie : « L’efficacité de l’espace de travail collaboratif mondial accélère notre rythme d’innovation et donne des solutions pour l’innovation collaborative tout en améliorant l’échange des données ». • Banque : « Les situations de travail auxquelles ont dorénavant à faire face les salariés ont profondément évolué. Les salariés ont à faire face à des demandes imprescriptibles ». Catégorie : stratégie Sous-catégorie : effets attendus, agencement de partenariats d’équipes. • Energie : « Le développement des nouvelles technologies nous a permis de développer les agences commerciales en ligne avec nos partenaires, et s’inscrit dans la démarche Internet du groupe ». • Informatique : « Un intranet mondial propose un espace personnel à tous les collaborateurs leur permettant de situer leurs compétences par rapport aux métiers qu’ils exercent ». • Industrie : « Travailler en équipe introduit des avancées capitales pour la collaboration du développement des produits. Ainsi les entreprises de la chaîne de valeur échangent des informations et peuvent promouvoir 110 Management des Technologies Organisationnelles : Journées d’Etude 2009 une nouvelle conception relationnelle ». Automobile : « Cela signifie que chacun de nos utilisateurs gèrera de façon efficace dans le contexte de leur activité au sein de la définition globale du véhicule ». • Industrie : « L’espace global renforce la collaboration à tous les niveaux de la chaîne de valeur en permettant aux entreprises de travailler avec leurs clients et leurs partenaires comme s’ils faisaient partie d’un seul équipement ». Sous-catégorie : capacités technologiques. • Assurance : « Nous avons adopté une solution de Knowledge Management partagée entre différents acteurs qui permet de trouver un ensemble de connaissances pour résoudre un problème posé dans un dossier contentieux. Il faut donc avoir une bonne connaissance des compétences dont nous disposons qui s’expliquent en partie par différentes interactions et la qualité de celles-ci avec notre système d’information ». • Banque : « Au travers d’un intranet nous sommes en phase de déploiement pour relier tout le groupe. Outre le fait de pouvoir véhiculer l’information et de faciliter le knowledge management, on pourra modifier le management et la distribution de la connaissance ». Catégorie : Conséquences Sous-catégorie : difficultés rencontrées. • Assurance : « Nous pensions que pour notre projet de KM, les échanges sont autant indispensables que la dimension organisationnelle dans laquelle ils s’insèrent ». • Energie « Pour éviter les résistances des salariés, il faut réfléchir au lien entre l’organisation du travail, la mobilisation des hommes et l’intérêt de l’individu, dans la stratégie des ressources humaines dans l’entreprise ». • Télécommunications : « Nous avons été amenés à réorganiser le travail d’équipe pour accompagner les salariés. Ils peuvent dénicher une information précise sur les conseils de leur responsable afin de progresser dans le cadre effectif de son travail ». Sous-catégorie : culture de changement • Construction automobile : « Notre culture de changement ne peut être mise en œuvre que si les salariés la comprennent et se l’approprient ». • Cosmétologie : « L’apprentissage des outils technologiques favorise la diffusion de notre culture d'entreprise ou chacun a conscience du rôle qu’il apporte dans la construction du produit fini. Appartenir au groupe procure aux salariés un sentiment de fierté indéniable ». Communications MTO’2009 • • 111 Construction automobile « Nous pensons que si la culture semble maîtrisée, c’est en partie grâce au sentiment d’appartenance très fort dans le développement collectif des salariés. La culture d’entreprise crée un sentiment de cohésion entre les salariés qui participent activement à l’amélioration des conditions de travail ». Cosmétologie : « Les outils technologiques ne peuvent constituer un terrain d’expériences, mais doivent s’insérer dans un projet à part entière au risque que les salariés refusent de les utiliser. Il faut mener une stratégie de changement dans une logique d’équipe de projet ». A cet effet, les catégories sont détectées en considération du contexte à partir des fonctionnalités technologiques et sociales de l’outil. On peut alors mettre en évidence les liens entre elles qui doivent être modifiés par la suite. Ainsi cette phase de déduction permet de représenter les conséquences de façon à produire une proposition explicative de l’utilisation des outils technologiques. Des regroupements conceptuels représentent le phénomène étudié sans qu’il soit nécessaire de revenir aux entretiens. Cette phase de vérification permet d’aller vers des situations d’apprentissage pour s’interroger sur les modalités selon différents types de changements qui représentent le dispositif analysé. Processus d’utilisation des technologies organisationnelles Situations d’apprentissage • Poursuivre les objectifs. Les outils sont des éléments déterminants des choix stratégiques (Venkatraman, 1995). Les outils technologiques ont des potentialités qu’il faut valoriser. • Conduire le management. Les processus sont fondés sur des actions et des activités collectives. Les interactions sociales ne sont pas stabilisées et évoluent tout au long de la construction des objets techniques (Weick, 1990). • Organiser les ressources. La culture de changement traduit des comportements d’appartenance et dépend des formes d’interaction dans l’organisation. (Argyris et Schön, 1978). Modalités • La technologie est une ressource spécifique du système dont l’esprit aide les responsables à interpréter le sens de la technologie. • La flexibilité interprétative correspond à l’étendue des modes d’apprentissage qui résultent autant des acteurs que de la structure organisationnelle. Le processus d’apprentissage résulte des acteurs et de la structure organisationnelle. 112 Management des Technologies Organisationnelles : Journées d’Etude 2009 • Un environnement élargi agit comme un révélateur des difficultés liées aux caractéristiques techniques. Les responsables sont davantage préoccupés du fonctionnement de la technologie que des stratégies menées par les utilisateurs qui régulent le travail collectif dans la diffusion de la culture. Types de changements • Envisager les transformations c’est la vision. Le recours aux outils s’explique par les caractéristiques de l’organisation, qui améliorent la coordination entre les besoins de traitement de l’information. • Prévoir le déploiement. L’influence de la technologie peut être dissociée des structures sociales dans lesquelles elle se développe (Orlikowski). • Anticiper les difficultés d’accompagnement. Les changements technologiques dans les organisations impliquent un arbitrage dans l’apprentissage selon que l’organisation admette ou non les caractéristiques sociales et matérielles des outils technologiques. La démarche s’inscrit dans une optique processuelle, qui articule poids du passé, conception du présent et anticipation de l’avenir (Weick). L’introduction des TIC modifie les organisations. Le terme d’organisation tend à s’effacer au profit des technologies : la notion de système « sociotechnique » ou de « réseau sociotechnique », la complexité des organisations émergentes modifient les approches méthodologiques et font apparaître l’usage des TIC par les organisations pour décrire, expliquer usages, non usages ou mesurages des TIC pour prévoir les effets sur les processus organisationnels. L’entreprise doit elle influencer son secteur, déterminer sa trajectoire ou réagir aux changements qui interviennent ? On considère que les changements technologiques améliorent le fonctionnement du système lui-même tout en étant un levier managérial des organisations. Un cadre d’analyse laisse entrevoir les actions aux conséquences importantes pour l’organisation. La comparaison des réponses s’est poursuivie tout au long de notre recherche en revenant constamment aux données. L’objectif poursuivi, conserver un avantage concurrentiel, explique la pression de l’environnement. Souvent, le management des outils technologiques n’aboutit pas à aux changements espérés malgré de nombreux partenariats développés par l’entreprise, car les organisations ne tiennent pas compte du contexte social des outils technologiques. Par exemple, l’intranet de compétences répond à la diversité des usages parce qu’il enrichit les connaissances. On réalise bien que le processus d’apprentissage collectif est bouleversé sans qu’il en soit de même des relations d’échanges qui modifient les compétences managériales. Cependant, les contextes mettent l’accent sur le décalage entre ce qui est voulu par Communications MTO’2009 113 l’organisation et les pratiques sociales. Les acteurs sont plus que jamais au centre des usages technologiques. DISCUSSION ET IMPLICATIONS MANAGERIALES Les différents phénomènes identifiés illustrent plusieurs démarches organisationnelles dans les entreprises internationales. Tout d’abord, on repère aisément la vision des objectifs stratégiques que procure la poursuite d’un avantage concurrentiel. Les entreprises dispersées dans le monde partagent leurs connaissances avec leurs partenaires : salariés, fournisseurs ou clients conduisant à des coûts de coordination dans l’agencement des échanges. En général, les fonctionnalités technologiques se révèlent bénéfiques dans les secteurs concurrentiels où les processus sont automatisés. La capitalisation des savoirs critiques dans l’entreprise étendue provient de l’environnement à partir du contexte technologique. Un deuxième type de phénomène est lié aux ressources du déploiement des outils dans les pratiques managériales. Le management des compétences traduit les difficultés à se repérer dans un environnement élargi. Ainsi les entreprises échangent des informations afin de promouvoir de nouvelles relations sociales. C’est un outil de structuration des relations aux effets d’apprentissage dans l’organisation. Enfin, un troisième type de situation consacre l’anticipation d’apprendre rapidement au risque de tensions organisationnelles au sein des équipes de travail. Les changements technologiques dans les organisations impliquent un arbitrage des caractéristiques sociales et matérielles des outils technologiques en vue de favoriser la réalisation des objectifs stratégiques et opérationnels. On distingue un processus en trois étapes : envisager la transformation organisationnelle afin de prendre en compte les objectifs stratégiques, prévoir le déploiement des outils technologiques à l’origine des changements sociaux, anticiper les difficultés d’accompagnement dans les activités d’apprentissage des outils. • Envisager la transformation organisationnelle. L’action managériale standardise les compétences sans avoir néanmoins la possibilité d’anticiper les conséquences liées aux fonctionnalités. Le contexte social contribue partiellement à déterminer l’organisation, surtout lorsque le consensus auprès des partenaires s’avère nécessaire pour que l’outil puisse transformer l’organisation. Les outils mobilisés pour piloter le processus sont soumis aux contraintes des fonctionnalités technologiques susceptibles de multiples combinaisons. 114 • • Management des Technologies Organisationnelles : Journées d’Etude 2009 Prévoir le déploiement des outils. Les effets sont soumis à des évolutions plus ou moins aléatoires, sont peu déterminés à l’avance et dépendant de l’interaction des différents acteurs avec les outils technologiques dans l’organisation. Un manque d’intérêt pour leur complexité atteste que les usages sont rarement structurés lors du processus d’apprentissage. Anticiper les difficultés d’accompagnement. Les organisations considèrent leur capital humain indispensable pour aboutir aux objectifs stratégiques. Les rapports sociaux résultent d’un ensemble d’ajustements qui structurent le processus d’apprentissage. Les difficultés d’accompagnement s’expliquent par des jeux d’acteurs faisant apparaître des niveaux variables dans les usages des outils. De nouvelles règles de gestion doivent tenir compte de l’usage des technologies afin de mettre en valeur la prédiction, la prévision et l’anticipation. CONCLUSION Les limites de notre recherche sont d’ordre méthodologique. Notre démarche inductive assure la compatibilité entre la théorie et les pratiques managériales observées. Au moment, où le développement des organisations se construit sur un recours intensif aux technologies de l’information, l’analyse tente de repérer les conditions d’alignement des usages sur la stratégie. Les entretiens ont été sélectionnés selon les facilités d’accès au terrain. Il est donc nécessaire d’être prudent et de se méfier des connaissances produites parce qu’en général l’expérimentation crée des risques dans la gestion du changement. Une étude longitudinale aurait permis de suivre le processus sociotechnique dont les moyens d’actions demeurent imprévisibles. Qu’il s’agisse d’anticiper la transformation, de maîtriser ou d’accompagner les difficultés du déploiement, le processus décrit conduit à s’interroger sur la cohérence globale du changement technologique. Même si les situations rencontrées confèrent un rôle déterminant au management des changements organisationnels, la poursuite d’un objectif de gestion déséquilibre l’organisation, induit des tensions au cours du processus managérial. A l’évidence, se focaliser sur la dimension technologique ou sociale demeure une erreur en la matière. Un compromis semble bien plus raisonnable pour anticiper la conduite du management des changements technologiques. Dans les entreprises en équipe mondiale, le management des technologies est évalué selon l’apport stratégique par rapport aux autres méthodes d’apprentissage. Dans les entreprises organisées en espace de travail collaboratif, tout déploiement induit de nouveaux modes de travail pour capitaliser des connaissances. Aussi, au moment où l’immatériel prend une place de choix dans la gestion des entreprises, la Communications MTO’2009 115 technologie est un facteur de risques évidents pour la stratégie des organisations. Autant dire que les changements technologiques dépendent plus que jamais de la dimension humaine surtout, lorsque le management en temps réel devient une exigence critique, pour les entreprises internationales. RÉFÉRENCES BIBLIOGRAPHIQUES Alter, S., (1996), Information System : a Management Perspective, Addison Wesley, New York Argyris, C., Schön, D. A., (1978), Organizational Learning: a Theory of Action Perspective, Addison-Wesley, Reading, MA. Barley, S. R., (1990) “The Alignment of Technology and Structure Through Roles and Networks” Administrative Science Quarterly, vol. 35, p. 35-75. Baujard, C. (2008), Stratégie e-learning, management et organisation, Hermès Lavoisier. Baujard, C., (2007), « Vers une démarche heuristique de l’apprentissage organisationnel », Management International, vol. 11, n° 3, 2007, p. 21-34. Bernoux, P., (2004), Sociologie du changement dans les entreprises et les organisations, Paris, Le Seuil. Callon, M., Latour, B, Akrich, M., (1991), La Science telle qu’elle se fait, La Découverte. Carton, S., Clédy, J. L., Dahab, D., (2002), « Déploiement, formation et impacts organisationnels des systèmes d’information », Faire de la recherche en systèmes d’information, Paris, Vuibert, p. 285-297. Commissariat Général au Plan (2003), La France dans l’économie du savoir : pour une dynamique collective, La Documentation Française. Crozier, M., Friedberg, E., (1977), L’acteur et le système, Paris, éd. 1981, coll. Le Point, p. 30. Dubar, C., (2006), La socialisation : construction des identités sociales et professionnelles, 3ème éd. Armand Collin. Giddens, A., (1987), La constitution de la société : éléments de la théorie de la structuration, Presses Universitaires de France, Paris. Glaser, B. G., Strauss, A. L., (1967), The Discovery of Grounded Theory: Strategies for Qualitative Research, New York, Aldine de Gruyter. Jouyet, J. P., Lévry, M., (2006), L’économie de l’immatériel, la croissance de demain, La Documentation Française. Kalika, M. (1995), Structures d’entreprises, Réalités, déterminants, performances, Economica. Moisdon, J. C., (1997), (sous la dir.), Du mode d’existence des outils de gestion, Paris, Ed. Seli Arslan. Nonaka, I., Takeuchi, H., (1995), The Knowledge Creating Company, How Japanese Companies Create the Dynamics of Innovation, New York, Oxford University Press. Orlikowski W. J., (1992) « The Duality of Technology : Rethinking the Concept of Technology in Organizations », Organization Science, vol. 3, n° 3, p. 398-427. Piaget, J., (1967), Biologie et connaissance, essai sur les régulations organiques et les processus cognitifs, Gallimard, Paris, p. 102. 116 Management des Technologies Organisationnelles : Journées d’Etude 2009 Reix, R., (2004), Systèmes d’information et management des organisations, 5e éd., Paris, Vuibert. Reix R., Rowe R., (2002) « La recherche en systèmes d’information : de l’histoire au concept », F. Rowe (éd), Faire de la recherche en systèmes d’information, Paris, Vuibert. Reynaud, J. D., (1997), Les règles du jeu : l’action collective et la régulation sociale, Paris, ed. Armand colin. Reynaud, J. D. (1982), « Les identités collectives et changement social : les cultures collectives comme dynamique d’action », Sociologie du travail, n° 2, p. 159-177. Salas, E. P., Kosarzycki, C. S., Stephen, M. F., Stone, D. L., (2002), « Emerging Themes in Distance Learning Research and Practice: some food for thought », International Journal of Management Reviews, vol. 4, n° 2, p 135-153. Senge, P., (1990), The Fifth Discipline: The Art and Practice of the Learning Organization, New York: Doubleday. Schein, E. H., (1968), « Organizational Socialization and the Profession of Management », Industrial Management Review, vol. 9, p. 1-16. Strauss, A., Corbin, J., (1994), « Grounded Theory Methodology: An Overview », N. K. Dezin, Y. S. Lincoln (Eds), Handbook of Qualitative Research, Thousand Oaks, CA, Sage, p. 273-285. Strauss, A. L., Corbin, J., (1990), Basics of Qualitative Research: Grounded Theory Procedures and Technics, Newbury Park, CA, Sage. Venkatraman, N., (1995), « Reconfigurations d’entreprises provoquées par les Technologies de l’Information », L’entreprise compétitive du futur, Scott Morton MS, Les Editions d’Organisations. Weick, K., (1990), « Technology as Equivoque: Sensmaking in New Technologies” Technology and Organization, Goodmann P; Sproull L.S., (Eds), p. 1-44. Woodward, J., (1965), Industrial Organisation : Theory and Practice, p. 35-36, Oxford University Press, London. Communications MTO’2009 117 Une démarche pour la conduite du changement en entreprise manufacturière Vincent CHAPURLAT LGI2P / Ecole des mines d’Alès Didier CRESTANI et Yousra BEN ZAÏDA LIRMM / Université de Montpellier RESUME Les entreprises ont en permanence à s’adapter à l’évolution de leur environnement aussi bien économique que technologique si elles souhaitent préserver leurs parts de marché et leur positionnement vis-à-vis de leurs clients. Elles doivent alors choisir les objectifs stratégiques qu'elles veulent rallier, puis définir la conduite du changement qui permettra de les atteindre. Pour les entreprises manufacturières, les techniques de conduite du changement opérationnelles actuelles rendent difficile la mise en œuvre autonome des stratégies de changement choisie par les acteurs de terrain. Différentes études (projet européen Time Guide, action ADESI, etc…) ont en effet montré les limites et insuffisances de telles approches. Citons, en particulier, leur inadéquation souvent préjudiciable aux besoins réels, la prise en compte limitée de la dimension humaine, les difficultés de représentation d’une organisation, le besoin de lien à la performance, l'absence de guide pour le choix des méthodes opérationnelles de changement à mettre en œuvre, etc. Cet article présente une démarche de conduite du changement qui tente de lever certaines de ces limitations. 118 Management des Technologies Organisationnelles : Journées d’Etude 2009 INTRODUCTION En industrie manufacturière, le changement ou, en d’autres termes, le processus qui va permettre à l’entreprise d’évoluer et de s’améliorer au regard de ses objectifs, évoque souvent dans l’esprit du management une prise de risques, une remise en cause de tout ou partie de la culture d’entreprise, une perte possible de performance pendant le temps nécessaire à la reconfiguration ou la réinstallation des ressources pouvant induire des dommages sur la clientèle, etc. Les chercheurs en sciences de gestion et en sciences pour l’ingénieur ont développé des travaux pour caractériser, supporter et si possible outiller ce processus. Par exemple, [Siebenborn, 05] [Nouiga, 03] décrivent ce processus comme une suite d'actions cohérentes avec les objectifs stratégiques de l’entreprise. [Basseti, 03] le définit comme un processus de transformation pouvant être radical ou marginal [Hasfi, 97]. [Yatchinkovsky, 99] et [Nouiga, 03] soulignent que le processus de changement doit permettre logiquement de passer d’un état initial et un état final évidemment meilleur du point de vue de la stratégie de l’entreprise [Délivré, 04]. Enfin, [Beriot, 92] insiste sur la dimension temporelle du changement et la nécessaire différence qui doit exister entre deux états. Cependant, il apparait que ces travaux, bien que complémentaires, ne répondent pas à tous les besoins de l’industriel désireux de faire évoluer son entreprise. Cet article a pour objectif de présenter ces besoins et propose une approche outillée d’aide à la construction de projets de changement en industrie manufacturière. BESOINS Différentes études (projet européen Eureka TIME GUIDE [TIME GUIDE, 96], action spécifique du CNRS ADESI [ADESI, 04.1] [ADESI, 04.2] ou encore l’étude menée par l’American Management Association auprès de 250 entreprises [AMA, 95]) ont permis de lister un certain nombre de limitations actuelles perçues par les industriels face à la gestion du changement. Les points essentiels et les verrous à lever pour répondre au mieux aux attentes du milieu industriel sont : • Le changement doit être initié à partir de la déclinaison des objectifs stratégiques de l’entreprise à plus ou moins long terme. A titre d’exemple, seulement 46 % des entreprises interrogées identifient les objectifs de leur projet de changement à partir des objectifs stratégiques définis. • Les industriels souhaitent majoritairement définir puis gérer leurs projets de changement de façon autonome en impliquant plus fortement et plus étroitement le personnel. En effet, le changement se concentre Communications MTO’2009 119 désormais essentiellement sur l’organisation et 75 % des facteurs qui freinent le changement sont d’ordres organisationnel et culturel. • Seulement 25 % des industriels disent connaître quelques outils permettant d'accompagner le changement et 54% d'entre eux jugent que ces outils ne répondent pas à leurs attentes. Par exemple, plus de 80% des entreprises souhaitent pouvoir analyser et donc anticiper l’impact du changement sur les performances de l'entreprise avant que le projet lui-même ne soit lancé. Les besoins en termes d’outils sont ainsi : (i) pouvoir avoir une vision plus intégrée de la performance, (ii) pouvoir estimer l'impact d’un changement en particulier sur les dimensions humaines et organisationnelles de l’entreprise, et (iii) gérer le changement nécessite de disposer de modèles (de l’organisation, des ressources, des moyens, des méthodes potentielles d’amélioration, de la performance, etc...) de l’entreprise et donc d’outils supports. Donc les industriels avouent une connaissance réduite des méthodes et des outils leur permettant de mieux prévoir, anticiper et gérer le changement au regard de leur stratégie Ils sont demandeurs d'outils d'aide à la décision facilitant la gestion autonome de l'évolution de l'entreprise. L’approche présentée dans cet article et l’outil support GET (Generator of Enterprise Trajectories) tente de répondre à certains de ces besoins pour le milieu manufacturier. L’APPROCHE PROPOSEE Cette approche, développée conjointement par les laboratoires LIRMM et LGI2P, permet de définir, d’évaluer et de valider un projet de changement. Elle repose sur un ensemble de concepts résumés ci-dessous, d’une démarche méthodologique et d’un outil support présentés brièvement ensuite. Concepts Le Moigne [Le Moigne, 77] distingue quatre situations de changement (Figure 1) pour un système : • La régulation : La mission et l'environnement du système sont stables. Il s’agit alors seulement de réguler le comportement de ce système pour faire face aux perturbations sans modifier sa structure ni ses schémas d'exécution. • L'adaptation : La mission du système est stable mais son environnement évolue. Le système doit donc s’adapter et développer de nouveaux schémas d'exécution sans modification structurelle du système. 120 Management des Technologies Organisationnelles : Journées d’Etude 2009 • • L'adaptation structurelle : L’environnement est stable mais la mission du système change. Il doit donc adapter ses ressources et son organisation voire définir de nouveaux schémas d'exécution. L'évolution structurelle : Face à un environnement et à une mission qui évolue dans le temps, le système doit faire évoluer sa structure pour s'équilibrer. Figure 1 : Situations du changement L’approche proposée s’intéresse aux cas où la mission du système, ici tout ou partie d’une entreprise, doit évoluer de façon à suivre la stratégie définie par les managers. Elle se focalise donc sur des projets de changement nécessitant d’adapter ou de modifier à la fois la structure de l’entreprise (ses ressources, son organisation, ses moyens) et ses modes opératoires (processus, activités). Un projet de changement se définit à partir de l’état courant de l’entreprise, de l'état cible à atteindre fonction des objectifs stratégiques déclinés sous forme d’objectifs de performance ou objectifs opérationnels et d’une trajectoire, ou chemin optimum, permettant de passer de l’état courant à l’état cible. Dans ce cas : • Un état est décrit au moyen d’indicateurs de performance organisés et structurés en fonction de la nature de la mission et des objectifs de l’entreprise. • Un objectif de performance s'exprime au travers de l’agrégation d’indicateurs de performance qui ont été, dans le cadre de cette étude, répartis en tenant compte de trois axes de performance schématisés eux-mêmes décomposés selon plusieurs critères Figure 2. Figure 2 : Les indicateurs de performance pour la gestion du changement Communications MTO’2009 • • • 121 L’axe performance de pilotage permet d’évaluer la capacité de l’entreprise (ou de la partie concernée de l’entreprise) à remplir sa mission, en l'absence de perturbations et en ajustant en permanence son comportement. Les Coût, Qualité et Délai, sont les types de critères de performance retenus. L’axe l’axe performance d’adaptation permet d’évaluer la capacité de l’entreprise à réagir face à des perturbations imprévues qu’elles soient d’origine externe ou interne, c'est-à-dire à estimer la stabilité de l'entreprise. Les types de critères retenus sont ici la Réactivité (capacité d’une entreprise à réagir à des situations imprévues dans un délai acceptable) et la Proactivité (capacité de l'entreprise à développer des produits, procédés, processus etc. susceptibles de favoriser le retour à une situation normale et maîtrisée). Enfin, l’axe performance d’anticipation permet d’évaluer l’aptitude de l’entreprise à faire face à des perturbations prévues d'origine interne ou externe c'est-à-dire d'estimer l'intégrité de l'entreprise même en cours d’évolution. Les types de critères retenus sont alors la Flexibilité (capacité d'une structure à réagir à des situations prévisibles comme par exemple une panne de machine), la Standardisation (qui facilite la gestion des perturbations et des situations de crise prévues), la Redondance (capacité à disposer de ressources pouvant assumer dans le temps un même rôle en nombre suffisant) et l'Innovation (capacité à développer des produits, procédés, processus susceptibles de répondre à l'évolution des besoins). Un système d'indicateurs de performance peut ainsi être bâti au moyen de la démarche schématisée Figure 3. En effet, l’ensemble de ces indicateurs doit permettre d’évaluer la totalité des processus potentiellement concernés par le projet d’évolution de l'entreprise et de détecter ainsi d’éventuelles voies d’amélioration supplémentaires. La couverture des processus de l'entreprise est obtenue à partir de la décomposition en processus de management, support et métier préconisée par la norme ISO 9001 [ISO 9001]. Pour chacun des processus identifiés, un arbre d'indicateurs de performance est construit relativement à chacun des axes de performance décrits ci-dessus. L'identification des indicateurs de performance repose sur la méthode 5M [Ishikawa, 85]. En effet, cette forme d’analyse causale permet de relier les causes (ici les différents axes de performance) aux effets (ici les indicateurs de performance qui sont impactés par ces axes). Une évaluation ascendante des nœuds de ces arbres s'appuyant sur la méthode multicritères A.H.P. [Saaty, 80] est ensuite utilisée 122 Management des Technologies Organisationnelles : Journées d’Etude 2009 pour évaluer entre 0 (mauvais) et 1 (excellent) et agréger les indicateurs de performance identifiés. Figure 3 : Principes de la modélisation des performances • Une trajectoire d'évolution est constituée d’une suite d’actions permettant de conduire l'entreprise de son état courant vers un état cible fixé par déclinaison des objectifs stratégiques. Chaque action consiste à appliquer une méthode d’amélioration ciblée dite méthode opérationnelle notée Mi dans la Figure 4. Ces actions doivent être a priori menées à bien pour faire évoluer l’organisation, le comportement, les ressources, etc. de l'entreprise. La construction de ces trajectoires repose sur deux hypothèses fortes : o Les objectifs stratégiques de l’entreprise sont supposés connus et validés. o Il est possible d’évaluer l’impact de chaque action sur la performance globale au regard de l’état cible souhaité. Communications MTO’2009 123 Figure 4 : Trajectoires et méthodes opérationnelles • Une méthode opérationnelle se décline selon une vision tridimensionnelle (Figure 4) : o La dimension généricité permet de décliner la description d'une méthode opérationnelle de son niveau le plus générique à son expression appliquée à une entreprise particulière. Ainsi comme le montre la Figure 5 une des déclinaisons de la méthode opérationnelle Just In Time peut faire appel, dans une entreprise donnée, aux méthodes : formation, S.M.E.D. [Dirk et al., 02] et Kanban [Shingo, 85]. o La dimension cycle de vie rend compte des différentes phases de déploiement d'une méthode opérationnelle allant de l'appropriation à la mise en œuvre en passant par la préparation. Par exemple les méthodes opérationnelles appliquées précédentes sont employées conformément à leur appartenance aux différentes phases du cycle de vie. o La dimension performance traduit l'impact potentiel des méthodes opérationnelles sur la performance. Figure 5 : Modèle de méthode opérationnelle 124 Management des Technologies Organisationnelles : Journées d’Etude 2009 Une méthode opérationnelle influence ainsi tout ou partie de la performance de l’entreprise, de manière positive ou négative. Une trajectoire est donc un enchaînement cohérent (dans le temps, dans l’espace et en respectant des contraintes d’éligibilité et de mise en œuvre [Crestani et al., 09]) d’application de méthodes opérationnelles sélectionnées pour leur intérêt, leur pertinence et leur applicabilité dans l’entreprise (compétences présentes ou en cours d’acquisition, temps disponibles, moyens, accompagnement, cycle de vie de la méthode en adéquation avec le projet global de changement, etc.). Chaque trajectoire est ainsi un projet potentiel de changement comme schématisé en Figure 6. Le but de l’approche proposée est ensuite d’évaluer et de comparer toutes les trajectoires potentielles en analysant leur impact global sur la performance de l'entreprise, leur durée et leur coût estimé. Démarche méthodologique La démarche schématisée Figure 7 est structurée en six principales étapes : • L'Etape S1 permet, à l'aide de modèles adaptés, de décrire les vues structurelle, fonctionnelle et comportementale de l'entreprise. • L'Etape S2 caractérise l'état initial par le biais d'un ensemble d'indicateurs de performance. • L’Etape S3 décline les objectifs stratégiques en un état cible à atteindre à l'issue du processus de changement. • L'Etape S4 identifie les méthodes de changement applicables en fonction de leurs conditions d'application. • l'Etape S5 évalue l'impact du déploiement d'une méthode éligible et enrichit la trajectoire d’évolution d’un nouvel état. • L'Etape S6 analyse, s'ils existent, les différentes trajectoires d’évolution obtenues vis-à-vis de la performance et estime leurs coût et durée. Figure 6 : Exemples de trajectoires d'évolution (T1, T2 ou T3) Communications MTO’2009 125 Figure 7 : Démarche méthodologique La mise en œuvre de cette démarche nécessite un ensemble de moyens de modélisation d’entreprise et d’évaluation pour formaliser, construire et manipuler les trajectoires : • Un modèle de l’entreprise au travers de plusieurs vues classiquement adoptées dans ce domaine [Penalva, 93] et enrichies pour les besoins de la construction et de l’évaluation des trajectoires. Pour cela, le cadre de Modélisation SAGACE-CE, évoqué dans la Figure 8, a ainsi été proposé et formalisé [Benzaïda, 08]. Figure 8 : Synoptique du cadre de modélisation SAGACE-CE 126 Management des Technologies Organisationnelles : Journées d’Etude 2009 • • • Le modèle de performance présenté plus haut pour, d’une part, estimer les états courant et cible de l’entreprise, d’autre part, décliner suivant la démarche illustrée 8, les objectifs stratégiques sous forme d’un arbre d’objectifs opérationnels et, enfin, évaluer l’impact d’une méthode opérationnelle sur la performance c'est-à-dire sur le comportement, l’organisation, les ressources ou les moyens de l’entreprise. Le modèle de méthode opérationnelle présenté plus haut permettant de caractériser et de définir les conditions d’éligibilité d’une méthode opérationnelle pour qu’elle soit potentiellement applicable dans le cadre de l’entreprise. Ces règles traduisent des contraintes liées à la pertinence des méthodes opérationnelles vis-à-vis la structure organisationnelle de l'entreprise [Siebenborn, 05], à la logique de changement engagée, au lien temporel pouvant exister entre les méthodes (notion de cycle de vie). Un environnement logiciel a enfin été développé pour supporter l'ensemble de cette démarche méthodologique. OUTILS SUPPORTS L'architecture logicielle support de cette méthodologie est présentée Figure 9. Elle peut être divisée en deux parties : • Un ensemble d'outils permettant à un groupe d’acteurs en entreprise et/ou au consultant intervenant de décrire l’entreprise, au manager de décomposer les objectifs stratégiques en objectifs opérationnels, et au consultant de caractériser l’adéquation de certaines méthodes opérationnelles avec l’entreprise selon sa nature, son contexte, ses ressources, etc. • Un ensemble d'outils permettant de définir explicitement l'état final souhaité et de construire les trajectoires d'évolution à l'aide d’un outil baptisé Générateur de Trajectoires d'Evolution GTE. La communication entre ces deux parties est assurée via des formats neutres d’échange XML. Les différents outils de modélisation nécessaires aux étapes S1 à S3 ont été réalisés en faisant appel au logiciel de méta-modélisation GME (Generic Modeling Environment) [GME, 04]. Outre la vérification de la cohérence des concepts et des contraintes, cet outil facilite la génération d'interfaces graphiques pour les utilisateurs. Communications MTO’2009 127 Figure 9 : Synoptique de l'environnement logiciel développé GTE a été développé en code Matlab proche du langage C, choisi pour ses capacités graphiques. Il met à la disposition de l'utilisateur un ensemble de fonctionnalités, couvrant les étapes S4 à S6 et lui permettant : • De choisir les indicateurs de performance pertinents nécessaire à la représentation de l'état de l'entreprise. • De définir l'état cible à atteindre. • De fixer les conditions d'arrêt pour la construction des trajectoires d'évolution. • De visualiser pour chaque trajectoire l'évolution des indicateurs de performance choisis pour définir l'état. • De choisir les critères de tri des trajectoires générées (solution, non solution, classement en fonction du coût ou de la durée) lors de la phase de prise de décision. CONCLUSION La conduite de changement est un besoin industriel clairement identifié est un enjeu de taille : le changement doit être rapide, réactif, pertinent, remis en cause régulièrement, etc. La démarche d'aide à la décision présentée dans cet article permet de modéliser une entreprise, de définir une liste d’indicateurs de 128 Management des Technologies Organisationnelles : Journées d’Etude 2009 performance pertinents en rapport avec sa stratégie, et de construire des projets d’évolution qui la respecte. D’une part, cette démarche peut être considérée comme générique puisque qu'elle s'appuie sur un cadre de modélisation de l'entreprise, de la performance et des méthodes opérationnelles, sur une méthodologie rigoureusement définie et sur une plateforme d’outils intégrés. D’autre part, elle peut aussi être qualifiée d'ouverte puisqu'elle peut être facilement enrichie par de nouvelles méthodes opérationnelles et que le système d'indicateurs de performance construit couvre l'ensemble de l'entreprise ce qui lui permet d'adresser tout objectif stratégique. Elle s’appuie actuellement sur une base de données d'une cinquantaine de méthodes opérationnelles. Cette approche de construction de trajectoire d'évolution de l'entreprise et les outils supports associés sont actuellement en cours de validation. REFERENCES BIBLIOGRAPHIQUES [ADESI, 04.1] "Action Spécifique ADESI – Aide à la Décision pour l'Evolution Socio-Technique des Systèmes Industriels", (2004), Rapport de fin d'étude, pp. 1-82. [ADESI, 04.2] "Action Spécifique ADESI – Aide à la Décision pour l'Evolution Socio-Technique des Systèmes Industriels", (2004), Annexes, pp. 1-74. [AMA, 95] http://www.amanet.org/research/archive_1998_1995.htm#1995, (1995), Enquête de l'American Manager Association. [Basseti, 03] Bassetti A.L., (2002), "Gestion du changement, gestion de projet : convergencedivergence. Cas des risques en conception et mise en place d’une organisation de management de l’environnement", thèse en Génie Industriel de l’Ecole Nationale Supérieure d’Arts et Métiers Centre de Paris. [Beriot, 92] Beriot D., (1992), "Du microscope au macroscope : l’approche systémique du changement dans l’entreprise", ESF Editeur, Paris. [Benzaïda, 08] Benzaïda Y., (2008), "Contribution à la conduite du changement pour l'évolution du système entreprise", thèse de 3ème cycle, Université Montpellier 2, France. [Crestani et al., 09] Crestani Didier, Chapurlat Vincent, Ben Zaida Yousra, Durand Bastien, Toward a Software Environment for the Generation of Enterprise Change Trajectories, 39th International Conference on Computers & Industrial Engineering (CIE39), UTT Troyes, 6-8 Juillet 2009 [Délivré, 04] Delivré F., (2004), "Le métier de coach", Edition d'organisation. [Dirk et al., 02] Dirk V. G., Hendrik V. L., (2002), “Rules for integrating fast changeover capabilities into new equipment design”, Robotics and Computer-Integrated Manufacturing, Vol. 18, Issues 3-4, pp. 205-214. [GME, 04] GME (2004) Generic Modelling Environment (GME) User’s Manual, Release 4-11, Institute for Software Integrated Systems (ISIS) Vanderbilt University [Hafsi et al., 97] Hafsi T. et Fabi B., (1997), "Les fondements du changement stratégique", Transacontinental. [ISO 9001-2000] Norme européenne NF EN ISO 9001-2000, http://www.iso.org. Communications MTO’2009 129 [Ishikawa , 85] Ishikawa, K., (1985), “What is Total Quality Control?” The Japanese Way, Prentice-Hall. [Le Moigne, 77] Le Moigne J.L., (1977), "La Théorie du Système Général", Les Presses Universitaires de France. [Nouiga, 03] Nouiga M., (2003), "La conduite du changement par la qualité dans un contexte socioculturel : Essai de modélisation systémique et application à l'entreprise marocaine", Thèse de doctorat, ParisTech. [Penalva, 93] Penalva J. M., (1993), «SAGACE method: the modelling of human designed systems», COMETT'93, Rome, Italie. [Saaty, 80] Saaty, T. L., (1980), “The Analytical Hierarchy Process”, McGraw Hill: New-York. [Shingo, 85] Shingo S., (1985), "The Revolution in Manufacturing : The SMED System", Productivity Press Inc. [Sieberborn, 05] Sieberborn T. (2005), "Une approche de formalisation du processus de changement dans l’entreprise", thèse de 3ème cycle, Université de Savoie, France. [TIME GUIDE, 96] Project EUREKA TIME GUIDE European Project EU 1157, (1996), "Tools and method for the Integration and the Management of the Evolution of industrial enterprise – GUIDing the Evolution". [Yatchinkovsky, 99] Yatchinnowsky A., (1999), "L’approche systémique pour gérer l’incertitude et la complexité", ESF Editeur, Paris. 130 Management des Technologies Organisationnelles : Journées d’Etude 2009 Communications MTO’2009 131 Hyper rationalisation organisationnelle et technique : le cas du Voice Picking Mélanie BURLET et Romain CHEVALLET ANACT/ Lyon Thierry PRADERE ARACT / Montpellier RESUME La technologie du guidage vocal, de plus en plus présente dans les activités de préparations de commandes, pose la question d’un nouveau mode d’organisation, celui de l’hyper-rationalisation organisationnelle et technique. Dès lors, une approche interdisciplinaire articulée sur l’analyse du travail permet de mieux comprendre l’ensemble des effets de cette innovation sur les conditions de travail et la performance de l’entreprise. Dans ce type d’organisation, la place de l’autonomie et de la responsabilité est fortement questionnée, ce qui représente une forme de rupture avec les modèles d’organisation observés jusqu’alors. Du point de vue des conditions de travail, la pénibilité mentale devient un enjeu majeur. INTRODUCTION Après un succès éprouvé en Amérique du Nord, la technologie du guidage vocal [1] (voice picking ou VP) se déploie désormais en France depuis quelques années. Si tous les secteurs logistiques sont concernés, celui de la grande distribution, à dominante alimentaire, dont la fluidité de la logistique est déterminante dans la chaîne de la valeur en est le premier utilisateur. Selon la presse spécialisée et les éditeurs de solutions, qui sont deux acteurs déterminants dans la construction sociale de ce marché, le VP conduit 132 Management des Technologies Organisationnelles : Journées d’Etude 2009 simultanément à augmenter la productivité (de l’ordre de 15 %), la qualité (diminution des erreurs de picking) et l’ergonomie, dans la mesure où il libère les mains du préparateur et permet un meilleur repérage dans l’espace. Il nous paraît alors nécessaire d’apporter un contrepoint à l’argumentation commerciale à destination des managers, en observant les conséquences de son usage sur les pratiques du travail des personnels concernés. Une intervention dans une base logistique du secteur de la grande distribution nous a permis d’opérer des observations du point de vue des acteurs impliqués dans l’usage (2007-2008). Mais relativement à d’autres travaux, nos observations nous conduisent à considérer que le VP est représentatif d’un modèle de travail caractérisé par l’hyper-rationalisation organisationnelle et technique. En cela, nous souhaiterions renforcer l’hypothèse de l’émergence de nouvelles formes de rationalisation, permises aujourd’hui par l’usage de nouvelles technologies. C’est ce que nous montrerons dans une première partie. Nous mettrons en évidence, dans une seconde partie, les effets négatifs du VP sur les conditions de travail pour faire contrepoint aux effets positifs avancés par l’argumentation commerciale. Plus radicalement, nous montrerons dans une troisième partie que le VP peut aussi avoir des effets négatifs sur la performance. Dans chacune des parties, nous mobiliserons des éléments issus de l’analyse factuelle à partir de nos observations et des modèles d’interprétations de ces données mobilisant des éléments de quatre disciplines : ergonomie, sociologie, psychologie et physiologie. Sans prétendre conclure à partir du seul cas observé, notre contribution a pour intention de compléter la littérature sur le VP par des mises en gardes quant à son usage et ses dérives possibles, tant en matière de conditions de travail que d’accroissement de la productivité réelle. UN « NOUVEAU » MODELE D’ORGANISATION ? Le volet empirique de nos travaux s’appuie en partie sur une intervention réalisée pour une plate-forme logistique pilote équipée du VP et souhaitant, conjointement avec les instances représentatives du personnel, faire une analyse des usages de la technologie, avant d’envisager un déploiement national. Les objectifs de ce projet VP répondaient bien aux trois objectifs précités : améliorer productivité, qualité et ergonomie de l’activité de préparation de commandes. Dans la phase d’analyse détaillée des situations de travail, et après avoir validé avec le comité de pilotage l’hypothèse d’effets en matière de pénibilité physique liée à une augmentation de la cadence, nous avons analysé une chronique d’activité de 30 mn d’un préparateur de commande équipé du voice picking. Il s’agit de la réalisation d’une commande en secteur conserves. Le préparateur Communications MTO’2009 133 reçoit les ordres de picking par la vocale, et se déplace de façon linéaire avec son transcombi d’un hall à l’autre, filme sa palette à deux reprises avant de lancer l’impression des listings. Ces observations permettent de révéler plusieurs éléments qui caractérisent ce que nous appellerons un mode d’hyper rationalisation du processus organisationnel et technique dans lequel s’inscrit l’opérateur observé et auquel il participe : Figure 1 : Chronique de 30 mn d’activité d’un préparateur pour constituer une commande L’activité est extrêmement rythmée, avec un temps de cycle très court de l’ordre de 14 secondes en moyenne depuis la réception de l’instruction jusqu’à la suivante. Le préparateur passe de la conduite, à la descente du transcombi, à la prise d’un colis, à son chargement sur palette, puis à la remontée sur le transcombi en 14 s. Le séquencement entre chaque action est extrêmement rapide et répétitif, de l’ordre d’une poignée de secondes. On observe aussi l’importance du nombre de « prises unitaires » dans la mesure où le regroupement de prise de colis n’est plus possible. En effet, tant que le préparateur n’a pas confirmé la prise de colis en cours, il n’aura pas accès à l’information lui permettant la prise du colis suivant. Cette impossibilité de pouvoir anticiper et organiser son activité est révélée également dans cette chronique au regard du nombre de montées et descentes (78 au total) du transpalette effectuées, alors que nombreux sont les colis qui se situent à proximité les uns des autres. Mais, ne pouvant plus organiser son activité par des regroupements de tâches, le préparateur anticipe l’ordre suivant en montant sur son transpalette, même si c’est pour le déplacer de quelques centimètres. Le nombre accru de montées – descentes du transpalette rythmées par la voix 134 Management des Technologies Organisationnelles : Journées d’Etude 2009 augmente les risques de glissades et de chutes. L’effet « travail main libre » est probablement négativement compensé. La part des aléas est importante. Celle-ci augmente d’autant la pénibilité mentale dans la mesure où l’aléa est vécu comme une perte de temps subie, à la différence des temps de régulation, de prise de souffle, de pauses, décidées par le préparateur. Ici, les aléas sont essentiellement liés aux dysfonctionnements des dispositifs techniques, y compris du système vocal, au matériel et aux produits manquants. Les multiples défauts du système vocal ne peuvent pas être résolus définitivement au fur et à mesure qu’ils se présentent. Les préparateurs doivent alors « gérer » au mieux ces défauts récurrents dans l’attente de modifications éventuelles. En définitive, dans ce cas précis, l’introduction d’une nouvelle technologie apparaît comme l’élément structurant d’une transformation des activités de travail. Dès lors, l’analyse de l’activité des préparateurs de commande permet de mettre en évidence certaines caractéristiques du modèle organisationnel en présence. L’introduction de cette technologie suppose une certaine conception du travail et de l’individu au travail. En visant une rationalité absolue, cela revient à remplacer des méthodes empiriques d’organisation, qui privilégient l’adhésion des individus au travail comme fondement à leur implication, par des principes scientifiquement organisés. Comme le démontre l’activité réelle des préparateurs, en découle une division du travail en éléments simples qui s’enchaînent, impliquant : • une prescription poussée de l’activité de travail : chaque tâche est ordonnée par un système technique qui réduit les marges de manœuvre et n’autorise pas de marges de négociation, ou de façon marginale par des stratégies de contournement. Cette définition des opérations en amont est doublée d’un système de contrôle en aval. • un séquencement d’opérations successives à réaliser : chaque nouvelle tâche nécessite l’achèvement de la précédente. • une spécialisation du travail par la limitation de la variabilité des tâches : l’analyse des processus met en évidence un nombre de tâches très limité en raison du partage du travail entre l’homme et la machine. • une dissociation du faire et du savoir, c’est-à-dire une dissociation de ce qui relève de l’activité de manutention (individu) de ce qui correspond à l’activité de préparation (machine). Elle dépossède incontestablement le savoir ouvrier. Ces évolutions peuvent être considérées d’inspiration taylorienne, car elles mobilisent l’ensemble de ses principes fondateurs que sont la spécialisation du Communications MTO’2009 135 travail, l’allocation et l’imposition des temps de travail, la formalisation des procédés et du contenu du travail et le développement des dispositifs externes de contrôle de travail. Il ne s’agit plus uniquement d’allouer des temps pour effectuer les opérations de travail mais d’en décrire, à travers cette technologie, le contenu. Elles comprennent une volonté nette de structurer les activités de travail, en définissant les décisions à prendre et les actions à mener, mais aussi de normaliser les comportements en imposant les moyens qui doivent être utilisés pour y parvenir. Elles visent précisément la routinisation voire la robotisation des tâches et des comportements et apparaissent comme des réponses adaptées en théorie puisqu’elles sont un moyen de contrôler et de verrouiller les pratiques de travail. Elles donnent le sentiment de réduire les incertitudes et de pouvoir prétendre réduire la prise de risque. C’est donc une certaine représentation du travail qui est mobilisée, au sens d’une « opération », tel que le définit P. Zarifian. Selon lui, cette représentation du travail est celle d’« une forme objectivée que l’on peut décrire, mettre en forme, structurer, organiser, indépendamment de la personne qui réalise cette activité » [2]. Cette forme de rationalisation des activités de travail renoue avec la conception traditionnelle du travail au sein des secteurs de production et se présente, par ailleurs, comme novatrice parce qu’elle est la conséquence de l’application d’une nouvelle technologie. Si ces évolutions sont d’inspiration taylorienne, elles n’autorisent pas, pour autant, à conclure rapidement à l’émergence d’un modèle néo-taylorien dans la mesure où elles interviennent dans un contexte socio-économique avec des enjeux différents, plus nombreux et contradictoires. Dans ce cas, les objectifs ne sont pas uniquement productivistes. Comptent également des critères de qualité et de diversité et de délais, rendant plus complexes les situations de travail. En outre, comme le rappelle P. Zarifian [3], le taylorisme ne demande en rien aux salariés d’adhérer aux finalités de l’entreprise. Or aujourd’hui, l’implication, au sens du dépassement de la relation contractuelle qui suppose un engagement subjectif et se caractérise par un appel à la responsabilité et l’autonomie, tend à s’étendre à toutes les catégories de travailleurs (des cadres aux ouvriers). C’est d’ailleurs là, toute l’ambiguïté d’un système associant des structures et des discours dont les rationalités sont antagonistes. Pour ces deux raisons au moins, il n’est pas permis de parler de néotaylorisme sous peine de dissimuler des évolutions substantielles dans les modèles organisationnels actuels qui posent des questions à la fois sur les conditions de travail et sur la performance de l’entreprise. 136 Management des Technologies Organisationnelles : Journées d’Etude 2009 LES EFFETS SUR LES CONDITIONS DE TRAVAIL ET LA SANTE Nous souhaiterions mettre en évidence de façon factuelle les nouvelles contraintes sociales et humaines induites par un projet centré sur l’implantation technique au détriment d’une orientation par l’usage. Les effets observés sur les conditions de travail montrent, parfois de de façon extrême, les situations de travail auxquelles peut conduire l’hyper rationalisation. L’intensification du travail et l’augmentation de la pénibilité physique et mentale Le préparateur est depuis longtemps reconnu comme potentiellement « exposé » aux risques liés aux ports de charges répétés, aux postures difficiles, mais aussi aux défaillances et aléas qui peuvent contraindre l’activité (chutes et bris de colis, rupture de film pendant filmage, ...). Avec le guidage vocal, la pénibilité physique demeure importante dans la mesure où l’on réalise rarement les aménagements physiques nécessaires comme une mise à hauteur des palettes. Dans le cadre de notre intervention, nous avons pu mettre en évidence que, dans le contexte d’une activité déjà fortement exposée aux facteurs de pénibilité physique, augmenter la productivité du magasin par le voice picking passe par un double mouvement de standardisation et de simplification de l’activité du préparateur sans opérer d’aménagement physique des situations de travail. Les gains de productivité sont obtenus par la réduction du temps de cycle et l’augmentation du nombre de colis portés par jour, qui vont encore accroître les facteurs de pénibilité physique et l’exposition aux risques. À ce titre, l’utilisation d’un histogramme décalé [4] a montré que le renouvellement de la population des préparateurs sur le site avant installation du VP s’opère en 5 années seulement. Le préparateur ne se maintient pas dans l’emploi. Le guidage vocal va donc agir potentiellement sur cette usure professionnelle, à la fois du point de vue de la pénibilité physique, mais également du point de vue de la pénibilité mentale. La pénibilité mentale est liée à plusieurs facteurs : la crainte de ne pas atteindre les quotas, la qualité requise et, plus généralement, à ce que les préparateurs appellent « la routine ». Pour eux, cette notion renvoie à la répétitivité des tâches d’exécution, des procédures, des dysfonctionnements qui retardent leur travail dans un contexte où les marges d’initiatives sont réduites. La déqualification de la tâche et l’arasement du savoir-faire professionnel Il est souvent difficile d’objectiver une évolution négative en matière de mobilisation des fonctions cognitives. Pour ce faire, nous avons mobilisé l’analyse de l’activité couplée à une formalisation issue du monde de l’ingénieur et du conseil en organisation : le logigramme d’activité. Partant de l’activité et du Communications MTO’2009 137 diagramme d’enchaînement des dialogues entre préparateurs et vocale (en tant qu’artefact), nous avons reconstitué un processus de réalisation de l’activité et mis en évidence les activités d’arbitrage ou de choix représentés par un losange (figure 2). Pour l’exposé présent, nous ne nous intéresserons pas au contenu même des activités (difficilement lisible du fait des contraintes de format), mais à l’intérêt de passer par cette forme de représentation pour objectiver le nombre d’activités d’arbitrages (losange) et leur répartition entre l’homme et le système. Le nombre très limité de losanges côté préparateur révèle un processus fortement standardisé qui laisse peu de place à la prise d’initiative et au travail d’organisation. A ce niveau de rationalisation de la tâche, on peut parler d’un effet d’arasement des savoir-faire dans la mesure où les marges de manœuvre sont explicitement exclues du processus, de même que la mobilisation des fonctions cognitives pour anticiper, organiser, et choisir. Ainsi, le préparateur ne peut plus organiser la réalisation d’une « palette bien faite » , réunir des masses pour mieux la stabiliser, organiser ses déplacements pour prendre en une fois plusieurs colis rangés à proximité, réguler avec les caristes pour anticiper une rupture de stock, etc. Figure 2 : logigramme d’activité d’une préparation de commande en 3 phases, avec activités du préparateur (à gauche) et de l’artefact (à droite) En opposition à une conception du travail tel un « événement » au sens de P. Zarifian [5], l’introduction de cette technologie prive le préparateur de son savoir-faire professionnel, et conduit à une déqualification de sa tâche par un appauvrissement du travail de préparation, d’anticipation et d’arbitrage. L’individu est considéré comme interchangeable. Ces activités sont non seulement médiatisées mais également exécutées par la machine, renforçant les 138 Management des Technologies Organisationnelles : Journées d’Etude 2009 caractères traditionnels des « anciens » modèles organisationnels décrits notamment par P. Veltz et P. Zarifian [6] : « La définition analytique des opérations repose non seulement sur un découpage fin en sous - opérations, structurées en gammes opératoires par le bureau des méthodes, mais aussi plus fondamentalement, sur une procédure sociale et cognitive d’objectivation de l’activité. Le travail lui-même est traité comme un objet, séparable des personnes qui le réalisent – ces personnes étant des agents « instructibles » de réalisation efficiente de ces opérations, tel l’ouvrier moyen de Taylor – et donc formalisable sous une forme abstraite qui permet de le pré - organiser de manière logique avant la mise en action en atelier ». Cette évolution soulève donc au moins deux niveaux de questionnement : • Dans la lignée des travaux de E. Loarer [7], il est possible de souligner un appauvrissement et un potentiel vieillissement prématuré des ressources cognitives. Cet auteur démontre qu’il existe un lien entre l’activité de travail et l’évolution des ressources cognitives des individus. Plus précisément, on observe une spécialisation cognitive progressive. Par exemple, à aptitudes initiales équivalentes, la capacité à résoudre des problèmes logiques ou la capacité d’attention sélective (maintenir l’attention sur des tâches répétitives) progressent différemment en fonction du poste tenu. • Dans la lignée des travaux de Y. Clot [8], il est possible de s’interroger sur les effets sur la santé lorsque l’on sait que cette dernière repose sur le sentiment de porter la responsabilité de ses actes. Or, dans cette situation, on crée de fait les conditions d’une amputation du pouvoir d’agir. C’est finalement du côté de l’artefact que se trouvent les activités qui pourraient favoriser l’engagement subjectif. C’est lui qui ordonnance l’activité, relance le préparateur en cas de produits manquants pour qu’ils ne soient pas oubliés dans la commande, transmet l’information d’un manquant aux caristes. Mais quel que soit le niveau élevé de contraintes imposées par le système, les travaux de la physiologie montrent que le cerveau « est une machine proactive qui anticipe les conséquences de ses mouvements et de ceux du monde » [9]. Aussi, plus le système est contraint et plus l’individu doit mobiliser une activité subjective pour réprimer cette activité cognitive spontanée du cerveau.. Une entrave au consensus social Nous avons évoqué précédemment que le système technique se charge désormais de faire circuler l’information entre préparateur et cariste, médiatisant Communications MTO’2009 139 ainsi leurs relations fonctionnelles ainsi que la régulation de leurs activités. Mais on constate aussi que la vocale induit une médiatisation de l’autorité et de la prescription dans la mesure où la communication entre préparateurs et chefs d’équipes s’est largement dégradée. Si les entretiens avec les préparateurs montrent une relation de confiance avec les chefs d’équipes (issus du métier de préparateur), ils révèlent néanmoins que les réunions d’équipes n’existent presque plus : on ne parle plus du travail, alors même que celui-ci est en pleine mutation depuis la mise en place du guidage vocal. L’analyse de l’activité des chefs d’équipes montrera que celle-ci est passée du soutien direct aux équipes à un management à distance sur la base des reportings édités en temps réel par le progiciel de gestion couplé à la vocale. Par ailleurs, le voice picking met fin à l’étape de « dispatching » des commandes, autrefois réalisé par un collaborateur et qui constituait un espace de régulation important. L’un des premiers effets de l’intervention ergonomique sera la mise en place d’espaces de discussion et d’accord sur le travail tous les matins entre chefs d’équipes préparateurs et caristes. L’accord contribue à rendre supportable une situation. Ici, l’échange, la négociation et la confiance se voient remplacés par une standardisation des interactions techniques et donc relationnelles [10]. Or, pour les rendre supportables, les décisions doivent résulter d’un échange social producteur d’un consensus de composition. Elles sont ainsi contextuelles et personnalisées et peuvent faire l’objet d’une adhésion. En effet, « la négociation, avec son donnant-donnant et ses discussions contradictoires est le meilleur garant de la légitimité d’une solution. Ce qui définit une solution comme juste et bonne, c’est qu’elle a été adoptée après négociation » [11]. LES EFFETS A NUANCER SUR LA PERFORMANCE ORGANISATIONNELLE En plus des nouvelles contraintes sociales et humaines induites par le VP, on peut s’interroger sur l’efficacité d’un système inflexible et producteur d’effets pervers sur la performance de l’organisation. En effet, si l’objectif d’une organisation équipée du VP est bien une amélioration de la productivité et de la qualité, son caractère contraignant, décrit précédemment, induit des effets contre - performants. La présence et le rôle des contournements d’usage L’analyse de l’activité met en évidence des contournements d’usages, des catachrèses [12] significatives du besoin du préparateur de reprendre la main sur le système. Par exemple, la présence de papier sur le transcombi révèle une 140 Management des Technologies Organisationnelles : Journées d’Etude 2009 astuce mise en place pour contourner le système lors de l’apparition d’un manquant et s’exonérer des relances du système, s’exonérer également d’une situation de dépendance à l’information détenue par celui-ci. En notant sur un papier les codes liés à un produit manquant (dont le code détrompeur inscrit sur le rack correspondant), le préparateur peut librement lui dire qu’il a ou non chargé le produit, et décider de lui-même quand revenir récupérer le produit manquant. Plusieurs effets négatifs sont induits par ce contournement ; du point de vue de l’approvisionnement, cela ne permet plus l’information du cariste (qui passe désormais par le système) et augmente donc le risque de rupture de stocks ; du point de vue de la qualité, le préparateur peut préférer laisser partir une palette avec un produit manquant pour pouvoir passer plus vite à la commande suivante sans avoir à attendre l’arrivée du produit manquant. Face à un système contraint qui empêche, on va mobiliser son activité pour empêcher ce qui s’élève spontanément en termes d’activité cognitive et de mobilisation subjective. Mais cette situation a ses limites. Cette dynamique psychique va aussi se réinvestir dans des biais détournés comme la catachrèse qui traduit une volonté du préparateur de reprendre la main sur le système. Comme indiqué en partie 1, il peut également saisir de maigres espaces d’anticipation et remonter sur le transcombi avant d’avoir la localisation suivante : mouvement qui est signe d’une tension vers l’avenir (cit Berthoz). Mais cette anticipation suivie d’un mouvement systématique de remonter, conduite et redescente du transcombi (parfois pour 1 mètre parcouru) augmente encore le risque de chute et n’optimise pas les déplacements. Enfin, pour trouver un espace de développement dans le travail, il faut également pouvoir y mettre de soi, bien que la rigidité du VP rappelle sans cesse au salarié que son travail ne lui appartient pas. Face à cette contradiction, les catachrèses observées sont vraisemblablement à comprendre au sens d’une ruse des préparateurs pour défendre et construire leur santé (P.Davezies, A.Deveaux et C.Torres). La modification de l’ordonnancement et son effet sur la coopération Le voice picking impose un dimensionnement maximum de la commande (deux palettes), alors qu’auparavant le préparateur recevait un ordre de commande complet concernant un magasin (jusqu'à 12 palettes), ce qui lui permettait d’organiser son activité en conséquence. Une commande complète présentait l’avantage d’être composée de sousensembles favorables à l’atteinte d’une productivité (grand volume unitaire d’un seul produit) et défavorables (nombreux colis unitaires souvent présents en fin de commande). Une commande de magasin est maintenant scindée en lots de Communications MTO’2009 141 commandes de 2 palettes maximum qui sont répartis de façon aléatoire vers les préparateurs (principe d’équité mis en avant face à un dispaching qui pouvait induire du favoritisme). Mais, là encore, une stratégie de contournement consiste à observer la nature des commandes récupérées par ses collègues et éviter de se connecter à la vocale au moment où le risque d’obtenir une fin de commande (avec de nombreux colis unitaires) est important. Cette stratégie qui, du point de vue de la santé, permet de trouver un espace d’anticipation, va progressivement nuire à la coopération, en installant un climat de méfiance. Du point de vue des coûts de transaction, ce nouvel ordonnancement augmente le nombre de fois où le préparateur doit passer à l’étape d’impression des étiquettes, à chaque fin de commande, donc toutes les 2 palettes. Or, cette étape est source de nombreux aléas liés au dysfonctionnement des imprimantes. En cas de panne de l’une, on peut se déporter vers les autres. La perte de temps est conséquente (cf. chronique d’activité, 15 % du temps) et pourrait être réduite si le préparateur, dans une logique de coopération, signalait immédiatement le dysfonctionnement au chef d’équipe. Malheureusement, il est désormais exceptionnel qu’un préparateur prenne la minute nécessaire pour avertir celui-ci et éviter au fil de l’eau que toutes les imprimantes ne dysfonctionnent, car moins nombreuses et sur-sollicitées. En d’autres termes, ces effets sont suscités par le système. Cette forme de rationalisation mobilise une rationalité instrumentale qui atteint son paroxysme et, ce faisant, produit des effets contre-productifs. CONCLUSION Ce processus de rationalisation procède d’un certain technicisme. Selon la définition qu’en donne J. Habermas [13], le technicisme fait référence à une volonté de « faire fonctionner le savoir scientifique et plus encore la technique qui en est l’application en tant qu’idéologie et en attendre des solutions pour la totalité des problèmes qui se posent ». En l’espèce, la technique, en tant que modèle structuré, rationnel, avec tout ce qu’il suppose de rigueur, devient un modèle à transposer dans les différentes sphères de l’entreprise : les modes de fonctionnement, les pratiques de travail, les modes d’expression. L’auteur souligne également que le propre du technicisme est de se présenter comme étant sans alternative. Dès lors, l’introduction de cette nouvelle technologie et l’organisation du travail qui en découle apparaissent en rupture avec les modèles organisationnels qui émergent dans les années 1990, fondés sur l’implication et l’autonomie. Le mode de coordination majeur des activités n’est pas l’ajustement mutuel mais bien une standardisation des activités de travail par la technologie. Pour autant, 142 Management des Technologies Organisationnelles : Journées d’Etude 2009 nous faisons l’hypothèse qu’il n’est pas possible non plus de parler de taylorisme en raison notamment : • de la diversité des enjeux économiques (productivité, qualité, etc.) auxquels ce processus de rationalisation cherche à faire face. • de la nature des relations hiérarchiques (médiatisation de l’autorité par l’outil qui donne le sentiment d’objectiver, mais qui, en fait, déconnecte les prescriptions de la réalité des situations vécues). • et du développement d’injonctions contradictoires (entre, d’une part, le discours de l’implication et, d’autre part, la dépossession du savoir-faire et l’élimination des tâches de réflexion par exemple). Selon nous, parler de taylorisme aurait pour effet de dissimuler que, plus que la pénibilité physique, ces évolutions font de la pénibilité mentale l’enjeu majeur. Enfin, à travers ce cas, on voit bien l’intérêt d’une approche interdisciplinaire pour mesurer l’ampleur des changements occasionnés par l’introduction de cette nouvelle technologie. NOTES [1] Le guidage vocal consiste à équiper d’un casque (écouteur et micro) le préparateur de commande afin qu’il puisse recevoir directement, via une voix de synthèse, les ordres de commandes à réaliser, et de son côté, confirmer au système sa position par un code détrompeur et valider les chargements réalisés, via un système de reconnaissance vocale. [2] Zarifian (1995), p 12. [3] Zarifian, ibid. [4] Comparaison de la pyramide des âges actuelle avec celle de la population de 2002 vieillie artificiellement de 5 années. [5] C’est-à-dire comme ponctué de circonstances, de « situations auxquelles les acteurs sont capables de donner un sens, non pas défini une fois pour toutes, mais relatif aux finalités poursuivies et aux arbitrages entre ces finalités », Zarifian (1995). [6] Veltz, Zarfian (1993). [7] Loarer (2008). [8] Clot (2008). [9] Davezies, Devaux, Torres (2006). [10] Luhmann (2006), p. 17 : il ne faut pas « s’attendre à ce que le progrès de la civilisation technico-scientifique puisse permettre un contrôle des événements et remplacer la confiance en tant que mécanisme social par une maîtrise des choses qui la rendrait superflue. On devra plutôt prendre en compte le fait qu’il faudra de plus en plus faire appel à la confiance afin que l’on puisse supporter la complexité de l’avenir engendrée par la technique ». [11] Reynaud (1997), p 112. Communications MTO’2009 143 [12] Terme emprunté à JM Faverge (1970). Il sert à désigner l’utilisation informelle d’un outil formel ou l’élaboration d’un outil informel dans les situations de travail. La catachrèse ou contournement d’usage peut permettre une construction de ressources pour l’action du point de vue de l’usager. C’est le cas ici dans la mesure où l’usage détourné du système avec le papier permet de redévelopper de l’autonomie. [13] Habermas (1968). REFERENCES BIBLIOGRAPHIQUES Berthoz A. (1997), Le sens du mouvement, Paris, Odile Jacob. Clot Y. (2008), Travail et pouvoir d’agir, Paris, Le travail humain. Davezies. P., Devaux. A., Torres. C., (2006), Repères pour une clinique médicale du travail, Archives des Maladies Professionnelles et de l’environnement, pp.119-125. Habermas J. (1968), La technique et la science comme idéologie, Mesnil-sur-l’Estée, Gallimard, 1968 Loarer E. (2008), Communication au Comité scientifique Gestion des Ages, ANACT. Luhmann N. (2006), La confiance, Paris, Economica. Reynaud J.D. (1997), Les règles du jeu, Armand Colin. Veltz P., Zarifian P. (1993), « Vers de nouveaux modèles d’organisation ? », Sociologie du travail, N°1/93. Zarifian P. (1995), Le travail et l’événement, Paris, L’harmattan. 144 Management des Technologies Organisationnelles : Journées d’Etude 2009 Communications MTO’2009 145 Comment aligner l’outil de gestion d’une PME sur sa stratégie ? Marie-Françoise COMBAZ Consultante MFC Consultant / Clapiers RESUME La mise en œuvre d’un nouvel outil informatique de gestion dans une PME doit servir la stratégie de l’entreprise qui en reste le fil conducteur. Cependant, de nombreux projets sont abordés selon un axe prioritaire comme la description des processus, le travail sur ce qui est perçu comme les spécificités de l’entreprise, la description des besoins des utilisateurs. Ces méthodes permettent d’entrer dans le vif du sujet, en particulier dans les cas où la stratégie de la direction n’est pas totalement formalisée, parfois même mal définie, et où le besoin de nouveaux outils de gestion semble évident d’un point de vue opérationnel. Comment, dans ces cas, intégrer malgré tout une dimension stratégique au projet ? A partir de l’analyse de cas réels, nous proposerons une piste pour aborder de manière pragmatique un projet tout en l’insérant dans la stratégie de l’entreprise. INTRODUCTION Le logiciel de gestion, outil au service de la stratégie La première hypothèse retenue dans la réflexion présentée est que l’alignement stratégique doit être le fil conducteur d’un projet d’évolution de l’outil informatique de gestion d’une entreprise. 146 Management des Technologies Organisationnelles : Journées d’Etude 2009 L’alignement stratégique de l’ERP*, et plus largement du SI*, est une condition indispensable pour pérenniser l’investissement que représente le projet, et le transformer en véritable outil au service de la stratégie. Décliner la stratégie* de l’entreprise permet de prendre des décisions concernant les orientations du SI, d’avoir une vision globale des conséquences sur la gestion et l’organisation de l’entreprise, de caractériser les priorités. Il existe un autre lien entre stratégie et SI. Une définition pragmatique de la stratégie d’une entreprise, c’est « l’ensemble des décisions » qui : • Détermine les objectifs de l’entreprise • Engendre les principaux plans pour les atteindre • Définit les domaines d’activité • Induit les choix d’organisation • Fixe les contributions de l’entreprise à son environnement » La pratique s’est totalement répandue d’associer à des objectifs des indicateurs qui permettent de suivre l’activité et vérifier qu’on se rapproche bien des objectifs fixés. Or, un logiciel de gestion manipule des données à partir desquelles ont peut construire des indicateurs chiffrés de l’activité, il serait dommage de s’en priver. Enfin, élaborer une stratégie, l’exprimer et la traduire en objectifs, indicateurs, projets, cela nécessite une réflexion approfondie et cela prend du temps. Première particularité de la PME* : projet complexe et limite des moyens Comme pour toute entreprise, le SI de la PME doit lui permettre de mieux gérer l’ensemble de ses activités et ses relations avec les partenaires externes. Aller vers un système intégré s’appuyant sur une base de données unique et accessible pour tous est un argument majeur d’efficacité. Il en résulte qu’un projet d’évolution du SI travaille sur un système complexe* : multiplicité des acteurs, multiplicité des champs d’application, multiplicité des informations, multiplicité des enjeux, multiplicité des contraintes, approche qui doit être à la fois organisationnelle, technique, économique et sociale, interférences multiples entre ces données et présence systématique d’incompatibilités. Parallèlement, l’équipe qui pilote la PME est souvent directement impliquée dans l’opérationnel, elle ne dispose pas toujours du temps et de la disponibilité d’esprit nécessaires pour prendre du recul par rapport à l’activité, élaborer une stratégie sur le moyen ou long terme et la décliner en projets structurés. Communications MTO’2009 147 L’analyse de plusieurs dizaines de demandes d’intervention en PME pour la mise en place d’outils de gestion, soit en tant que conseil, soit en tant qu’expert auprès des DRIRE dans le cadre de programmes d’accompagnement des projets de PME, montre que majoritairement, le besoin opérationnel est le moteur, la priorité annoncée, parfois pour un délai très court. Ce n’est généralement que dans un second temps que le besoin de servir la stratégie est abordé, principalement quand la question est posée de l’extérieur. Deuxième particularité de la PME : une stratégie d’adaptation Si certaines directions de PME ont une vision claire de leur stratégie, nombre de PME, et en particulier de micro-entreprise* ont un métier, et une obligation de survivre dans un marché concurrentiel, mouvant en particulier en temps de crise, où l’innovation est un moteur important de la croissance. Leur stratégie est en partie imposée par leur environnement, les décisions concernent souvent des ajustements par rapport à la pratique précédente. Si une stratégie à long terme ne peut être décrite, c’est le besoin d’adaptation permanente qui constitue une caractéristique à intégrer dans la construction d’un SI. Comment intégrer la vision stratégique à un projet SI dans une petite PME ? Intégrer la vision stratégique est à la fois indispensable et une nécessité évidente du fait même de l’utilisation possible des informations gérées. Parallèlement, cette approche ne semble pas prioritaire à la direction d’une petite PME, souvent préoccupée par l’opérationnel, soumise aux aléas du marché, disposant de peu de disponibilité de temps, d’esprit et de moyens financiers pour aborder le projet. Quelles approches sont-elles donc possibles pour que le SI soit pérenne et que le projet dans son ensemble non seulement serve la stratégie, mais permette si possible de la préciser, et en soit une première application ? Ce sont des questions que peuvent se poser le dirigeant, le DSI*, mais aussi le consultant appelé pour un accompagnement au pilotage du projet. CONSTRUIRE UN PROJET SI DE GESTION EN PME : THEORIE OU PRAGMATISME ? Rédiger un cahier des charges L’objectif est de définir parfaitement le besoin de l’entreprise et le cadre dans lequel il s’insère (objectifs, contraintes, moyens) afin de construire ensuite une solution réellement adaptée, optimisant la création de valeur. 148 Management des Technologies Organisationnelles : Journées d’Etude 2009 La méthode préconisée pour la rédaction d’un cahier des charges fonctionnel s’applique aussi bien à la réalisation d’une nouvelle application informatique qu’au choix d’outils standards et paramétrables du marché. L’étude des besoins donnera lieu à un cahier des charges fonctionnel, qui se distingue d’un cahier des spécifications techniques en cela qu’il n’augure pas des solutions qui pourront être choisies : il présente les besoins du point de vue de l’utilisateur. La norme NF X50-151 revue en septembre 2007 qui présente les conditions et contenus d’un cahier des charges fonctionnel intègre la « définition des éléments stratégiques » au même niveau que la définition globale et la consolidation des besoins. Cependant, même si les cahiers des charges se présentant comme des listes de fonctions ont quasiment disparu, les cahiers des charges intègrent rarement l’ensemble des aspects proposés par la norme. Les raisons en sont certainement le manque de temps, de moyens et de compétences. Un autre aspect est à prendre en compte : l’évolutivité de la demande, très fréquente dans un projet mené par une PME. Nous notons 2 raisons à cela, complémentaires : • La demande n’est pas alignée sur des objectifs stratégiques, mais sur un besoin opérationnel plus facilement lié à des objectifs à court terme qui évoluent avec la vie de l’entreprise ; • La méconnaissance (relative, mais fréquente) des possibilités des outils de gestion proposés sur le marché, qui fait que la réflexion est finalisée lors de l’étude des solutions proposées en réponse au cahier des charges. Aller droit à l’essentiel Devant ces difficultés, plusieurs méthodes très pragmatiques sont utilisées, chacune avec son intérêt et ses limites. Décrire les processus L’accent est alors mis sur l’aspect organisationnel d’un renouvellement des outils informatiques de gestion. projet de La démarche est intéressante en cela qu’elle permet de poser de nombreuses questions : • La description des processus existants doit être complétée par une étude des améliorations possibles du fait de l’installation de nouveaux outils informatiques ; Communications MTO’2009 • • 149 Décrire un processus, c’est donner un certain nombre d’informations sur chaque étape : quelles sont les plus pertinentes ? La démarche favorise une approche transversale, il est alors important de monter des équipes représentant les différents services et directement chargés de la réalisation. La question de l’objectif de chaque processus est en principe présente, mais il existe cependant un risque de ne pas se poser celle de sa pertinence dans le cadre d’une évolution globale des processus de l’entreprise, et dans le cadre d’une stratégie définie. Analyser les spécificités Tous les ERP et autres produits associés proposent aujourd’hui des modules et fonctions semblables dans les grandes lignes et répondant, a-t-on coutume de dire, à 80% des besoins des entreprises. Le choix se fait donc sur : • Le prix, • La qualité de l’installateur, sa connaissance du métier, • La capacité à traiter les spécificités • L’ergonomie, qui doit être adaptée (ou adaptable) au métier et aux attentes. On peut donc quasiment formuler la demande uniquement sur ces spécificités, par exemple sous la forme d’un jeu d’essai. Cette méthode est intéressante car elle est rapide, et elle ne demande pas un temps de réflexion important : les personnels sont sollicités principalement pour restituer ce qu’ils font déjà, avec leurs outils habituels. La solution devra calquer ce fonctionnement. Dans ce cas, la méthode n’intègre pas obligatoirement une réflexion sur l’alignement stratégique, elle peut même en détourner le regard. Maquettage Cette méthode est issue du Rapid Application Development : elle consiste à réaliser un prototypage basé sur la définition des écrans souhaités. Elle peut venir compléter les 2 démarches présentées précédemment. Le formalisme est très visuel, rapide à comprendre, et permet une implication forte des futurs utilisateurs qui adopteront sans problème les nouveaux outils mis à leur disposition puisqu’ils ont participé à la conception. 150 Management des Technologies Organisationnelles : Journées d’Etude 2009 Là encore, la méthode n’intègre pas obligatoirement une réflexion sur l’alignement stratégique et peut même en détourner le regard. COMMENT TRADUIRE LA STRATEGIE EN OUTIL DE PILOTAGE ? La prédominance des budgets Une analyse de l’utilisation des budgets dans des organisations publiques ou privées est effectuée par P. Jaulent et M.-A. Quarès : « Aujourd’hui encore, le management s’effectue principalement à partir du budget idéal dans un monde où le changement serait un processus lent et progressif, ce qui n’est plus vrai ». Ils citent plusieurs problèmes liés à cette utilisation du budget comme outil de pilotage et de suivi : • « le processus budgétaire gèle un budget de fonctionnement pour l’année, … • Le processus budgétaire est beaucoup trop long et consomme trop de ressources. … • Le processus budgétaire est essentiellement basé sur des indicateurs financiers en favorisant la gestion des dépenses (…) au lieu de se centrer sur ce qui devrait être fait, • Le processus budgétaire est construit d’un point de vue fonctionnel alors que les ressources sont consommées par les processus qui enjambent les frontières fonctionnelles de l’organisation, • Le budget couvre une période trop courte pour la stratégie … » La Balanced Scorecard La Balanced Scorecard a évolué au cours de la deuxième moitié du 20ème siècle et jusqu’en ce début de 21ème siècle. Cette méthode de référence associe une carte des priorités stratégiques présentant des objectifs clairs à des indicateurs associés permettant de mesurer l’avancée vers les objectifs définis. P. Jaulent et M.-A. Quarès proposent dans leur Modèle Triple Impact de visualiser et analyser les liens entre les différents niveaux d’objectifs et les indicateurs associés afin de mettre en évidence la progression du déroulement de la stratégie et les liens de causalité. Ils proposent de regarder l’effet de la stratégie proposée en regardant l’impact qu’elle aura : impact immédiat, impact intermédiaire, impact ultime. Ces outils demandent de prendre le temps de l’approfondissement, de l’abstraction, puis de la déclinaison dans les différents métiers de l’entreprise pour élaborer des plans d’actions, concevoir la mise en œuvre, en suivre Communications MTO’2009 151 l’avancement et l’orientation. Le SI peut alors prendre sa place dans un ensemble cohérent … à la fin de la réflexion. La démarche est très satisfaisante mais une petite PME n’en a généralement ni le temps, ni les outils et parfois pas les compétences. Objectifs et indicateurs Si l’on revient à la définition de la stratégie on pourra dire que la stratégie s’exprime avant tout par un ou plusieurs objectifs stratégiques, eux-mêmes déclinés en objectifs opérationnels qui orienteront la construction d’un plan d’actions. La définition d’indicateurs permet de caractériser la situation de départ, préciser la situation d’arrivée souhaitée et, éventuellement, les étapes intermédiaires. Les indicateurs peuvent être de différents types (d’efficacité ou d’efficience, de risque, de mesure de l’impact ou du résultat), mais il est important qu’ils soient pertinents, c’est à dire qu’ils donnent réellement la mesure de ce que l’on veut évaluer, et si possible qu’ils permettent de lancer les actions correctives en cas de dérive. De ce fait, les indicateurs financiers ne sont pas obligatoirement les plus appropriés. Le choix des indicateurs est d’autant plus délicat qu’il est important. Afin de favoriser une réflexion stratégique préalable à un projet SI dans les PME qui sollicitaient une aide financière pour le mener à bien (procédure ATOUT LOGIC), l’état a, pendant des années, demandé à la direction de ces PME de définir 3 objectifs, associés à 3 indicateurs de performance. Afin d’être très pragmatique, une liste d’objectifs et d’indicateurs associés était proposée. Notre constatation est contrastée : • Cette procédure imposée avait le mérite de faire réfléchir à l’objectif poursuivi avant d’aborder la question de la solution envisagée ; • Cependant, les objectifs proposés étaient principalement de type opérationnel (réduire les coûts de revient, réduire les délais de facturation, diminuer le taux de rebut, …) mélangés à quelques objectifs plus directement liés à la stratégie (aller vers une certification ISO) ; • La réflexion était menée avant le début du projet pour l’élaboration du dossier qui était souvent par le consultant hors mission sans avoir obligatoirement le temps d’approfondir ; • Le suivi de ces objectifs et indicateurs n’était pas toujours assurés en cours et fin de projet. 152 Management des Technologies Organisationnelles : Journées d’Etude 2009 COMMENT PARLER STRATEGIE ? Quelques exemples riches d’enseignements Tous les cas étudiés ont été abordés en 2 étapes : une étude de faisabilité qui a précédé une étape de réalisation du projet d’évolution du SI. Travailler sur les tableaux de bord « Un tableau de bord est un document rassemblant des indicateurs financiers et économiques d'une entreprise » (http://definition.actufinance.fr/). Une entreprise d’environ 900 personnes souhaite renouveler son SI et le centrer sur un ERP standard du marché. Deux démarches sont menées en parallèle : • La description et une réflexion sur l’optimisation des processus réalisées directement par le personnel concerné ; • L’analyse des besoins, et en particulier celui de tableaux de bord pour la direction. • On constate : • Une forte mobilisation du personnel : pour la première fois semble-t-il, ce travail réunit des personnels de différents services sur la question de l’organisation du travail et met l’accent sur la transversalité de certains processus ; cette approche va permettre d’envisager des solutions globales nettement plus efficaces ; • Une grande difficulté à obtenir de la direction les tableaux de bord souhaités, et parfois même ceux utilisés, visiblement par manque de temps ; • Les premières réponses viennent de la direction financière et de la direction commerciale, mais mettent en évidence une difficulté à travailler sur une définition commune d’une information aussi essentielle que le chiffre d’affaire mensuel : là encore, un travail en commun s’avère nécessaire. Dans une autre entreprise d’une centaine de personnes, chaque directeur de service fait la demande d’au moins une dizaine de tableaux de bord. Un travail important sera fait pour analyser la construction de chacun, et en dégager l’intérêt et les points communs afin d’en réduire le nombre global. La présence d’informaticiens dans l’entreprise fait que rapidement, les nouvelles demandes pleuvent. Communications MTO’2009 153 Ce phénomène, très habituel, peut être rapproché d’un autre : Tout ERP propose des dizaines, voire des centaines de tableaux de bord plus ou moins standards ; or la direction veut créer ses propres tableaux de bord, présentant les informations (souvent les mêmes que dans les tableaux de bord proposés) de manière personnalisée. Il semble que ce soit le reflet des difficultés rencontrées par la Direction pour prendre le temps de réfléchir aux informations significatives de l’évolution de l’entreprise, réflexion qui n’a pas toujours été menée à son terme auparavant, et en même temps de la conscience que travailler sur un tableau de bord, travail très pragmatique en fait, va l’aider à se poser les bonnes questions et qu’il est donc souhaitable de faire, enfin, cette démarche d’approfondissement. Commencer par l’architecture technique, reflet de la politique générale de communication Un groupe implanté dans plusieurs pays souhaite renouveler l’ERP du siège et l’implanter dans d’autres entreprises du groupe. 1er essai : Le consultant réalise une cartographie des processus, Les employés d’une des unités de production sont très inquiets, estimant que les spécificités de leur métier ne sont pas prises en compte et que les processus, décrits de manière très synthétique par le consultant, ne reflètent pas la complexité des informations qu’ils manipulent et de leur travail. Ils réalisent un cahier des charges de leurs spécificités. Blocage du projet. 2ème essai : Un autre consultant commence par étudier l’aspect technique du projet. Pour ce faire, il étudie les communications entre les entreprises du groupe et leurs partenaires. Automatiquement, se posent les questions sur l’évolution de ces communications, en lien direct avec la stratégie élaborée par la direction du groupe. Le pilotage par une équipe projet « incompétente » Une association de soins à domicile d’une centaine de personnes souhaite déployer dans les différents services et établissements le logiciel de gestion utilisé par les services administratifs, mais disposant de fonctionnalités pour gérer l’activité métier. La conscience est forte que l’impact sur les personnels soignants risque d’être important. La décision est donc prise de mettre l’accent sur la sécurisation des parcours professionnels des personnels en leur apportant des compétences nécessitées par l’évolution incontournable des méthodes et outils de gestion de leurs 154 Management des Technologies Organisationnelles : Journées d’Etude 2009 prestations. Une équipe pilote est montée, qui réunit des personnels soignants et administratifs. Elle sera formée au pilotage du projet. Le premier sujet abordé en formation est celui de l’alignement stratégique du projet. Un travail pratique fait ressortir : • Une liste d’objectifs soit stratégiques, soit opérationnels et des indicateurs associés ; • Qu’à partir de ces objectifs, il a été facile de poser la question de leur signification commune, de l’orientation qu’ils donnaient à la structure ; • Et que la réponse a parfaitement défini une orientation stratégique sur le long terme, le projet d’évolution du SI prenant sa place dans une démarche plus globale. En fin de formation, les personnels demandent que soit prolongée la formation afin d’approfondir les notions d’indicateurs (et en particulier apprendre à les suivre), de risques, et de communication interne et externe sur un projet : le message est bien passé. Quelles pistes retenir pour garantir l’alignement stratégique d’un projet SI en PME ? Chaque méthode présentée comporte des avantages et inconvénients. La démarche descendante qui consiste à élaborer une stratégie, puis en déduire des objectifs opérationnels et indicateurs associés, puis définir les besoins, puis étudier les moyens à mettre en œuvre est parfois mal perçue, trop longue, en particulier pour une petite PME, ou à plus forte raison une microentreprise. Ce sentiment est conforté par l’adaptation souvent permanente de la stratégie à l’environnement qui empêche d’avoir des lignes directrices « évidentes » rapides à préciser. Les autres approches offrent une vision partielle du problème, et n’intègrent pas a priori l’approche stratégique. Des lignes directrices Il semble cependant possible de retenir quelques lignes directrices : • Parler stratégie, c’est avant tout parler objectifs et indicateurs ; • La stratégie, c’est l’affaire de tous : d’une part parce que son application aura des conséquences sur le travail de chacun, mais aussi parce que tout le monde doit y adhérer et comprendre en quoi son travail sert la stratégie de l’entreprise ; de plus, en particulier dans une petite PME, Communications MTO’2009 • • • • 155 l’expérience de chacun peut être utile pour construire une stratégie adaptée et viable ; Faire évoluer un SI, c’est aborder une multiplicité de questions, il faut à la fois en avoir conscience mais aussi avoir conscience qu’on ne pourra tout faire : des choix seront nécessaires ; La mise en œuvre d’un nouveau SI crée des modifications multiples dans l’organisation du travail, et préparer le changement impose d’impliquer les personnels ; Si l’approche doit souvent répondre rapidement à des soucis d’ordre opérationnel, il existe de multiples manières d’aborder la question de la stratégie ; Et si la stratégie n’est pas explicitement définie, elle est souvent latente, et des lignes directrices peuvent facilement émerger d’une réflexion bien menée. Lors d’un projet d’évolution d’un SI, il semble donc possible d’aborder la question de la stratégie non seulement avec la direction, mais également avec des équipes impliquées. Quelles entrées ? Elles sont en fait multiples. Dans certains cas, l’approche frontale par la définition des objectifs peut être comprise, et même être rapide. Dans d’autres cas, on peut privilégier une approche détournée à condition d’avoir la volonté de s’appuyer sur une réflexion pour aborder la question des objectifs à long terme, et resituer les réponses dans le cadre d’une stratégie générale. Pour cette approche détournée, les points d’entrée sont multiples : • L’analyse et l’optimisation des processus pose la question de leur résultat, et de la transversalité du processus ; • L’analyse des spécificités permet de poser la question de l’intérêt, de la réalité et de l’avenir des spécificités par rapport à la concurrence ; • La construction de tableaux de bords pose la question des informations significatives de l’activité et de son évolution ; • La construction de l’architecture du SI doit permettre une communication optimale en interne et avec les partenaires et pose la question du positionnement sur le marché ; • La définition de critères de choix de la solution pose la question de ce qui est essentiel pour les années à venir ; • Etc. 156 Management des Technologies Organisationnelles : Journées d’Etude 2009 On constate donc que l’essentiel n’est peut-être pas la méthode, les outils que l’on va utiliser, mais plutôt la conscience et la volonté d’avoir une approche globale de la définition du SI. Par où commencer, comment procéder ? Il semble donc essentiel de construire une méthode adaptée à l’entreprise, à ses préoccupations, à ses capacités. Un pré-diagnostic permet : • D’analyser le contexte : • la maturité de la réflexion, • les problèmes opérationnels immédiats, • l’organisation, les compétences, les jeux de pouvoir, tout ce qui caractérise la communication interne, • les disponibilités, • etc. • De sélectionner les axes de travail prioritaires et de construire le plan d’action. La rédaction d’un cahier des charges fonctionnel qui soit un reflet complet de la stratégie et intègre le contexte, les enjeux, les moyens, … est parfois difficile à réaliser dans les délais imposés par le besoin opérationnel. Cela n’a pas obligatoirement d’importance à condition : • De considérer le cahier des charges comme un dossier de consultation pour la recherche des solutions techniques et partenaires ; il intègre les informations nécessaires à une bonne compréhension par ces derniers ; il aura une triple fonction : • construction de la solution, • chiffrage, • après d’éventuels compléments, il devient contractuel ; • De consigner dans un document à usage interne (Schéma Directeur Informatique et de Communication) l’ensemble des réflexions menées avec l’entreprise pour situer le projet dans le cadre de sa stratégie, et l’aider à dérouler son plan d’action au-delà des premières étapes. La valeur ajoutée du consultant Dans un projet d’évolution du SI d’une PME, le consultant est souvent attendu pour : • L’organisation du projet, • Un apport méthodologique, Communications MTO’2009 • • 157 Une connaissance technique, La charge de travail qu’il assume. Au-delà de ces attentes habituelles, on peut se demander si l’apport du consultant n’est pas bien sûr de savoir construire et accompagner un projet avec toute la rigueur attendue et répondre aux objectifs fixés, mais également d’aider l’entreprise à créer une vraie dynamique pour définir sa stratégie et l’appliquer. Ce qu’on sous-entend peut-être lorsqu’on dit que le consultant « a un regard extérieur », « aide à prendre du recul ». CONCLUSION Pour mener à bien un projet d’évolution du SI, on dispose d’outils, on sait les passages obligés, mais il est souvent difficile d’aller au bout des questions soulevées, en particulier en PME ou micro-entreprise. Le sentiment de survoler des questions importantes est inéluctable car lié à la nécessité d’aller vite malgré la complexité et la transversalité du projet. Cependant, un pré-diagnostic doit permettre de caractériser ce qu’est l’enjeu essentiel du projet et permettre de définir une tactique pour passer par les passages obligés habituels, mais également pour aborder les questions essentielles liées à la construction de l’avenir de l’entreprise. Ces questions ne seront certainement pas totalement approfondies, mais elles doivent être posées, la réflexion doit être ouverte. Le consultant en charge d’un projet de renouvellement du SI n’est pas toujours mandaté pour cette démarche, il peut même savoir qu’elle ne serait pas souhaitée. S’il est cependant persuadé de son importance, aura-t-il d’autre solution que d’utiliser la ruse ? LEXIQUE DRIRE : Direction Régionale de l’Industrie, de la Recherche et de l’Environnement DSI : Direction (ou Directeur) des Systèmes d’Information d’une entreprise. ERP : Outil informatique permettant la gestion informatisée des principales fonctions de gestion de l’entreprise, en s’appuyant sur une base de données unique garantissant l’unicité des données et la mise à jour en temps réel. PME : Petite et Moyenne Entreprise • « Les micro, petites ou moyennes entreprises sont définies en fonction de leur effectif et de leur chiffre d'affaires ou de leur bilan total annuel. 158 Management des Technologies Organisationnelles : Journées d’Etude 2009 • Une moyenne entreprise est définie comme une entreprise dont l'effectif est inférieur à 250 personnes et dont le chiffre d'affaires n'excède pas 50 millions d'euros ou dont le total du bilan annuel n'excède pas 43 millions d'euros. • Une petite entreprise est définie comme une entreprise dont l'effectif est inférieur à 50 personnes et dont le chiffre d'affaires ou le total du bilan annuel n'excède pas 10 millions d'euros. • Une microentreprise est définie comme une entreprise dont l'effectif est inférieur à 10 personnes et dont le chiffre d'affaires ou le total du bilan annuel n'excède pas 2 millions d'euros. » • http://europa.eu/legislation_summaries/enterprise/business_environment/n26026_fr.h tm SI : Système d’Information. • « Un système d'information () représente l'ensemble des éléments participant à la gestion, au stockage, au traitement, au transport et à la diffusion de l'information au sein d'une organisation. » • Un S.I est un réseau complexe de relations structurées où interviennent hommes, machines et procédures qui a pour but d’engendrer des flux ordonnés d’informations pertinentes provenant de différentes sources et destinées à servir de base aux décisions » selon Hugues Angot. • http://fr.wikipedia.org/wiki/Syst%C3%A8me_d%27information Stratégie d’entreprise « Pilotage des modifications des relations du système entreprise avec son environnement et de la frontière de ce système avec ce qui n'est pas lui. » Harry Igor Ansoff, Corporate strategy, 1965. Système complexe «A “complex system” is in general any system comprised of a great number of heterogeneous entities, among which local interactions create multiple levels of collective structure and organization.» French Roadmap for complex Systems Par : David Chavalarias le : mar. 03 mars, 2009 - French Roadmap for complex Systems 2008-2009 http://hal.archives-ouvertes.fr/hal-00392486/en/ REFERENCES BILIOGRAPHIQUES P. Jaulent et M.A. Quarès, Pilotez vos performances, Afnor Editions, 2008, 153 pages. PM. Riccio, Une approche communicationnelle de projets innovants, Université Montpellier III Paul Valéry, 2003, 294 pages. C. Salzman, Informatique : Faut-il encore des cahiers des charges ? – Le management face aux nouvelles technologies – Avril 1999 – 4 pages. C. Boisseau, Marketing1stratgie_1108043470913.ppt, 2003/2004. http://www.u-paris10.fr/26803430/0/fiche___pagelibre/&RH=boisseau_c?RF=boisseau_c http://www.boutique.afnor.org F. Mantione, Management et Ruse, http://www.cerom.org/mto_sept_2008/publications/, 2003. Communications MTO’2009 159 Analyse des conditions permettant qu’une innovation trouve son usage dans le cadre de la création d’entreprise Marc BIGRET Consultant MMV Conseil / Montpellier RESUME Partant de l’hypothèse qu’une innovation est réussie lorsqu’elle trouve son usage, nous avons étudié, dans le cadre de la création d’entreprise à fort contenu technologique, les conditions conduisant à ce qu’une technologie organisationnelle pénètre les marchés pour lesquels elle a été développée. Pour réaliser cette intervention, nous avons procédé à plusieurs études de cas de création d’entreprise, fondés sur l’émergence de technologies à fort potentiel. Il est apparu dans chacun des cas étudiés, qu’une technologie organisationnelle même si elle est aboutie, ne constitue pas une condition suffisante pour permettre un développement de l’entreprise, dans les conditions et les délais prévus dans le plan d’affaires initial. Ainsi, après avoir validé l’intérêt du dispositif technique proposé, l’importance du couple besoin/fonction a été soulignée, pour en valider le bien-fondé. Il ressort de cette analyse qu’une proposition du produit/service insuffisamment adaptée à l’attente du marché (le couple besoin/fonction, donc) conduit à ce que l’innovation ne trouve pas son positionnement. L’analyse des situations étudiées a conduit à évaluer la diffusion de l’Innovation au travers de sa validation commerciale, et à porter un diagnostic sur la situation, en identifiant les difficultés et les freins rencontrés. Enfin, sur la base du résultat du diagnostic réalisé, des préconisations sont proposées. 160 Management des Technologies Organisationnelles : Journées d’Etude 2009 INTRODUCTION L’activité de conseil en entreprise offre une position d’observation particulière sur la façon dont la création d’entreprise innovante est gérée par son (ses) créateur(s). Dans cette communication, nous avons voulu mettre à profit le résultat de ces observations, pour poser le problème de la juste estimation de la résistance d’un marché à l’adoption d’une technologie organisationnelle innovante, sur laquelle repose une création d’entreprise. Autrement dit, nous avons mis en exergue, sur la base de nos observations de terrain, les opportunités et les freins au développement d’une entreprise créée sur la base d’une innovation, à contenu organisationnel. Au delà de la validité du couple besoin/fonction qui doit toujours être vérifié (adaptation du produit/service proposé à la demande du marché, formulée ou non), nous avons analysé, au travers de cas concrets, les difficultés particulières rencontrées par le créateur lorsqu’il décide de promouvoir une technologie engendrant une perturbation sur le marché auquel elle est destinée. CADRE THEORIQUE ET METHODOLOGIQUE Une étude bibliographique nous a permis, dans un premier temps, de définir le champ dans lequel se positionne notre communication. Dans un second temps, nous avons conduit deux études de cas de création de sociétés, développant des technologies organisationnelles. En utilisant une matrice SWOT (Forces, Faiblesses, Menaces, Opportunités) nous avons réalisé une analyse qui a conduit à mettre en évidence les opportunités saisies, les difficultés rencontrées, et les avancées réalisées. Nous avons ensuite formulé des recommandations, sur la base du diagnostic posé. REVUE DE LITTERATURE L’INNOVATION : SOURCE DE PERTURBATIONS Dans le champ de la technologie, l’OCDE (Organisation de Coopération et de Développement Economique) définit l’innovation de la façon suivante « On entend par innovation technologique de produit la mise au point/commercialisation d’un produit plus performant dans le but de fournir au consommateur des services objectivement nouveaux ou améliorés. Par innovation technologique de procédé, on entend la mise au point/adoption de méthodes de production ou de distribution nouvelles ou notablement améliorées. Elle peut faire intervenir des changements affectant – séparément ou Communications MTO’2009 161 simultanément – les matériels, les ressources humaines ou les méthodes de travail ». Son rôle primordial dans l’économie place l’innovation au centre des politiques économiques des grands pays industrialisés, car c’est un levier essentiel de : • L’indépendance nationale et de la maitrise des grandes filières technologiques ; • La croissance économique à long terme. Les sources de l’innovation sont multiples et largement décrites dans la littérature. La notion de sérendipité (tiré du terme américain "serendipity") est souvent citée, car elle constitue un ingrédient de première importance dans le processus d’innovation. Pasteur, en indiquant que « le hasard ne sourit qu’aux esprits préparés », en fournissait une excellente définition. En effet, l'innovation vient souvent des rencontres imprévues entre différents acteurs. Ainsi, créer les conditions de la sérendipité, par exemple en mettant en place des lieux de rencontre entre acteurs qui ne se côtoient généralement pas dans le quotidien, peut être source d'innovation. Nous verrons que dans les cas étudiés dans cette communication, la sérendipité a joué un rôle important. Deux catégories d’innovations sont généralement décrites : • L’innovation de rupture : Elle modifie profondément les conditions d’usage et s'accompagne d'un bouleversement technologique. On peut citer à titre d’exemples d'innovation de rupture : l’apparition de l'imprimerie, le passage du moteur à vapeur au moteur à explosion, du télégraphe au téléphone, du téléphone à l'Internet, etc. • L’innovation incrémentale : Elle ne bouleverse ni les conditions d'usage ni l'état de la technique, mais y apporte une amélioration sensible. Elle ne change généralement pas les fondamentaux de la dynamique d'une industrie, ni ne requiert un changement de comportement des utilisateurs finaux. Deux illustrations récentes en sont le remplacement des souris d'ordinateur à bille par des souris optiques, ou lorsque le téléphone fixe a été libéré de son cordon pour devenir le téléphone sans fil. Dès 1950, J. Schumpeter, dans son ouvrage « Capitalisme, socialisme et démocratie » emploie le terme de « destruction créatrice ». Par exemple, Schumpeter retient les transformations du textile et l'introduction de la machine à vapeur pour expliquer le développement des années 1798-1815 ou le chemin 162 Management des Technologies Organisationnelles : Journées d’Etude 2009 de fer et la métallurgie pour l'expansion de la période 1848-1873. La "destruction créatrice" est donc la caractéristique d’un système qui résulte du caractère discontinu des innovations, en créant et détruisant simultanément des pans de l’économie. Plus récemment, Clayton M. Christensen (1997) décrit, suivant la même ligne de réflexion, la théorie des Technologies "perturbatrices". Elles peuvent conduire à l’obsolescence des organisations et industries, par l’émergence de nouvelles technologies, changeant l'entièreté du mode de fonctionnement des secteurs auxquels elles s’adressent. Initialement sous-performante par rapport aux attentes du marché, la technologie "perturbatrice", grâce aux progrès qu’elle réalise, répond finalement à celles-ci, tandis que la technologie dominante devient sous-performante. Ces technologies émergentes peuvent être extrêmement dangereuses pour une entreprise leader sur sa technologie, mais qui innove peu, ou qui n’organise pas sa veille technologique. En effet, elle perdra le bénéfice de ses produits leader car l’émergence de la technologie est arrivée au niveau des produits "maintenant dépassés" qui rapportaient tant, en déplaçant le marché. Les parades possibles consisteront alors soit à traire la "vache à lait" ou, au contraire, à développer des produits de niche, pour sauvegarder ses clients, et ses marges. On voit donc l’impérieuse nécessité de manager le développement de technologies perturbatrices, fussent-elles dans le champ de l’organisation, pour réussir leur introduction dans les marchés auxquels elles sont destinées, en anticipant et comprenant les perturbations qu’elles vont engendrer. C’est la première idée qui soustend l’étude des cas concrets présentés dans cet article. L’ENTREPRENEURIAT : VEHICULE DE L’INNOVATION Du fait des formes tellement différentes que peut prendre l’entrepreneuriat, il est difficile, voire impossible de se limiter à une définition unique. Toutefois, alors que Verstraete (2001) propose une modélisation du phénomène d’entrepreneuriat, Loué et Laviolette (2006) proposent trois conceptions complémentaires : • La première conception consiste à créer une opportunité d’affaires (Venkataraman et Shane, 2000) ; • La deuxième conception est celle de l’émergence organisationnelle, c’est-à-dire le processus qui conduit à la création d’une nouvelle organisation. Elle a été fondée par Gartner (1988) puis, développée et reprise par d’autres auteurs (Sharma et Chrisman, 1999, entre autres) ; Communications MTO’2009 • 163 La troisième conception est celle de création de valeur que Bruyat (1993) définit comme une dynamique de changement où l’individu est à la fois acteur de la création de valeur dont il détermine les modalités, et objet de la création de valeur, qui par l’intermédiaire de son support (projet, structure, etc.) l’investit voire le détermine. Ces trois conceptions sont complémentaires, et aucune d’entre elles ne suffit seule à qualifier l’entrepreneuriat : • L’approche par la création d’une opportunité d’affaires formalise le stade d’émergence de l’idée en une opportunité, en ne se focalisant que sur l’opportunité comme objet ; • Par contraste, l’approche par la création d’une organisation réintroduit l’action d’ordonner ou de structurer le réel sous des multiples formes organisées : business modèle, plan d’affaires, prototype de produit ; • L’approche par la création de valeur complète les deux notions précédentes, en réintroduisant un principe essentiel de l’entrepreneuriat depuis Schumpeter, celle du degré d’innovation et de la valeur crée via l’organisation. En définitive, ces trois approches peuvent être conciliées dans la définition suivante : L’entrepreneuriat est une dynamique de création et d’exploitation d’une opportunité d’affaires pouvant reposer sur une innovation, par un ou plusieurs individu(s) via la création de nouvelles organisations, à des fins de création de valeur. C’est le second principe sur lequel repose l’illustration de notre propos dans l’étude de cas qui suit. PRESENTATION DES MATERIAUX DE TERRAIN A la lumière des deux notions de base précédemment citées, à savoir, l’analyse des perturbations envisageables par une innovation, dès lors qu’elle va trouver son usage, d’une part, et la dynamique entrepreneuriale, dans sa logique d’organisation et de création de valeur, d’autre part, nous avons interviewé deux créateurs d’entreprise, afin de comprendre l’origine de la création d’entreprise et leurs motivations. Nous avons ensuite dressé un bilan des actions menées, sous la forme d’une analyse SWOT, afin d’établir un état des lieux de leur situation, avant d’aborder les perspectives de développement de leurs entreprises. 164 Management des Technologies Organisationnelles : Journées d’Etude 2009 SOCIETE A Commercialisation d’un test de suivi de la fermentation des sucres, pour la filière vinicole. Technologie organisationnelle permettant à l’agriculteur de réaliser lui-même ses analyses, dont le résultat, obtenu en temps réel sans l’aide de tiers extérieur, rend possible une conduite fine de la vinification. Son principe de fonctionnement consiste à réaliser une réaction enzymatique pour la transformer en un signal électrique, dont l’intensité dépend de la concentration en sucre, qui en est le substrat. Contexte de la rencontre : Le créateur d’entreprise, sans emploi après son retour d’un stage postdoctoral au Japon, a identifié, dans le laboratoire où il a effectué sa thèse (en tant qu’enseignant chercheur contractuel pendant 2 ans), une technologie innovante, imaginée par le directeur du laboratoire. Bien que n’ayant pas initialement la volonté de créer une entreprise, le créateur a considéré que les ingrédients étaient réunis pour tenter cette aventure : • Volonté du directeur du laboratoire de valoriser sa recherche au travers de la création d’une entreprise ; • Preuve du concept validée, et prémices de développement industriel réalisé ; • Disponibilité, puisqu’au chômage ; • Probabilité importante d’obtenir des fonds grâce au concours national Oséo, en Emergence, pour financer une étude de marché et une étude de faisabilité. • Historique : • Obtention de l’aide d’Oséo, en 2003, et relocalisation au sein d’un incubateur, suite à un conflit avec le concepteur de la technologie ; • Lauréat au concours Oséo en Création – Développement, en 2005, et création de la société au sein de l’incubateur ; • Le créateur s’est alors associé avec une personne désireuse de prendre en charge le développement commercial de la société. Un chercheur a été recruté, pour finaliser les aspects techniques de l’appareil de mesure ; • Après 22 mois dans l’incubateur, le créateur a souhaité relocaliser son entreprise dans les Pyrénées Orientales, où elle est encore située aujourd’hui. • Son associé a quitté la société, et le créateur est maintenant seul. Communications MTO’2009 165 Difficultés rencontrées : La première difficulté rencontrée par le créateur a été le problème de la nécessaire désappropriation de la technologie par son inventeur, pour son exploitation commerciale. Cette difficulté a conduit à une situation de rupture avec le laboratoire d’où était issue la technologie, provoquant le déménagement du projet, et un retard d’une année du programme de développement. Dans un registre voisin, une autre difficulté à laquelle a été confronté le créateur, a été d’avoir à gérer le fait que le chercheur embauché n’appréhendait pas la nécessité d’une recherche à finalité commerciale, contradictoire avec sa conception plus fondamentale de la recherche. La plus grosse difficulté rencontrée tient toutefois à l’adéquation du couple besoin/fonction. Plus particulièrement, les éléments suivants peuvent être cités : • Les mesures des paramètres de suivi de vinification sont, dans leur très grande majorité, réalisées par des laboratoires tiers qui associent le conseil aux résultats d’analyse. La technologie de la société A se trouve donc en concurrence frontale avec ces laboratoires, très bien implantés sur ce marché ; • La majorité des vignerons, qui dans le passé travaillaient seuls, sont maintenant habitués à être conseillés, avec cette position particulière, consistant à souhaiter l’autonomie, tout en recherchant l’avis d’experts extérieurs, dont ils dépendent. Le retour à une autonomie plus grande, rendue possible grâce à la technologie proposée par la société A, constitue un retour en arrière, à leurs yeux. Ce qui laisse apparaître qu’au-delà du produit, il y aurait nécessité à proposer un service de diagnostic associé ; • La résistance au changement est forte dans ce domaine, car le poids des traditions est très ancré ; • Le créateur ne dispose pas de référence particulière sur ce marché, qui lui octroierait une légitimité dans ce secteur d’activité. Analyse SWOT : Forces : • • • Compétence technique du créateur ; Une partie des vignerons aspirent à une autonomie vis-à-vis des laboratoires conseil. Cette population constitue un marché réel pour la technologie ; La typologie de l’entreprise (Taille, besoins, ambition) peut se satisfaire de ce marché de niche, pour un développement raisonnable ; 166 Management des Technologies Organisationnelles : Journées d’Etude 2009 • La technologie repose sur un principe innovant, qui moyennant quelques développements, offre la possibilité d’une déclinaison de gamme. Faiblesses : • • • • Solitude du créateur, conscient de ses faiblesses au plan commercial, et au plan de la gestion du personnel ; Nécessité de fournir un service de conseil associé au produit ; Fragilité de la société, du fait de sa taille et de ses moyens financiers ; Marché en crise et très résistant au changement. Opportunités : • • Pour l’instant, seuls certains vignobles ont été prospectés. Certains secteurs, demandeurs de solutions du type de celles apportées par la société A, doivent encore être prospectés ; Signature d’un contrat de distribution en cours. Menaces : • La sous capitalisation et une trésorerie tendue exposent la société à une cessation d’activité. • Diagnostic : En mésestimant la solidité de l’offre en place, d’une part, et la résistance au changement du marché auquel elle s’adressait, d’autre part, la société a sous-évalué les difficultés à convaincre son marché de l’opportunité d’utiliser sa technologie, qui bien qu’elle apporte un avantage indubitable à la conduite de la vinification, induit des changements de comportements. Une étude fine des facteurs de succès aurait conduit à définir une stratégie de niche, adaptée à l’entreprise, et mettant en exergue les avantages concurrentiels d’une offre adaptée. Un déploiement à l’export, bien que difficile à mettre en place, compte-tenu des moyens limités de l’entreprise, peut constituer une opportunité de croissance. La mise au point d’une gamme élargie de tests, permettant une gamme plus large d’analyses, constituent une autre voie de développement. SOCIETE B Un système de mesure et de contrôle des données culturales pour permettre à l’agriculteur de planifier les interventions adaptées au moment le plus propice. Cette technologie constitue un outil de pilotage des intrants culturaux. Son fonctionnement repose sur la mesure des paramètres culturaux dans une parcelle, et leur transmission sur l’ordinateur de l’agriculteur. Celui-ci étant Communications MTO’2009 167 connecté à un serveur, les données seront accessibles à la communauté concernée : agriculteur, conseillers agricoles, coopératives, etc. Contexte de la rencontre : Le créateur d’entreprise, de formation Ingénieur Microélectronique et DEA a travaillé pendant 6 ans dans une entreprise de microélectronique. Suite à la fermeture de l’entreprise, il a cherché à valoriser ses connaissances dans un secteur où il existait un besoin non satisfait. Partant du principe que les TIC peuvent permettre à une communauté d’échanger de l’information, en augmentant la valeur de cette information, en l’enrichissant, il a identifié un besoin en agriculture, pour le suivi cultural, au niveau de la parcelle. Historique : Après une formation complémentaire de 12 mois, le projet a été formalisé en 2006, et sa faisabilité technico-économique confirmée. L’entrée à l’incubateur Via Innova de Lunel date de 2007 et la création de 2008. Difficultés rencontrées : La technologie, en mutualisant les données obtenues et en permettant une analyse statistique de ces dernières, apporte davantage d’informations à la communauté à laquelle appartient l’agriculteur (Groupement de producteurs (AOP, par exemple), coopératives, collectivités, syndicats, etc.) qu’à l’agriculteur lui-même. La principale difficulté réside donc dans le fait que le prescripteur n’étant pas l’utilisateur, il a donc besoin d’accumuler des données, pour s’assurer du bien-fondé de la démarche et déployer un argumentaire convaincant auprès des utilisateurs. Ce qui nécessite de conduire des essais tests avant d’adopter définitivement la technologie. L’échelle du temps des décisionnaires est alors difficilement compatible avec celle de la start-up, compte tenu des moyens financiers dont elle dispose. Pour rendre plus crédible la technologie, il y a nécessité de la déployer au sein de filières de productions diverses. La seconde difficulté consiste à déployer des moyens humains, dont la société ne dispose pas, pour diffuser cette technologie. A nouveau, la question des moyens financiers de l‘entreprise se pose. Analyse SWOT : Forces : • • • Compétences élargies du créateur, soutenues par l’incubateur qui l’accompagne ; Modèle économique validé ; Expression du besoin par les prescripteurs ; 168 Management des Technologies Organisationnelles : Journées d’Etude 2009 • Technologie mature, permettant d’améliorer la reproductibilité des productions, et d’orienter la qualité du produit fini. Faiblesses : • • • • • Moyens humains et financiers limitant la croissance de l’entreprise ; Le prescripteur est différent de l’utilisateur ; Temps de réponse du marché ; Installation des équipements (Boitier dans la parcelle, antenne sur le toit de la maison de l’agriculteur) ; Marché résistant au changement. Opportunités : • • • Numérisation de l’agriculture en cours (comparée par le créateur à la mécanisation de l’agriculture des années 20-30) ; Très forte sensibilité du marché à la gestion des intrants, dans le cadre d’une agriculture durable : Eau, Produits phytosanitaires, etc. ; Traçabilité. Menaces : • La sous capitalisation et une trésorerie tendue limitent les possibilités de développement de la société. Diagnostic : La technologie développée par la société B modifie l’organisation des pratiques culturales, en fournissant les outils d’une conduite raisonnée des entrants, en temps réel. Son développement passe par une implantation la plus large possible des équipements, nécessitant des moyens humains dont l’entreprise ne dispose pas, pour l’instant. La signature d’un premier contrat lui fournirait les moyens de ses ambitions. DISCUSSION Bien que réels, nous avons conscience que les deux cas étudiés ne sont pas statistiquement représentatifs de l’ensemble des créations d’entreprise, dont on sait que leurs typologies sont très variées. Ils montrent toutefois d’illustrer de façon pratique que la mise en place d’une technologie organisationnelle, lorsqu’elle est à l’origine d’une création d’entreprise, nécessite de s’assurer de la validité d’un certain nombre de fondamentaux : Communications MTO’2009 • • • • • 169 S’assurer que le concepteur de la technologie va accepter se la désapproprier, dès lors que des adaptations au marché seront nécessaires, pour en assurer son acceptabilité ; Evaluer avec la plus grande précision les perturbations engendrées par l’innovation, en réalisant une étude fine du couple Besoin/Fonction, afin de déterminer les avantages et les inconvénients qui vont s’en dégager ; Réaliser une analyse des facteurs clés de succès, suivant la théorie des cinq forces de Porter (1986), par exemple, afin de positionner son offre pour qu’elle trouve son marché, et son usage, par la validation du couple Produit/Marché ; Anticiper les actions à mettre en place pour limiter les effets de la résistance au changement attendue ; Vérifier finalement, que l’innovation et la création d’entreprise qui y est associée, seront créatrices de valeur. Le plan d’affaires doit donc prendre en compte ces éléments, afin de prévoir une stratégie d’entreprise centrée autour de ces questions fondamentales. De même, les structures d’accompagnement de sociétés en création joueront leur rôle de conseil, en sensibilisant les créateurs d’entreprises à ces éléments, de nature à ralentir, voire compromettre le projet. CONCLUSION Selon P. Drucker (1970), « L'entreprise a deux fonctions essentielles, et deux seulement : le marketing et l'innovation. Le marketing et l'innovation produisent des résultats, le reste n'est que dépenses ». J. Schumpeter (1950), quant à lui, place l'entrepreneur au cœur du système capitaliste, pour réaliser des innovations (de produits, de procédés, de marchés, etc.). Alors que l’innovation n’est pas une condition sine qua none à la création d’entreprise, ces deux affirmations restent valables. Toutefois, dès lors que l’on se situe dans le champ de l’entrepreneuriat pour développer une technologie qui va modifier l’organisation du marché dans lequel elle va trouver son usage, les perturbations engendrées devront être prises en compte et intégrées dans le plan de développement. La résistance au changement que peut engendrer une technologie organisationnelle, en impactant le plan de développement de l’entreprise, va la déstabiliser, en mettant sa survie en péril, car il faut pouvoir durer, pour survivre. 170 Management des Technologies Organisationnelles : Journées d’Etude 2009 REFERENCES BIBLIOGRAPHIQUES C. Bruyat, Création d’entreprise: contributions épistémologiques et modélisation, Thèse de doctorat ès sciences de gestion, Université Pierre-Mendez-France, Grenoble 2, (1993). C.M. Christensen, The Innovator’s dilemma: When new technologies cause great firms to fail – Harvard Business School Press, (1997). P. Drucker, "Entrepreneurship in Business Enterprise", Journal of Business Policy, vol. 1, (1970). W.B. Gartner, J. Katz, Properties of emerging organization, Academy of Management Review 13(3), (1988), 429-442. C. Loué, M. Laviolette, Extrait de l'étude " Les compétences entrepreneuriales : définition et construction d'un référentiel ", octobre 2006. M. Porter, « L’avantage concurrentiel », InterÉditions, Paris, (1986), 647 pages. J. Schumpeter, Capitalism, Socialism, and Democracy, 3rd edition, Harper and Row, New York, (1950). P. Sharma, J.J. Chrisman, Toward a reconciliation of the definitional issues in the field of corporate entrepreneurship. Entrepreneurship Theory and Practice, 23(3), (1999), 11-26. S. Venkataraman S. Shane, The promise of entrepreneurship as a field of research, Academy of Management Review. Vol. 25 (1), (2000), 217-226. T. Verstraete, Entrepreneuriat : modélisation du phénomène, Revue de l’Entrepreneuriat, Vol. 1, N°1 (2001). REMERCIEMENTS Nous tenons à remercier le dirigeant de la société AGRISCOPE pour sa contribution à la rédaction de cette communication. Communications MTO’2009 171 L'apport de la notion de réseau et de modèle économique aux problématiques de mise sur le marché d’une innovation André DELAFORGE et Nicolas MOINET CEREGE Institut d’Administration des Entreprises / Université de Poitiers RESUME Deux pistes d’exploration permettent de mieux appréhender les conditions de réussite de mise sur le marché d’une nouvelle technologie. Ainsi, la figure du réseau constitue-t-elle une grille d’analyse qui permet d’analyser comment des acteurs sont « intéressés » dans un processus de création et de mise sur le marché d’une innovation. Au-delà, les conditions de succès de la mise sur le marché d’une innovation reposent sur la constitution ou le déploiement d’un réseau dès lors qu’il est appelé à générer ou rejoindre un écosystème d’affaires. INTRODUCTION Si l’innovation est un sujet largement étudié, force est de constater que les recherches la concernant s'intéressent essentiellement à sa genèse ou au résultat produit. Ainsi, une littérature abondante explore l’origine de l'innovation sous l’angle de la problématique de génération des idées et des liens avec la R&D (Amabile, 2002, Farson 2002, Yoon 1985, Wolpert 2002...). Les produits ou services issus de celle-ci font également l’objet de nombreux travaux. Mais malgré l'échec constant du lancement d'un grand nombre de produits [1], la phase de mise sur le marché d’une innovation fait l'objet de peu de 172 Management des Technologies Organisationnelles : Journées d’Etude 2009 travaux : « product launch has been relatively under resarched in the product literature » (Di Benedetto, 1999, p. 530). Ce « moment de vérité » pour s’approprier une expression du marketing des services (Lovelock, 1999), apparaît pourtant comme une période charnière, rencontre entre des utilisateurs et une offre qui vient le bouleverser, remettant ainsi en cause un équilibre définissant le Marché. LE RESEAU COMME ECO-SYSTEME Notre contribution pose comme hypothèse que le concept de réseau, tel qu'il est notamment proposé par Calon et Latour (Callon, Latour, 1991), permet de mieux appréhender ce qui se passe lors de la mise sur le marché d’une innovation. Le mot « réseau » désigne primitivement un ensemble de lignes entrelacées et on appelle "nœuds" du réseau toute intersection de ces lignes. Les lignes sont considérées, le plus souvent, comme des chemins d'accès à certains sites ou des voies de communication le long desquelles circulent, selon les cas, des éléments vivants, matériels ou immatériels. Se propagent ainsi des flux, parfois quantifiables le long d'arcs agencés selon certaines structures, identiques ou variables (mailles), obéissant à une loi de causalité complexe (Parrochia, 1993). Dans le domaine qui nous intéresse, nous insistons sur l’idée essentielle de projet commun autour duquel se fédèrent des acteurs travaillant ensemble pour former un système, un dispositif intelligent. Car sans projet, il ne peut y avoir de véritable réseau. L’existence de relations entre des acteurs ne suffit pas pour affirmer l’existence d’une stratégie-réseau (Marcon, Moinet, 2000). Ainsi comprise, la notion de réseau permet d’explorer comment se mettent en place des interactions entre des individus mais aussi des « non-humains » (réseaux hybrides), lesquels agissent comme médiateurs ou intermédiaires les uns avec les autres (Latour, 1992). Par exemple, un réseau associe dans le cadre d’un système de paiement, un utilisateur, un organisme financier, des instances de régulation, des technologies de sécurité informatiques, des cartes bancaires et des automates. Un réseau peut alors se définir comme un écosystème, un environnement dans lequel vient s’insérer un objet ou un service. Une première piste de recherche serait que les modalités de l’innovation sont directement liées à la maîtrise ou, tout au moins, à la perception juste de celui-ci. Un des facteurs du succès de l’iPod est ainsi de s’être appuyé sur un écosystème existant pour en créer un nouveau. Le succès du lancement de l’iPod s’appuie sur un triptyque produit (design), modèle économique (iTunes) et des usages déjà existants (la consommation de musique « en déplacement »). Communications MTO’2009 173 Comme les marchés, un réseau définit un statu quo ou un équilibre où chacun des acteurs agit dans le sens de son intérêt en attendant que les autres agissent de même (Chakravorti, 2004, p. 62). Steve Jobs s’appuie sur des technologies existantes (stockage, communication, paiement) pour déployer une valeur basée sur la combinaison de ces éléments. Il « intéresse » d’autres acteurs qui viennent renforcer son offre en proposant des éléments complémentaires. Gueguen avait déjà analysé, dans des travaux précédents (Gueguen, 2001), la mobilisation collective d'actions et de ressources tendues vers l'achèvement de buts partagés par les membres du réseau. La notion d'industrie vient alors se substituer à celle d'écosystème d'affaires, défini par Gueguen et Torres comme « une coalition hétérogène d'entreprises relevant de secteurs différents et formant une communauté stratégique d'intérêts ou de valeurs structurée en réseau autour d'un leader qui arrive à imposer ou à faire partager sa conception commerciale ou son standard technologique ». Cette mobilisation se traduit par l’évolution (parfois dans des directions opposées, constituant dés lors des orientations stratégiques) des différentes parties impliquées, renvoyant au modèle "rupture/filiation" proposé par Aydalot (1988), et identifiant la naissance de l'entreprise avec le moment de la "rupture". L’exemple pris par cet auteur portait notamment sur celui de la création de petites entreprises, dont la naissance est liée à l'introduction d'une innovation, à l'adaptation d'un produit destiné à un marché ou à l'adoption d'une technologie particulière à l'intérieur d'un process de production. On constate, dés lors, que la figure du réseau présente ce paradoxe d'être à la fois un facilitateur pour la diffusion d'une innovation, et une barrière (à cause de l'interdépendance entre les différents acteurs) pour les nouveaux entrants (Chakravorti, 2004, p.60). L’intéressement des différents acteurs permet à la fois un accroissement de la valeur ajoutée et un renforcement du caractère unique de la proposition. On pressent, également, que la modalité de mise sur le marché d’une innovation réside dans cette capacité à saisir des opportunités. Dans le cas de l’iPod, iTunes la plateforme d’achat de musique en ligne apparaissait, au moment de son lancement, comme une réponse à la problématique d’échanges de fichiers illégaux, comme par exemple Napster. En proposant un achat de titre à l’unité, Apple s’assurait le support des majors de l’industrie musicale qui voyaient dans cette offre une réponse positive et concrète au problème de piratage et assurait ainsi le succès de sa nouvelle offre. A la suite d’une série de traductions, elle réussit à intéresser un nombre d’alliés de plus en plus grand. C’est l’étendue 174 Management des Technologies Organisationnelles : Journées d’Etude 2009 et la solidité du réseau et non la pertinence de la solution technique qui permet d’expliquer le succès d’une innovation (Flichy, 2006). Abordée sous l’angle de la notion de réseau, la diffusion d'une innovation peut donc s’appréhender par la mise en place d'une nouvelle chaîne de valeur supportée par différents acteurs. Ainsi la complémentarité entre acteurs de l'informatique et des imprimantes personnelles a facilité le développement de la photo digitale, créant un nouvel équilibre disqualifiant l'univers de la photo argentique. Cooke et Morgan (1993) se sont appuyés sur le « paradigme de réseau », pour montrer que la place la plus essentielle de réseaux d'information à l'intérieur d'un lieu donné faisait apparaitre des comportements nouveaux de la part de divers acteurs impliqués. Ainsi que l’explique Patrice Flichy, ce n’est pas l’invention de l’ordinateur qui a marqué la fin du 20èmesiècle mais sa diffusion. Et pourquoi l’informatique se diffuse t-elle alors autant ? Car parallèlement, il va y avoir des mutations organisationnelles profondes dans les entreprises. N’oublions pas que l’informatique entre d’abord dans les entreprises via la comptabilité et la paie : il s’agit de tâches simples et répétitives. La première révolution de l’information qui fait la réussite d’IBM est celle de l’association de la machine à écrire et du calcul mécanographique (cartes perforées). En termes d’organisation, le taylorisme a pu voir le jour car l’organisation scientifique du travail n’aurait pas été possible sans tous ces documents écrits. Donc la machine de traitement du papier et le système taylorien sont indissociables. A la fin du 19ème siècle, la diffusion des technologies de la première révolution de l’Information a modifié les modalités de gestion de l’entreprise. Au-delà, l’électronique comme les technologies de l’information et de la communication investissent sans limites une multitude de domaines d’activités. L’informatique distribuée induit des modalités d’organisation plus transversales et un management par projet où la disposition de l’information à la base doit être favorisée. LE POSITIONNEMENT MARKETING COMME POSITION SUR UN RESEAU Une autre implication de la théorie des réseaux est l’extension du concept de positionnement marketing. Le positionnement peut se définir comme «l’ensemble des attributs saillants et distinctifs qu’une entreprise cherche à associer à un objet (produit, marque, entreprise, etc.) pour la distinguer de la concurrence et toucher une cible particulière » (Lendrevie, 2006). En un mot, le positionnement est l’image que l’on veut que les clients aient d’une offre. Communications MTO’2009 175 Dans la perspective de notre lecture s’appuyant sur le réseau, il apparaît qu’il convient d’élargir cette définition. Il nous semble que le positionnement des produits ne devrait pas se limiter aux seuls consommateurs mais s’étendre aux acteurs avec laquelle la technologie interagit. Dans ce contexte, il faudrait étudier comment une technologie ne s'appuie pas seulement sur des utilisateurs finaux mais sur la construction de partenariats qui viennent renforcer l'offre de chacun des acteurs impliqués. Le succès de l'ordinateur personnel associe le succès d'un fabricant de microprocesseur (Intel…), d'un fabricant de systèmes d’exploitation (Microsoft…), de fabricant de souris et de claviers (Logitech) et d'applications (SAP, Firefox...). On est, dès lors, amené à s’interroger sur la nature même des frontières d’une entreprise et la place de l’interaction avec l’extérieur : dois-je, et avec qui, coopérer ? De la notion de marché, on évolue vers celle de territoire, « configuration concrète qui ne se réduit pas aux seuls aspects de la dynamique économique, de la concurrence, de la formation des prix ou des préférences des clients » (Thoenig, 2005). Dans une perspective constructiviste suggérée par le concept de réseau, les différents constituants du réseau interagissent entre eux et avec le territoire qu’ils contribuent à façonner. On dispose, dés lors, d’un véritable outil d’analyse, qui nous permet de comprendre pourquoi tel technologie de porte-monnaie électronique, ne rencontre pas son public ; par manque d’intéressement des interlocuteurs concernés. C’est ici qu’il est intéressant de faire appel à la notion de milieu innovateur, celui-ci permettant de croiser les concepts d’interactions et d’apprentissage. Issue des travaux de l’économie industrielle, la notion de milieu innovateur souligne le rôle essentiel de la composante territoriale dans les processus de création de nouvelles ressources. Le territoire n’est plus considéré comme un simple support de facteurs de localisation (main d’œuvre qualifiée, centres de recherche, agréments culturels, voies de communication, etc.) mais comme un ensemble territorial d’agents et d’éléments économiques, socioculturels, politiques, institutionnels possédant des modes d’organisation et de régulation spécifiques. Qu’il s’agisse d’une entreprise ou d’un territoire, un milieu innovateur ne se décrète pas, même lorsque l’innovation naît ex nihilo. En effet, le territoire n’est pas construit a priori, mais résulte à la fois d’une logique d’interaction et d’une dynamique d’apprentissage. La logique d’interaction vise à développer les coopérations entre acteurs (logique horizontale) et la dynamique d’apprentissage consistant à stimuler un savoir-faire spécifique (logique verticale). Selon le modèle des milieux innovateurs, 4 cas peuvent alors être mis en évidence : pas 176 Management des Technologies Organisationnelles : Journées d’Etude 2009 de milieu et peu d’innovation ; un milieu potentiellement innovateur ; l’innovation sans milieu ; un milieu innovateur. Figure 1 : Typologie des milieux innovateurs (source : Denis Maillat (1995), p 42) « Pour qu’il existe une chirurgie au laser, analyse Marc Giget (1998, p 33), il a fallu que des entreprises s’impliquent dans la simplification de la mise en œuvre de la technologie du laser, qu’elles la fiabilisent, la miniaturisent, la banalisent, qu’un entrepreneur rencontre des chirurgiens, qu’ils dialoguent des possibilités du laser, des besoins particuliers de la chirurgie. Chacun s’est approprié une partie des compétences de l’autre, et les itérations entre eux ont abouti, après plusieurs échecs, à un système adapté, produit à un coût acceptable, avec une qualité absolue. » La logique d’interaction (par exemple entre ingénieurs et chirurgiens) et la dynamique d’apprentissage (enseignements tirés des échecs) participe donc de cette intelligence du terrain et des situations qu’est la stratégie en général et la stratégie d’innovation en particulier. LES CONSEQUENCES DE L’APPROCHE RESEAU En prolongeant encore plus loin cette réflexion, on peut poser comme hypothèse que l'écoute des consommateurs n'est plus source d'innovation (Leonard, 2002 [2]) puisque ceux-ci sont dans un réseau existant, en état d'équilibre. Dés lors, on cherchera à caractériser quel est le réseau dans lequel s’inscrit un utilisateur potentiel, en allant au-delà de ses simples déclarations. L’analyse sous l’angle du réseau, en cherchant à appréhender la topographie du territoire Communications MTO’2009 177 dans lequel évolue un consommateur appelle à un renouvellement des études marketing en justifiant pleinement par exemple les approches ethnographiques où le consommateur potentiel est « saisi » dans son univers. En étendant cette réflexion à l’analyse des canaux de distribution, on appréhende l’importance des dispositifs d'intéressement (Alkrich, 1988), au sens propre comme au sens figuré, qui permettent d'ancrer une technologie ou de déployer un réseau. L’adoption d’une technologie innovante ne s’explique pas simplement par l’adéquation d’une offre à une demande. Ainsi, la trajectoire de la technologie RFID (Radio Frequency Identification) montre qu’il n’existe pas d’innovation réussie sans co-construction de connaissances partagées par l’ensemble des acteurs intéressés au sein d’un espace public. Travailler sur l’innovation nécessite donc de parcourir cette chaîne qui transforme de l’information en connaissances par un processus complexe de communication (Delaforge, Moinet, 2008). BUSINESS MODEL La notion de business model (« les choix effectués par une entreprise pour générer des revenus » Demil, 2004) nous apparaît également comme fortement corrélée avec le succès du lancement des innovations durant ces dernières années. Le développement du téléphone mobile est apparu avec l’apparition du « forfait » qui permet de bénéficier d'un crédit de communication mensuel forfaitaire ainsi que d’un terminal à prix facial réduit. C’est la combinaison d'un modèle économique et d'une technologie qui permet à une innovation de créer un nouvel équilibre. Ainsi, quand des entreprises lancent des produits radicalement nouveaux reposant sur des technologies nouvelles (par exemple en Biotechnologies) elles s’appuient sur de nouveaux modèles économiques qui détermine comment la valeur ajoutée sera créée (Vanhaverbeke, 2006). Ces dernières années ont été riches en termes de création de nouveaux modèles économiques liées à des innovations. On pourra en citer deux. Le modèle économique de Google est basé sur une équation complexe basée sur la fréquence de recherche de mots-clés (Levy, 2009), introduisant une notion de variabilité directement liée à l’intéressement pour un sujet ou une marque. Google tire profit de la dynamique exprimé au travers d’un réseau pour ajuster le prix de son offre en fonction de la dynamique de la demande. Le deuxième modèle économique qui nous semble intéressant est celui du « rasoir inversé ». On connaît le modèle économique du pseudo-gratuit : un « package » est proposé à un prix attractif, la marge étant réalisée sur les ventes 178 Management des Technologies Organisationnelles : Journées d’Etude 2009 de consommables. Ce modèle, classique est utilisé dans les produits de grande consommation : rasoir, filtre anti-calcaire, imprimantes… Le modèle du « rasoir inversé » vise, au contraire, à s’appuyer sur une marge forte réalisée sur le package de départ (par exemple un iPod ou un iPhone) et à laisser d’autres acteurs de l’écosystème tirer profit des ventes sur les « consommés », que cela soit des morceaux de musique ou des minutes de communication, tout en préservant une marge sur celles-ci. Dans ce dernier cas, le modèle économique apparaît comme ouvert à des partenaires, qui viennent renforcer l’offre et se trouvent naturellement ‘intéressés ‘. CONCLUSION Nous avons posé l’hypothèse que les conditions de succès de la mise sur le marché d’une innovation reposaient sur la constitution ou le déploiement d’un réseau appelé à constituer ou rejoindre un écosystème d’affaires. Cette hypothèse permet de comprendre comment s’articulent, localement et globalement des synergies qui viennent donner à une innovation son ancrage et susciter l’intérêt conjoint des partenaires et des clients finaux. La deuxième hypothèse est que le choix et la pertinence du modèle économique déterminent la réussite d’une innovation. Au final, ces deux pistes de réflexion s’inscrivent dans un programme de recherche en gestation visant à étudier les conditions de succès et d’échecs d’une innovation. NOTES [1] Booz, Allen & Hamilton estimate that almost half of the resources spent on new products are allocated to products that are never successful in the market. (Yoon, 1985, pages 135) [2] « Discerning the difference between what customers are able to say and what they want, and then acting on those unspoken desires, demands that companies learn to go well beyond listening » REFERENCES BIBLIOGRAPHIQUES Akrich, M., Callon, M. et Latour, B., 1988, « A quoi tient le succès des innovations ? 1 : L’art de l’intéressement », in Gérer et comprendre, Annales des Mines, 11, pp.4-17. Akrich, M., Callon, M. et Latour, B., 1988, « A quoi tient le succès des innovations ? 2 : Le choix des porte-parole », in Gérer et comprendre, Annales des Mines , 12, pp.14-29. Amabile, T., Constance N. H., & Steven J. K. (2002). « Creativity under the gun » in Harvard Business Review, 80(8), pp. 52-61. Communications MTO’2009 179 Aydalot P. 1988. - "Technological trajectories and regional innovation in Europe". - in: P. Aydalot P., Keeble D.; 1988 High technology industry and innovation environments, the European Experience. - London: Routledge Callon, M., Latour, B., La science telle qu'elle se fait, Paris, La Découverte, 1991. Chakravorti B.; « The New Rules for Bringing Innovations to Market »; in Harvard Business Review, 2004, pp. 59-67. Chesbrough H., Open Business Models: How to Thrive in the New Innovation Landscape, Boston: Harvard Business School Press, 2006 Chesbrough, H., Open Innovation: the new imperative for creating and profiting from technology, Harvard Business School Press, 2003 Clayton C., « The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail » in Harvard Business School Press, 1997. Cooke, P et Morgan, K. (1993), The Network Paradigm : New Departures in Corporate and Regional Development, Environment and Planning, Society and Space, Vol. 11, 543564. Delaforge A. Moinet N., « Le rôle de la communication dans l’adoption d’une technologie innovante », in Hermès, n°50, Editions du CNRS, juin 2008, pp. 157-162. Demil, B., Lecoq, X. et Warnier, V. : « Le business model : l’oublié de la stratégie ? » in Actes de la 13e conférence de l'AIMS; Normandie, Vallée de Seine 2, 3 et 4 juin 2004, pp. 123. Di Benedetto, C. Anthony; « Identifying the key success factors in new product launch »; in Journal of Product Innovation Management, 1999, 16(6), pp. 530-544 80(8), Farson R, Keyes R; « The failure-tolerant leader »; in Harvard Business Review 2002, 80(8), pp. 64-71 Flichy P., La place de l'imaginaire dans l'activité technique : le cas d'Internet ; Publié en ligne le 31 août 2006 ; http://edel.univ-poitiers.fr/rhrt/document.php?id=553, Giget M., La dynamique stratégique de l’entreprise, Dunod, 1998. Gueguen G., Environnement et management stratégique des PME : le cas du secteur Internet, Thèse de doctorat, Université Montpellier I, 2001. Gueguen G. , Torres O. « La dynamique concurrentielle des écosystèmes d’affaires. Linux contre Microsoft,” in Revue française de gestion 2004/1, n°148, p.227-248. Latour B., Aramis ou L'amour des techniques, Paris, La Découverte, « Textes à l'appui. Anthropologie des sciences et des techniques », 1992 Leonard D.; “The Limitations of Listening” in Harvard Business Review, 1993, 80(1), January 2002. Lendrevie J.;Levy J., Lindon D.; Mercator : théorie et pratique du marketing ; Dunod ; 2006 Levy Steven, Secret of Googlenomics: Data-Fueled Recipe Brews Profitability in Wired, juin 2009, pp 110-115. Lovelock C., Wright L.; Principles of service marketing and management, Prentice Hall, 1999 Maillat D., « Les milieux innovateurs », in Sciences Humaines, 1995. Marcon C., Moinet N., La stratégie-réseau, Editions Zéro Heure, 2000. Parrochia D., Philosophie des réseaux, PUF, 1993. 180 Management des Technologies Organisationnelles : Journées d’Etude 2009 Sellers E., Buyers S.; « Understanding the Psychology of New-Product Adoption »; Harvard Business School Publishing, 2006, 84(6), pp. 98-106 Thoenig J.-C., Waldman C.; De l’entreprise marchande à l’entreprise marquante, Editions d’organisation, 2005 Wolpert John D.; « Breaking Out of the Innovation Box »; in Harvard Business Review, 2002, 80 (8), pp. 76-83 Yoon E., Lilien G. L.; « New Industrial Product Performance: The Effects of Market Characteristics and Strategy », in Journal of Product Innovation Management, 1985, 2(3); pp. 134 - 144 Vanhaverbeke W., « Open innovation in value networks », in Chesbrough, Henry., Vanhaverbeke, Wim. en West, J., eds. (2006), Open Innovation : Researching a New Paradigm, Oxford University Press. Communications MTO’2009 181 L’intelligence communicationnelle interne, pour le management d’une communication interne innovante au sein de l’organisation Frédéric ELY et Marielle METGE Laboratoire I3M Université de Nice Sophia Antipolis et Université du Sud Toulon Var RESUME Dans un contexte de crise généralisée de la santé mentale au travail, les rapports pathogènes que nous observons, de longue date, entre management, culture et organisation, au sein de la grande entreprise, apparaissent peser lourdement sur le domaine de sa communication interne. L’acuité de cette problématique complexe et insidieuse nous laisse percevoir les symptômes d’une forme de syndrome communicationnel que nous caractérisons par les termes de « maladie de la communication interne » dans l’organisation. Après avoir approché la description préalable de ce contexte, nous montrons que la mise en œuvre d’un dispositif de communication interne innovant est possible, en articulant opportunément les technologies organisationnelles de l’information, de la communication et de la collaboration, les apports des théories orchestrale et systémique de la communication, les concepts de veille, d’intelligence collective et de Knowledge Management. En effet, par la pratique complémentaire d’un forum intranet de discussion et d’un groupware que nous mettons en place et expérimentons au sein d’une grande entreprise française de services, nous proposons une alternative innovante, au travers d’un modèle original de management de la communication interne. Orchestré par le e-Dircom de l’organisation et spécifique à son domaine d'activité, contre-pied de certaines pratiques managériales contre-productives à l’égard de la communication interne, le modèle, que nous dénommons « Intelligence Communicationnelle 182 Management des Technologies Organisationnelles : Journées d’Etude 2009 Interne », nous semble susceptible de pallier, dans les limites des moyens de son orchestration, à cette « maladie de la communication interne » dans l’entreprise, en cherchant à mettre collectivement en lumière et à rassembler ce qui s’y trouve épars : les innombrables richesses humaines et communicationnelles de ses salariés, encore trop souvent inexplorées. INTRODUCTION Depuis plusieurs années, chaque rentrée littéraire est marquée par la parution d’ouvrages ou d’articles centrés sur un certain malaise grandissant chez l’individu dans ses rapports au travail, au sein de l’organisation : discriminations professionnelles, broiement de l’être, « comédie du bonheur » des cadres (Hopquin, 2008), harcèlement moral (Hirigoyen ; 1998, 2001), perte de sens, stress et souffrances au travail (Salengro, 2005), délitement du tissu social de l’entreprise, suicides sur le lieu de travail (Dejours ; 1993, 1999, 2007). Bien au-delà d’une approche historique des apports d’une sociologie de l’organisation, (Bernoux, 1985), nous partageons une convergence de vue de plusieurs auteurs (Bulinge, 2002 ; Serieyx, 1993 ; Crozier, 1997 ; Le Moënne, 1994 ; Barbaras, 1995 ; Dejours, 1999 ; Mintzberg, 2004) sur une certaine critique du management contemporain. A la lumière de leurs réflexions et de notre expérience de cadre en entreprise, nous constatons que, de nos jours encore, dans bien des cas, les conditions ne sont pas suffisamment réunies, au sein de la grande entreprise, pour favoriser, au-delà des récurrentes bonnes intentions et des beaux discours managériaux, ce nécessaire humanisme communicationnel (Nicolas, 1996) qui fait, à nos yeux, toute l’origine, la noblesse et la valeur ajoutée des métiers de la communication organisationnelle. La gravité de cette situation, à l’heure où l’Institut de veille sanitaire vient de réaffirmer que « la santé mentale au travail est devenue un enjeu majeur de santé publique » [1], nous permet de considérer que nous assistons, en quelque sorte, à une forme de retour en arrière bien paradoxal, à une certaine régression obscurantiste et contradictoire des valeurs de l’humain dans l’entreprise. Or, ces profondes problématiques, tout à la fois sociétales, éthiques, managériales, organisationnelles, peuvent-elles se dissocier de problématiques de management de la communication interne ? En observant au sein d’une grande entreprise française d’assurance, une forme de syndrome que nous qualifions de « maladie de la communication interne », en constatant certaines pratiques symptomatiques propres au terrain du Directeur de la communication, nous nous demandons en quoi ce dernier peut-il effectivement tenir compte de ce contexte problématique. En quoi est-il à même d’améliorer cette situation en saisissant certaines opportunités offertes Communications MTO’2009 183 par les technologies organisationnelles de l’information, de la communication et de la collaboration, dans une perspective communicationnelle de recherche de construction de sens, de régénération du lien social et de motivation des salariés au sein de l’organisation ? Quel éclairage pouvons-nous apporter sur ces questions, selon un positionnement épistémologique constructiviste, situé dans le champ des SIC, en nous appuyant sur les théories orchestrale (Winkin, 1996) et systémique (Mucchielli, 1999) de la communication ? Que peuvent nous apporter un ancrage sur un terrain constitué de vingt années de pratiques en tant que Chargé de communication au sein d’organismes publics et privés, associé à l’expérimentation, sur trois années consécutives, d’un groupware et d’un forum de discussion mis en place au sein de l’organisation observée ? UN CONTEXTE PROBLEMATIQUE POUR LA COMMUNICATION INTERNE DE L’ORGANISATION Dans le cadre de notre recherche, nous retenons une définition de la communication interne (CI) comme « un ensemble de principes d'actions et de pratiques visant à donner du sens et favoriser l'appropriation, à donner de l’âme pour favoriser la cohésion et inciter chacun à mieux communiquer pour favoriser le travail en commun » (Détrie et Broyez, 2001). Or, force est de constater l’écart abyssal entre cette définition et les réalités quotidiennes du monde du travail. Devant un système professionnel au sein duquel le salarié se trouve comme réduit (Dufour, 2003), pris en étau, chosifié, instrumentalisé, au nom du dogme managérial de la performance, du culte de l’ « efficience » (Mintzberg, 2004), nous diagnostiquons une forme de syndrome que nous qualifions de « maladie de la communication interne », au même titre qu’une « maladie de l’information » (Lesca, 1999) est bel et bien diagnostiquée dans les organisations. Au sein de la grande entreprise de services dont nous observons certaines dérives, à l’image de bien d’autres situations comparables, nous identifions trois principales contraintes en interaction, dont les caractéristiques et la prégnance constituent des facteurs pathogènes à l’égard de la CI : la RTT, le management et la culture de l’organisation. Une RTT réductrice de la CI de l’organisation Telle qu'aménagée dans les entreprises, à la fin des années 1990, la Réduction du Temps de Travail (RTT), a-t-elle eu un effet sur la nature de la CI de ces mêmes entreprises ? Une étude approfondie serait nécessaire, à nos yeux, pour chercher à répondre à cette question, de manière démonstrative. Néanmoins, nous constatons, au sein de l’organisation observée, une certaine 184 Management des Technologies Organisationnelles : Journées d’Etude 2009 tendance, depuis l'aménagement de la RTT, à une réduction conjointe des occasions d’échanges informels entre les personnes, une forme de « Réduction du Temps des Relations Interpersonnelles Internes ». Ce constat nous amène à considérer, a priori, que cette réduction agit structurellement sur la CI des organisations. Ces aspects se trouvent, en partie, corroborés par les travaux de plusieurs auteurs. L'aménagement de la RTT dans les entreprises est, en effet, loin d’être neutre, au point que l’on situe cette problématique organisationnelle et sociale en termes de « guerre des temps » : « On aboutira ainsi à une situation tout à fait paradoxale : la démotivation des plus motivés, la démobilisation des plus mobilisés et l’exacerbation des relations déjà tendues entre les individus, les équipes et les services. La chasse aux temps morts, à la réunionite, aura pour conséquence le fait que les gens ne se parlent plus, ne prennent plus le temps de discuter entre eux [2] » (Lojkine, Maletras, 2003). Nous associons à cette situation une pression accrue de recherche de productivités, un développement du repli sur soi et de l’individualisme dans l’organisation : « La pression sur la productivité (réduction des moments de détente) liée à l'informatisation des consignes et à leur incorporation au sein du processus de production, rendent de moins en moins nécessaire le recours au contact direct. Les occasions de se rencontrer et d'échanger sont donc moins nombreuses ; les possibilités de nouer des contacts aussi. L'ensemble de ces éléments nous paraissent jouer dans le phénomène d'individualisation des comportements […] » (Duterme, 2002 : 27). Ces premiers constats nous conduisent à postuler qu’une « Réduction du Temps des Relations Interpersonnelles Internes » influence structurellement la qualité de la CI des organisations, au point d’en constituer un des facteurs pathogènes. Si ces mêmes facteurs d’ordre organisationnel présentent une certaine nocivité à l’égard de la CI de l’entreprise, en quoi les composantes managériales de cette dernière peuvent-elles connaître des travers similaires ? Un management inhibiteur de la CI de l’organisation Comme par un certain mimétisme, la nature de la CI d’une organisation constitue le véritable reflet du management qui y est pratiqué, la traduction de son style directorial. Or, nous constatons que, dans bien des entreprises, comme l’expression même d'une forme rétrograde de dirigisme, la CI présente les aspects réducteurs d'une émission descendante de signaux quasi systématiquement « télégraphiques ». Dans les pratiques récurrentes de l’organisation pyramidale que nous observons, nous voyons bien que la CI, sous toutes ses formes classiques, se Communications MTO’2009 185 trouve bien souvent circonscrite à la transmission - par trop unilatérale - de l'information, depuis l’organe directionnel, vers les salariés, y compris les chefs de services. Corollairement, pour ne prendre que ces derniers comme exemple, il se trouve que le synonyme de « cadres de commandement » leur soit usuellement et officiellement attribué par les dirigeants de l’entreprise… Ce type désuet de désignation hiérarchique, encore pratiqué de nos jours, à l’ère des TIC, peut-il laisser indifférent le praticien, l’enseignant ou le chercheur en SIC ? Dès lors que l’on se réfère aux enseignements de l’histoire du management, du taylorisme et de la communication d’entreprise, une telle dénomination relèverait-elle de la simple anecdote ou constituerait-elle le symptôme d’une problématique plus complexe, plus insidieuse ? Serait-elle la traduction d’une forme itérative de « perte du principe de réalité » (Crozier, 1997 : 84) ou de « crise de l’intelligence » (Crozier, 1995) de nos élites ? Constituerait-elle également l’expression caricaturale d’un « phénomène bureaucratique » (Crozier, 1963), voire du regard porté par Maier (2004), Pilhes (1974) ou bien Guntern (2001) sur la grande entreprise ? Si nous associons cet apparent détail de langage organisationnel, à un faisceau d’observations scientifiques convergentes, nous pensons qu’il témoigne, pour le moins, d’une certaine distanciation entre la pensée managériale et cette nécessaire « pensée communicationnelle » (Miège, 1995) dans l’entreprise. Or, le Dircom de l’organisation, que la « révolution pacifique » (Champeaux et Bret, 2000) des TIC nous permet de qualifier de « e-Dircom » (Ely, 2005a), est sensé traduire opérationnellement cette dernière pensée, dans l’exercice de sa fonction. Mais il s’avère qu’il se trouve, trop souvent, hiérarchiquement confronté à des attitudes managériales antagoniques, à une sorte de système de pensée unique directoriale. Celui-ci se caractérise par des tendances managériales par trop cartésiennes, positivistes ou rationalistes. Ces tendances, apparaissent d’une telle prégnance dans l’organisation, qu’elles prennent la forme récurrente de la déconsidération, du désintérêt, de la méprise, voire d’un certain mépris, de la part du système managérial à l’égard de la fonction communication et des professionnels qui la représentent dans l'organisation (Messika, 1994 ; Tixier-Guichard, Chaize, 1993 ; Bernard, 2002 ; Establet, 2005, Bénard, 2006). La puissance de ces attitudes managériales spécifiques, nourricières des jeux du pouvoir (Enriquez, 1997) technocratique de l’organisation et comme empreintes d’une conception instrumentale et dédaigneuse du métier de communicant, est de nature à limiter proportionnellement toute valeur ajoutée de cette profession. A l'image d'un cercle vicieux, il peut en résulter une certaine inhibition des processus communicationnels internes dans l’organisation, au point qu’une « redéfinition du 186 Management des Technologies Organisationnelles : Journées d’Etude 2009 pouvoir managérial […] » (Batazzi, 2000) devant le domaine de la communication d’entreprise apparaisse nécessaire, sinon indispensable. Dès lors que l’on conçoit la nécessité d’une CI, non pas dans son sens télégraphique (Shannon ; Weaver, 1975), mais orchestral (Winkin, 1996) ou systémique (Mucchielli, 1999) de mise en commun, d'échanges réticulaires ou de communion, nous pensons qu’elle devrait tendre davantage, pour le plus grand intérêt de l’entreprise d’aujourd’hui, vers une forme de « réseau dans la pyramide » (Sérieyx, 1996), ce que nous désignons par les termes de « maillage construit transversalement ». Or, devant les contextes managériaux que nous venons d’esquisser, comment amener l’entreprise à innover et évoluer dans le sens d’une CI en réseau, davantage porteuse d’interactivités sociales, de désindividualisation, de motivation et de participation ? La construction d’une nouvelle forme de CI, via les TIC, peut-elle avoir véritablement lieu sans une appropriation politique, par la direction de l’organisation tout entière avec, comme principal corollaire, une phase préalable d’acculturation dans ses modes de management ? Une culture d’entreprise limitative de la CI de l’organisation Nous distinguons plusieurs liens entre ce complexe domaine de la culture d’entreprise [3] et ceux du management et de la communication interne. Nos observations, à l’instar de certains clivages culturels, rencontrés historiquement, entre sciences dures et sciences molles, sciences de gestion et Sciences de l'Information et de la Communication, sciences humaines et sciences exactes, ajoutées aux constats de plusieurs auteurs (Bulinge, 2002 ; Serieyx, 1993 ; Crozier,1997 ; Le Moënne, 1994 ; Barbaras, 1995), nous invitent à proposer de concevoir que, par « induction », selon les concepts de « dynamique des interactions » ou de « shismogénèse » (Bateson, 1936), les attitudes managériales dominantes dans l’organisation peuvent être sensiblement génératrices de sa culture tout entière et influer, par là même, de façon significative, sur la nature de sa propre CI. Ce processus culturel sous-jacent d’induction des attitudes managériales que ces dernières relèvent, par exemple, à l’excès, des modèles mentaux à dominantes cérébrales « cerveau gauche » (Herrmann, 1992) -, peut se trouver accéléré du fait du système organisationnel pyramidal adopté par l'entreprise « citadelle » (Sérieyx, 1996). Il peut alors occasionner, sur le terrain, une forme de « dérive pathologique » (Benoit, 2000) que nous constatons sous diverses aspects (forums désertifiés, messagerie infobèse, formation aux TIC inappropriée ou inexistante, résistances culturelles aux TIC et au partage de l'information, etc.), des « effets pervers » (Jauréguiberry, 1994), voire des « souffrances au Communications MTO’2009 187 travail » (Dejours, 2007) faisant apparaître le « système technicien » (Ellul, 1977) dans toute son acuité, où le DISTIC (Dispositif Socio Technique d’Information et de Communication, comme « lieu privilégié d’interaction entre communication et transmission [..] » [4]) en est alors réduit à l'instrument qui instrumentalise son utilisateur. Cette « maladie de la communication interne » que nous évoquions plus haut présente les aspects d’un phénomène culturel constituant une réalité dont l’ampleur pose question et qu’il serait intéressant de chercher à caractériser davantage, dans le cadre d’un projet de recherche de plus grande envergure. Si cette « maladie » semble générée ou, tout au moins, accentuée par certaines influences managériales, serait-elle également la conséquence de la pénétration d’une certaine culture d'entreprise Nord américaine, fonctionnaliste et individualiste ? Serait-elle le reflet, à l’intérieur de l’organisation, de problématiques culturelles et sociétales plus larges ? En quoi pourrait-elle trouver quelque remède, traitement ou palliatif dans l’application et les usages d’un modèle de CI spécifique ? Ce dernier pourrait-il instiller, dans l’organisation pyramidale par trop hiérarchisée, une certaine dose opportune de participation, d’écoute en profondeur (Crozier, 1997), une forme de régénération du lien social, à l’image de la réalisation, en son sein, des conditions d’une CI horizontale ou réticulaire et l’adoption conjointe des attitudes et comportements managériaux correspondants ? E-DIRCOM, VEILLE ET INTELLIGENCE COLLECTIVE, POUR UNE CI INNOVANTE Le sombre contexte organisationnel et managérial que nous venons de dépeindre, ne nous a pas empêché pour autant de tenter de réunir les conditions expérimentales nécessaires à la recherche, au sein de l’entreprise observée, de ce qui s’est avéré constituer par la suite les fondements d’une communication interne d’un nouveau type. Nous avons eu ainsi l’occasion de manager les modalités d’une communication interne qui soit bien plus le prolongement des réalités quotidiennement vécues par la majorité des salariés, qu’une transmission unilatérale d’informations descendantes. Ceci d’autant que le contexte de maladie de la communication interne observé fait bien souvent percevoir la communication interne, par ces derniers, comme un simulacre, une forme de manipulation managériale. La situation expérimentale que nous mettons en place dans cet esprit, au travers de la conduite d’un projet collectif, durant trois années consécutives, via un forum intranet de discussion et un groupware, s’inspire préalablement des 188 Management des Technologies Organisationnelles : Journées d’Etude 2009 apports de certaines théories complémentaires, pour converger vers une proposition de modélisation. Passer d’une CI « télégraphique » à une CI « orchestrale et systémique » Nous concevons l’impérieuse nécessité d’une communication interne, non pas dans son sens shanonnien de verticalité et d’unilatéralité, de l’émetteurmanageur vers les récepteurs-salariés, mais dans un sens plus batesonien de transversalité, d’interactivité, de réticularité, de « réseau dans la pyramide » (Sérieyx, 1996). Il nous paraît ainsi opportun de prendre appui sur la richesse des apports des théories de la communication orchestrale (Bateson, 1936 ; Winkin, 1996) et systémique (Mucchielli, 1999). Sur ces bases, en complément voire en substitution - du modèle télégraphique dont la direction de l’entreprise étudiée fait un usage systématique dans ses pratiques communicationnelles internes, nous posons, en résumé, qu’il peut exister une forme de communication interne orchestrale et systémique dans l’organisation : • une forme de communication interne orchestrale de l’organisation, au sens où les salariés, « membres d’une culture, participent à la communication [interne] comme les musiciens participent à l'orchestre » (Winkin, 1996) et où le Dircom de l’organisation figure comme chef d’orchestre de cette « communication sociale », en concertation avec sa hiérarchie, • une forme de « communication interne systémique » de l’organisation, telle que les salariés, composantes d’un « système de communications », « interagissent avec les autres éléments du système et avec eux-mêmes » (Mucchielli, 1999). Nous proposons à présent de confronter ce postulat aux opportunités que nous offrent, au sein de l’entreprise observée, les concepts de veille, d’intelligence collective, associés aux TIC matériellement à notre disposition. La veille et le groupware « Infocom » : la base d’une équipe virtuelle pour la CI Parmi les textes et ouvrages scientifiques que nous consultons, dans le cadre d’une approche bibliographique exploratoire [5], nous constatons que le domaine de la communication interne d'entreprise n’est pas encore directement envisagé comme objet de processus de veille et d’intelligence. Le contexte problématique que nous avons résumé dans la première partie de notre communication, nous invite à nous appuyer sur le constat de l’impérieuse nécessité d'organiser les conditions d’une « entreprise à l'écoute » (Crozier, 1997). Nous nous demandons ainsi dans quelles mesures nous pourrions construire, avec plusieurs salariés de l’organisation observée, un type de veille et Communications MTO’2009 189 d’intelligence qui soit spécifiquement adapté au champ de l’information et de la communication internes dont le e-Dircom [6] a la charge. Nous proposons dans ce sens un nouveau type de veille que nous dénommons « veille Infocom » et que nous définissons de la manière suivante : « Activité d'observation et d'analyse de l'évolution informationnelle et communicationnelle interne, pour dégager les menaces ou les opportunités d'information et de communication interne d'une organisation, soucieuse d'agir en tenant compte de son environnement » (Ely, 2007). Nous mettons ensuite en application le principe de la « veille Infocom » au sein d’une équipe virtuelle (Foulard, 1998 ; Coat et Favier, 2000), que nous structurons autour d’un groupware (cf figure 1) comme « système d’information créé pour permettre aux membres d’un groupe de travailler ensemble électroniquement, grâce aux technologies de l’informatique et des télécoms, avec trois dimensions principales : les participants, les méthodes collectives de travail et les technologies. » (Coat et Favier, 2000). Collaboration à distance e-Dircom Participants T.I.C.C. : Forum, partagées… bases Figure 1. Groupware « Infocom » (Ely, 2007) Le média principal de communication interpersonnelle, propre à cette équipe virtuelle est un forum intranet de discussion (dénommé « forum Infocom ») dont l’activité nous a été riche d’enseignements. Le forum intranet comme dispositif stratégique de CI Selon une posture méthodologique combinant principalement démarche ethnographique, observation participante et méthodes quantitatives et qualitatives, les données importantes que nous recueillons (près de 2000 messages postés sur le forum en trois années de fonctionnement) nous 190 Management des Technologies Organisationnelles : Journées d’Etude 2009 permettent, in fine, de positionner, pour le Directeur de la Communication d'une organisation, le forum intranet de discussion comme dispositif stratégique de communication interne (Ely, 2005b). Nous mettons ainsi en évidence, en théorie et en pratique, cinq dénominateurs communs observés entre les caractéristiques stratégiques de la communication interne et celles du forum intranet de discussion : Motivation, Participation, Co-construction, Communication interpersonnelle, Résolution de problèmes (cf. figure 1). FORUM Motivation Participation Co-construction Communication interpersonnelle Résolution de problèmes CI Figure 2. Points de convergence entre les caractéristiques du forum et les caractéristiques de la communication interne des organisations (Ely, 2005b) Au plan pratique, nous illustrons ces points de convergence par trois exemples d'actions concrètes de communication interne co-construites, au sein de l'organisation observée, via notre groupware et notre forum : des articles du journal interne, un organigramme électronique, une « mascotte » iconographique du journal intranet. Pour pousser plus loin notre réflexion, la pratique et l’analyse de ce même terrain expérimental nous amènent à nous interroger sur la nature du processus infocommunicationnel qui serait à l’origine des résultats obtenus. Communications MTO’2009 191 L’Intelligence Communicationnelle Interne : une forme de CI innovante de l’organisation Les résultats - quantitatifs et qualitatifs (Ely, 2005b) – encourageants, issus de l’activité journalière du forum « Infocom » sont-ils à mettre uniquement en relation avec le dispositif de veille « Infocom » que nous avons organisé ? La communication interne observée au sein de notre groupware et de notre forum, est-elle uniquement liée au processus mis en place de captation de l’information utile au e-Dircom ? Ou bien existe-t-il d’autres voies d’interprétation possibles ? L’ensemble de nos observations nous conduit, pas à pas, à appréhender la présence d’un processus complémentaire de celui de la veille « Infocom » mis en place. Celui-ci nous paraît embrasser plus largement les notions d'intelligence collective, de co-construction, de conception collective (Bouzon, 2003), de résolution de problèmes, de collaboration à distance, de Knowledge management (Goria, 2006) qui ont nourri notre réflexion et nos propres pratiques expérimentales. Nous identifions progressivement ce deuxième processus comme une étape nouvelle, un pallier que le groupe franchit, à un moment donné de son évolution, alors qu’il se trouve porté par la dynamique de veille et de partage d’informations préalablement initiée. Cette étape supplémentaire amène les participants à construire ensemble, petit à petit, plusieurs formes de communication interne, matérielles et immatérielles (cf. figure 1 et commentaires), et ce, sur la base d’un brassage informationnel et interpersonnel singulier. En cela, nous sommes conduits à proposer de distinguer ce deuxième processus sous la forme d’une « intelligence de la communication interne de l’organisation » que nous désignons par les termes interdépendants d’Intelligence Communicationnelle Interne (ICI). En nous appuyant ainsi principalement sur les résultats de notre expérimentation, ainsi que sur les concepts de « e-Dircom » (Ely, 2005a), d’ « entreprise intelligente » (De Rosnay, 2000 : 265-266 ; Zara, 2005 : 20, 21), de « groupware » (Coat, Favier, 2000), tout en intégrant la complémentarité des notions d’Intelligence organisationnelle, économique et collective , nous proposons de définir l’Intelligence Communicationnelle Interne de la manière suivante : Intelligence Communicationnelle Interne (ICI) : Capacité d’une « entreprise intelligente » à mobiliser collectivement des compétences pluridisciplinaires, en vue de la co-construction à distance de sa communication interne. Elle se traduit par un ensemble d’actions continues et 192 Management des Technologies Organisationnelles : Journées d’Etude 2009 coordonnées par le e-Dircom d'une organisation, à savoir : actions de veille et d’analyse info-communicationnelles internes, d’orientation, de collecte, de mémorisation, de partage et de diffusion de l’information. Celles-ci visent à traiter l’information de façon à la rendre stratégiquement exploitable et ce, par la transformation de l'information brute en information élaborée puis en communication interne. Ces diverses actions, légalement développées, doivent avoir comme supports un système d’information intégré par réseau interne à l’entreprise (Intranet) et, d’autre part, une communauté d’intérêts ou de pratiques composée d’acteurs internes collaborant à distance. (Ely, 2007). Sur la base de cette définition, nous présentons ci-après (cf. figure 1) une approche schématique de modélisation de l’ICI, dont la lecture peut être déclinée comme suit : • Orchestrée par le e-Dircom (au centre même du dispositif) s’appuyant lui-même sur un système d’information (Groupware « Infocom ») intégré par réseau interne à l’entreprise (TICC : Technologies de l’Information, de la Communication et de la Collaboration) et, d’autre part, sur une communauté d’intérêts ou de pratiques composée d’acteurs (participants) internes collaborant à distance, • …partant des besoins potentiels en information et en communication internes (1) existant au sein de l’organisation, • …l’Intelligence Communicationnelle Interne se traduit par un ensemble d’actions continues et coordonnées : veille info-communicationnelle interne (veille « Infocom »), orientation, collecte, mémorisation, et partage de l’information (2), • …visant à traiter l’information de façon à la rendre stratégiquement exploitable par le e-Dircom et ce, par la transformation de l'information brute en information élaborée (3), • …puis, par la transformation de l'information élaborée en communication interne (4), constituée d’une part, de supports « immatériels » (les cinq dénominateurs communs que nous avons rappelés plus haut : Motivation, Participation, Co-construction, Communication Interpersonnelle, Résolution de problèmes) et, d’autre part, de supports matériels élaborés, également présentés précédemment, tels que, par • exemple, les articles du journal interne, l’organigramme électronique, la « mascotte » graphique intranet, …la dernière étape se concrétisant par la diffusion (5) générale de ces derniers supports en direction de l’ensemble des salariés de l’organisation. Communications MTO’2009 193 1. 5. BESOINS DIFFUSION EN INFORMATION & Motivation EN COMMUNICATION INTERNES DE L’ORGANISATION Participation matériels 2. Co-construction Supports VEILLE Résolution de problèmes Collaboration à Communication élaboré INFOCOM distance ORIENTATION, nterpersonnelle Supports « immatériels » 4. TRANSFORMATION DE COLLECTE, Participants Groupe eDircom T.I.C.C. Forum « Infocom » MEMORISATIO N ET PARTAGE DE L'INFORMATION L’INFORMATION ELABOREE EN COMMUNICATION INTERNE 3. TRANSFORMATION DE L’INFORMATION BRUTE EN INFORMATION ELABOREE Figure 3 - Modèle d'Intelligence Communicationnelle Interne (Ely, 2007) CONCLUSION GENERALE Devant le besoin manifeste d’écoute des salariés, une certaine « perte du principe de réalité » des dirigeants de l’organisation pyramidale observée, certains rapports managériaux pathogènes à l’égard de la communication interne, devant les pratiques d’une communication interne quasi exclusivement télégraphique, descendante ou séquentielle, nous proposons de nous mettre en quête d’une communication interne innovante. Le modèle d’ « Intelligence Communicationnelle Interne » que nous amenons, installe, au sein de l’entreprise, via les technologies organisationnelles, une nouvelle forme de communication interne, composée de six facettes interdépendantes : • médiatisée par les TICC (Technologies de l’Information, de la Communication et de la Collaboration), • orchestrale et systémique, • managériale, • fondée sur l’écoute, 194 Management des Technologies Organisationnelles : Journées d’Etude 2009 • co-construite, • issue de l’intelligence. En remettant vivement en question les rapports actuels entre management, communication interne et opportunités offertes par les TIC, en prenant le contrepied de certaines pratiques managériales et communicationnelles existantes, l’« Intelligence communicationnelle Interne » est susceptible, par sa dimension orchestrale et systémique, de constituer un remède à une certaine « maladie de la communication interne » observée dans l’organisation. Par ce processus original de management stratégique de la communication interne de l’entreprise, nous tendons à favoriser concrètement cette « coïncidence entre la demande d'écoute et le besoin de connaissance indispensable pour l'apprentissage collectif » (Crozier, 1997), le tout, dans la perspective d’une recherche de (ré)génération du lien social. Pourrions-nous enfin espérer que, par la connaissance et la re-connaissance ainsi valorisées au sein du collectif de personnes qui en sont les premières richesses, cette nouvelle forme de management de la communication interne, participe d’une certaine Renaissance des vraies valeurs humaines et communicationnelles internes au sein de l’organisation ? NOTES [1] [En ligne, consulté le 12 avril 2009], http://www.invs.sante.fr/presse/2009/communiques/journee_sante_mentale_24030 9/index.html [2] C’est nous qui surlignons [3] Dans le sens d’ « un ensemble de références partagées dans l'organisation, construites tout au long de son histoire en réponse aux problèmes rencontrés par l'entreprise » (Thévenet, 1993). [4] [En ligne, consulté le 10 avril 2008], disponible sur : http://i3m.univ-tln.fr/Unedefinition-du-Distic.html [5] s’appuyant sur plusieurs auteurs dont Bulinge (2002), Rouach (1996), Hermel (2001), Ribault (1992), Jakobiak, Dou (1992), Lesca (1999), Besson, Possin (2001). [6] nous amenons ce concept de e-Dircom dans un précédent article (Ely, 2005a), le préfixe « e » signifiant « électronique », pour symboliser le passage, depuis les années 2000, aux pratiques des médias numériques de plus en plus prégnantes au sein de la profession. REFERENCES BIBLIOGRAPHIQUES Barbaras, S., 1995, Notre ennemi : le client, Paris, First. Communications MTO’2009 195 Batazzi, C., 2000, L'impact des (N)tic dans l'entreprise : vers une redéfinition du pouvoir managérial, in : actes du 3ème colloque du Cric, Montpellier les 30 Novembre et 1er Décembre 2000. [En ligne, consulté le 16 avril 2005], http://www.cricfrance.com/activite/manif/mtp2000/ateliers/management/batazzi.pdf . Bateson, G., 1936, La cérémonie du naven : les problèmes posés par la description sous trois rapports d'une tribu de Nouvelle-Guinée, Paris, Éd. de Minuit, 1971. Bénard, V., 2006, «La souffrance éthique dans le travail des chargés de communication d’une administration», Cairn, Travailler, [En ligne, consulté le 19 mars 2009], http://www.cairn.info/article.php?ID_REVUE=TRAV&ID_NUMPUBLIE=TRAV_016&ID _ARTICLE=TRAV_016_0155 Benoit, D., 2000, « Les Ntic dans l’entreprise : entre efficacité validée et effet placebo ; de l’usage raisonné à la dérive pathologique », 3ème Colloque organisé par le Cric, Pratiques de situations de communication et Ntic, Montpellier, [En ligne, consulté le 16 avril 2005], http//www.archivesic.ccsd.cnrs.fr/ documents/archives0/00/00/05/29 Bernard, F., 2002, « Contribution à une histoire de la communication des organisations dans les Sic », in : Les origines des Sic, Regards croisés, Robert Boure, Villeneuve D’Ascq, Presses universitaires du Septentrion. Bernard, F., 2005, La communication interne à l'épreuve d'un “projet fort” de recherche en communication des organisations, Communication et organisation, N°27, Bordeaux 3, Greco, p 144-167. Bernoux, P., 1985, La sociologie des organisations, Seuil, Evreux. Besson B., Possin J.C., 2001, Du renseignement à l’Intelligence économique, Paris, Dunod. Bouzon, A., 2003, Coopération et communication dans les projets de conception collective, ArchiveSic, Communication avec actes. X° Colloque bilatéral franco-roumain, Cifsic, Université de Bucarest, 28 juin - 3 juillet 2003, [En ligne, consulté le 16 avril 2005], http://archivesic.ccsd.cnrs.fr/sic_00000803/en/ Bulinge, F., 2002, Pour une culture de l’information dans les petites et moyennes organisations : un modèle incrémental d’Intelligence économique, Thèse en sciences de l’information et de la communication, Université du Sud Toulon Var. Champeaux, J., Bret, C., 2000, La cyberentreprise, Paris, Dunod. Coat F., Favier M., 2000, La réalité de la virtualité : Le cas des équipes virtuelles, Cerag, Umr, Cnrs, [En ligne, consulté le 16 avril 2005], http://www.aim2000.univmontp2.fr/pdf/Coat.pdf Crozier, M., 1963, Le phénomène bureaucratique, Paris, Ed. du Seuil. Crozier, M., 1995, La crise de l'intelligence. Essai sur l'impuissance des élites à se réformer, Paris, Interéditions. Crozier, M., 1997, L’Entreprise à l’écoute, La Flèche, Point. Dejours, C., 1993, Travail, usure mentale, Bayard, Paris. Dejours, C., 1999, Souffrance en France, Seuil, Paris. Dejours, C., 2007, Souffrir au travail, in : Le Monde du 23 juillet 2007. Détrie, P., Broyez, C., 2001, La communication interne au service du management, Paris, Liaisons. De Rosnay, J., 2000, L'homme symbiotique. Regard sur le troisième millénaire, Saint-Amand, Éd. Le Seuil. 196 Management des Technologies Organisationnelles : Journées d’Etude 2009 De Vasconcelos, C., 1999, L’Intelligence économique et la stratégie de développement de la Pme, Thèse en Sciences de gestion, Université de Grenoble 2. Dufour, D-R., 2003, L’art de réduire les têtes. Sur la nouvelle servitude de l’homme libéré à l’ère du capitalisme total, Paris, Denoël. Duterme, C., 2002, La communication interne en entreprise. L'approche de Palo Alto et l'analyse des organisations, Bruxelles, De Boeck Université. Ellul, J., 1977, Le système technicien, Paris, Calmann-Levy. Ely, F., 2005a, Dircom & TIC : le DirCMO, quand l’anagramme préfigure la révolution de la fonction...vers l’ e-dircom , Isdm N°21, article N°252, [consulté en ligne le 10 octobre 2005], disponible sur : http://isdm.univtln.fr/articles/num_archives.htm#isdm21 Ely, F., 2005b, « Le forum Intranet de discussion : un nouveau dispositif stratégique de communication interne des organisations ? », Revue Communication & Organisation N°28, Le coaching, enjeux, paradoxes et perspectives, 2eme semestre 2005, Bordeaux 3, Greco [consulté en ligne le 14 avril 2006], http://www.montaigne.ubordeaux.fr/GRECO/Revue/28coaching/ely.htm Ely, F., 2007, Dircom et Technologies de l’Information, de la Communication et de la Collaboration : le e-Dircom, pour une Intelligence Communicationnelle Interne de l’organisation, Thèse en Sciences de l’Information et de la Communication, Université du Sud Toulon Var, [consulté en ligne le 16 janvier 2008 ], http://archivesic.ccsd.cnrs.fr/index.php?action_todo=search&view_this_doc=sic_00 349806&version=1&halsid=jdt6lumkchml326otgg3r1nom0 Enriquez, E., 1997, Les jeux du pouvoir et du désir dans l'entreprise, Paris, Desclée de Brouwer. Establet, P., 2005, Pénible sera le réveil des entreprises sans Dircom, article de la revue Stratégie, N° 1363 du 31/03/2005. Foulard, C., 1998, L'entreprise communicante, Paris, Hermès. Goria, S., 2006, Knowledge management et Intelligence économique, deux notions aux passés proches et aux futurs complémentaires, [En ligne, consulté le 31 janvier 2007], http://isdm.univ-tln.fr/PDF/isdm27/isdm27_IE&KM_Goria_06.pdf Guntern, G., 2001, La médiocratie démasquée : pour un leadership créatif, mondial. Paris, Village Hermel L., 2001, Maîtriser et pratiquer la veille stratégique, Afnor, Paris, Collection Pratique. Herrmann, N., 1992, Les dominances cérébrales et la créativité, Paris, Retz. Hirigoyen, M.F., 1998, Le harcèlement moral, La violence perverse au quotidien, Syros, Paris. Hirigoyen, M.F., 2001, Malaise dans le travail. Harcèlement moral: démêler le vrai du faux. Paris, Syros. Hopquin, B., 2008, Cadres. La Comédie du Bonheur, in : Le Monde du 18 septembre 2008 Jakobiak F., Dou H., 1992, « De l’information documentaire à la veille technologique pour l'entreprise », in : La veille technologique : l'information scientifique, technique et industrielle, H. Devals et H. Dou, Paris, Dunod. Jauréguiberry, F., 1994, « De quelques effets pervers des télécommunications en entreprise », in : La communication Interne, une approche croisée, revue Communication et organisation, N° 5, », Greco. Communications MTO’2009 197 Le Moënne, C., 1994, Communication “by smiling around” et crise managériale, Revue Réseaux, N° 64, Paris, Cent. Lesca, H,. Lesca, E., 1999, Gestion de l’information, Qualité de l’information et performances de l’entreprise, Paris, Éd. du management. Levy, P., 1997, L’Intelligence collective. Pour une anthropologie du cyberespace, Paris, La découverte. Lojkine, J., Maletras, J-L., 2003, Le temps de travail informationnel : des mesures incertaines et contradictoires, Revue de l'Ires, N° 42, [En ligne, consulté le 16 avril 2005], http://www.ires-fr.org/files/publications/revue/r42/R424.pdf Maier, C., 2004, Bonjour Paresse. De l'art et de la nécessité d'en faire le moins possible en entreprise, Paris, Michalon Massé, G., Thibaut, F., 2001, Intelligence économique, un guide pour une économie de l'intelligence, Bruxelles, De Boeck Université. Messika, L., 1994, Dircoms et journalistes : une convergence du flou, revue Réseaux N° 64, Cent Miège, B., 1995, La pensée communicationnelle, Grenoble, Coll. « La communication en plus », Presses Universitaires de Grenoble. Mintzberg, H., 2004, Le management, voyage au centre des organisations, Editions d’organisation, Paris Mucchielli, A., 1999, Théorie systémique des communications, Paris, Armand Colin. Nicolas, Y., 1996, « Genèse de la communication dans l’entreprise moderne », in : La communication de la grande entreprise, Revue Entreprise et Histoire, N° 11, Éd. Eska, Paris. Pilhes, R.V., 1974, L'imprécateur, Paris, Éd. du Seuil. Ribault, T., 1992, Séminaire veille stratégique, Ensptt. Rouach, D., 1996, La veille technologique et l’Intelligence économique, 2ème édition, Paris, Puf. Salengro, B., 2005, Le stress des cadres, L’Harmattan, Paris. Sérieyx , H., 1993, Le Big bang des organisations, Paris, Éd. Calmann Levy. Sérieyx, H., 1996, Face à la complexité : Mettez du réseau dans vos pyramides, Paris, Village Mondial. Shannon, C.E., Weaver, W., 1975, « La théorie mathématique des communications », Paris, Retz. Thévenet, M., 1993, La culture entreprise, Coll. Que sais-je ?, Paris, Puf. Tixier-Guichard, R., Chaize, D., 1993, Les Dircoms. A quoi sert la communication d’entreprise ?, Paris, Éd. Le Seuil Winkin, Y., 1996, Anthropologie de la Communication, Paris, Essais. Zara, O., 2005, Le management de l’Intelligence collective. Vers une nouvelle gouvernance, Paris, M2 Editions. 198 Management des Technologies Organisationnelles : Journées d’Etude 2009 Communications MTO’2009 199 Désordres organisationnels induits par l’abus des tableurs Denis ZANDVLIET et Yann XOUAL Consultants Valu€360 / Noisy le Grand et XAGA / Saint Maur des Fossés RESUME « C’est de l’Excel Money ! » est une exclamation souvent entendue qui montre un déphasage organisationnel important entre la volonté du management et la réalité du terrain. Cette communication montre les raisons d’une certaine désorganisation du management jusqu’au plus haut niveau, avec l’impact sur la gouvernance, et, présente des solutions ad hoc. Les périodes de crise et la recherche permanente du cash à court terme ont amplifié le besoin de reporting dans le monde anglosaxon. Le monde européen n’est pas exempt de la maladie du tableau de bord et de l’abus des indicateurs de suivi et de performances. Au cours de cette dernière décennie, le manager s’est transformé en un compilateur de données diverses sur tableur. Montrer que ses prévisions sont correctes est politiquement plus important que faire mieux que prévu. La capacité d’écoute en a été réduite. La nécessité de manipuler des chiffres dans tous les sens, de communiquer fréquemment les prévisions et résultats, a donc imposé un usage général du tableur au dépend des outils de gestion, maintenant classiques, comme les ERP, mais souvent trop rigides. La souplesse, mais aussi la permissivité, des tableurs induisent alors des défaillances décisionnelles et organisationnelles. Les reportings s’avèrent trop souvent manquer de fiabilité et de traçabilité. Les contrôles en sont parfois biaisés, laissant des ouvertures à des risques de fraude. Ces outils manquent aussi d’ergonomie et sont mal adaptés aux attentes opérationnelles du terrain ; les managers intermédiaires sont souvent lassés de remplir des tableaux pour remplir des tableaux. 200 Management des Technologies Organisationnelles : Journées d’Etude 2009 Ces défaillances adressent directement la qualité tant des décisions que de la gouvernance des entreprises, des collectivités et des administrations. La communication s’appuie sur de nombreux constats effectués par les auteurs tant au titre de manager que celui de consultant, une confirmation bibliographique qui montre la permanence de la problématique depuis deux décennies, et, sur une enquête auprès de dirigeants, de directeurs financiers, de contrôleurs de gestion et de responsables opérationnels. L’enquête a été conduite de la mi-juin à septembre 2009 ; elle donne une vision actualisée de ces problématiques. Conduite sous l’égide du MTO, elle est structurée autour des outils utilisés (ERP, BI, tableur, …), des constats, des pratiques, des comportements et des attentes de ces responsables. XAGA et Valu€360 concluent par des solutions possibles pour la mise en place d’une gouvernance ad hoc à la situation de chaque entreprise : • Réduire les erreurs par des étapes et des formules de vérification • Modéliser les informations financières à partir des données opérationnelles • Gérer de façon centrale les informations structurantes • Contrôler les mécanismes de calculs dans les tableurs à l’aide d’outils • Permettre des paramétrages locaux en cohérence avec la gestion globale de l’entreprise • Disposer d’outils adaptables aux évolutions métiers, structurelles et organisationnelles INTRODUCTION : L’APPARITION DU TABLEUR ET DES EFFETS PERVERS Au milieu des années 80, un grand groupe pétrolier a décidé d’équiper tout son service marketing de PC et d’inverser les flux d’information entre la direction du marketing et l’informatique. Désormais, le marketing n’était plus dépendant de l’informatique centrale. Cette révolution a été permise par l’apparition des outils bureautiques, dont en particulier le tableur. Les délais d’attente de création d’application ou de modification d’une application étaient, sont, et resteront encore trop longs. Pour un ERP, le premier go-live dans une grande entreprise est rarement en dessous d’un an, voire 2 ou 3 ans dans les grands projets. Des activités telles que celles du marketing ne peuvent pas supporter de tels délais : les évolutions des services, des marchés, des technologies, des modes se mesurent plus en mois qu’en années. De plus, les actionnaires des entreprises veulent maîtriser l’évolution de Communications MTO’2009 201 leurs fonds et l’usage qui en est fait, avec une fréquence et une précision de plus en plus élevées. L’entreprise se trouve donc prise sous la double pression de s’informer et d’informer dans des délais de plus en plus courts. Les cours de bourse peuvent varier de plusieurs points une journée, les parts de marché se mesurent chaque semaine dans le secteur pharmaceutique. L’information nécessaire à la prise de décision doit être fournie au même rythme. Les directions financières, avec la fonction de contrôle de gestion, sont les bras armés de l’actionnariat et des dirigeants pour traduire en dollars ou en euros les conséquences des évolutions opérationnelles et de leurs marchés. Il leur fallait se doter d’un moyen permettant des calculs et des transmissions de données rapides et dont ils auraient toute la maîtrise : le tableur. Le tableur est un outil magique comparé au stylo-papier ou à la calculette. On peut y traiter soi-même des milliers de données en quelques instants, pour autant que celles-ci soient captées. Il est donc naturel que, sous la pression des directions générales, le tableur soit devenu un outil indispensable pour les directions financières. Dès les années 80, les cabinets d’audit ont équipé leurs consultants de PC portatifs avec des tableurs pour traiter les données financières des entreprises auditées dans le cadre des commissariats aux comptes. On a donc assisté, non pas à un phénomène de mode, mais à un phénomène structurel en profondeur dans les habitudes de travail des directions financières et de contrôle de gestion. Très rapidement, les directions opérationnelles se sont aussi dotées de tableurs, au moins pour pouvoir communiquer les données exigées aux formats exigés par les directions financières. Mais un effet pervers générique s’est rapidement avéré : le dire du tableur devient la vérité. L’approche financière anglo-saxonne « court-termiste » a de plus provoqué la réduction de l’information de management de l’entreprise à son presque seul contenu financier. En effet, la fréquence exigée pour mettre à jour les données a obligé tant les opérationnels que les financiers à « shunter » régulièrement les données opérationnelles et les mécanismes de transformation qui permettent de construire les schémas financiers, et à s’en tenir dans leurs rapports (sous tableurs) aux données financières. Le tableur installé comme outil standard et reconnu de facto comme tel devient donc le détenteur de la vérité économique. Il suffit alors de changer les valeurs des objectifs dans les cellules pour construire un business plan et pour pouvoir exiger des collaborateurs de le respecter. C’est l’apparition de l’« Excel Money ». Mais la manipulation de données dans un tableur est un exercice souvent risqué : écrasement de formules, rupture de lien, erreur d’adressage de cellules, erreur de zone de sommation, erreur de parenthèse dans une formule, … 202 Management des Technologies Organisationnelles : Journées d’Etude 2009 L’introduction des macros a augmenté les possibilités d’erreurs. Les tableurs ne sont pas dotés d’outils suffisants pour le contrôle des mécaniques de calculs que l’on y programme. Des audits (cf. bibliographie : [1] Michel Volle ; … ; [26] Raymond Panko) montrent que le taux de tableaux comportant des erreurs de calculs s’évalue à plus de 10%, voire 30% et plus. Le tableur devenant le détenteur de la Vérité financière, et donc contenu de stratégie, la confiance aveugle de décideurs a même conduit à des erreurs monumentales : en septembre 2008, suite à un reformatage de fichier, lors du rachat de Lehman, Barclays s’était engagé à 179 contrats de plus sur un total de 1.000, avec un impact grave (cf. bibliographie : [18] Reynald Fléchaux, entre autres). Que dire du cas de la Société Générale où le tableur a été dénoncé comme l’un des outils ayant permis la « fraude » (sources : articles de journaux ; bibliographie : [27] Georges Vignaux) ? Cet effet pervers a été conforté par l’exigence de l’actionnariat et de dirigeants à gérer à partir de la seule vision financière. Cet effet pervers s’est amplifié avec l’accélération de l’économie de l’information. L’exigence financière ‘court terme’ a de plus créé un phénomène de tabou sur les différentes problématiques liées au reporting par tableur. Invoquer des difficultés d’outils reviendrait à se faire accuser d’incompétence. C’est la sacralisation du règne de l’ « Excel management » La souplesse de construction des tableaux, associée à l’absence d’outils permettant de s’assurer la fiabilité et de tracer les évolutions, a donc créé un phénomène de désorganisation, d’une part, par des prises de décisions fondées sur des résultats erronés, et, d’autre part, par une distorsion progressive et rampante de l’organisation. Le tableur devient facilement un outil permissif. REVUE DE LA LITTERATURE Il a été recherché sur le net des références aux problématiques liées à l’usage des tableurs : des milliers de références ont été trouvées. Pire, European Spreadsheet Risks Interest Group recense plus de 277 000 références sur la thématique "errors and frauds in spreadsheet" (« The Good, the Bad and the Ugly », Internal Auditor, avril 2009). Selon Business Finance, août 2008, de nombreuses études faites sur ces dix dernières années montrent que 86% des tableurs contenaient des erreurs ! Selon Microsoft, plus de 400 millions de personnes utilisent son tableur. Martin Erwig [25], Raymond Panko [26], le BPM Forum [10]) et bien d’autres montrent que l’outil d’analyse et de reporting le plus répandu dans le monde est utilisé quotidiennement pour prendre des décisions cruciales avec force risques : Communications MTO’2009 203 cette omniprésence peut exposer les entreprises à des niveaux de risques inacceptables lorsque les tableurs et autres applications bureautiques sont utilisés dans un environnement non contrôlé. Les articles recherchent les causalités de ce manque de contrôle. De nombreux auteurs expliquent qu’une cause majeur est la faible maîtrise de l’évolutivité ; celle-ci ne pourra être ni contrôlée ni exploitée en dehors de la personne qui s'est chargée de développer des fonctionnalités complexes, ellemême en perdant le contrôle au bout de quelques mois. La prise de conscience constatée sur le net ne s’accompagne pas pour autant d’une remise en cause du fond, mais surtout de recettes sur « comment éviter de faire une erreur de calcul », ce qui est insuffisant pour résoudre cette problématique. Mais, il est aussi mis en évidence le faible degré d'interopérabilité avec les bases de données de l'entreprise et le manque de capacité de partage de l'information. Il est aussi montré que le risque d’avoir une vision erronée des indicateurs de performance est élevé du fait de nombreux retraitements de données et de leur passage de main en main, ce qui relève d’une problématique organisationnelle. METHODE Cette communication s’appuie sur des expériences des auteurs, mais aussi sur celles d’auditeurs, de consultants, de managers de business units, de directeurs commerciaux et de directeurs des systèmes d’information au sein d’entreprises de différentes tailles et métiers que les auteurs ont connus au cours de leurs carrière. L’étude bibliographique révèle la fréquence et la gravité des erreurs de décisions issues de l’abus d’usage de tableurs, alors que généralement un voile pudique est jeté sur ce type d’information. Le questionnaire est diffusé auprès de dirigeants et responsables d’entreprises pour préciser d’un point de vue quantitatif les analyses et conclusions issues des ces expériences, en complément à ceux révélés dans les références bibliographiques. Le questionnaire pourra nuancer, en positif ou négatif, les résultats des études précédentes. DISCUSSION ET IMPLICATIONS MANAGERIALES L’usage du tableur a des implications lourdes dans l’organisation et les modalités de décision du management. Comment un simple outil, aussi banal, 204 Management des Technologies Organisationnelles : Journées d’Etude 2009 peut-il avoir des qu’organisationnelles ? conséquences majeures tant décisionnelles Jusqu’à la fraude Ecoutons ce que se disaient, dans un avion, deux collaborateurs d’un grand groupe automobile discutant du management des concessionnaires : « … on ne comprenait pas, les objectifs de croissance étaient atteints mois par mois dans le reporting, mais au semestre dans l’ERP, cela ne collait plus du tout ! on a cherché … Et bien, certaines concessions changeaient les chiffres des ventes du mois précédent ! Comme ça, si sur une base 100, on devait faire +3, celui qui n’avait fait que +2 mettait 99 au lieu de 100 pour le mois précédent ! Du coup, on a mis des macros pour vérifier que les données de vente du mois précédents étaient bien les mêmes … » Le réflexe de l’auditeur interne a été de mettre des macros pour vérifier le dire du déclarant. C’est une absence certaine de considération organisationnelle globale. Dans ce type de processus, il était inutile de remonter les données du mois précédent, même s’il est judicieux de les y laisser pour que le concessionnaire voit sa progression. Il suffisait de consolider les données du nouveau mois et de faire le calcul de progression des ventes à partir des données déclarées précédemment. On peut d’ailleurs se demander si avant la découverte de cette fraude la direction centrale conservait les données des mois précédents de façon opérationnelle, ce qui traduirait une insuffisance grave de traçabilité. Les déclarants avaient donc trouvé une faiblesse dans leur système de reporting par tableur et en ont profité … un certain temps ! L’homme reste humain ! Cet exemple adresse directement un phénomène de fraude provoquant une désorganisation : erreurs de décisions, interrogations du pourquoi, recherches, demandes d’informations complémentaires, contrôles supplémentaires, augmentation du coût administratif … résolu ici par une complication des fichiers tableurs. Le tableur est un outil très puissant, mais il en est d’autant plus un outil permissif. Les sachant objecteront que l’on a tous les moyens d’éviter ce type de phénomène et de résoudre correctement les questions organisationnelles. Cela est vrai, mais au prix d’efforts très importants : ceux de programmer de véritables applications dans un outil qui, néanmoins, n’est pas conçu pour être un applicatif partagé. Communications MTO’2009 205 Les caractéristiques du tableur et les évolutions technologiques Un tableur gère des données, facilement jusqu’à des dizaines de milliers, et permet d’appliquer des fonctions calculatoires et conditionnelles. Ces fonctions évoluées permettent de calculer relativement facilement tout ce qui est nécessaire en gestion, et même plus. Les graphiques dynamiques croisés permettent d’obtenir des graphes sophistiqués propres à présenter des analyses et synthèses de qualité en comité de direction. L’utilisation de ce type de graphique crée une demande et les utilisateurs ne reviennent plus en arrière sous peine de dégrader la qualité de leurs présentations. Le tableur est structuré en feuilles. Les feuilles en matrices. Toute cellule est adressable. Les adressages peuvent se faire par calcul de chaine de caractères, donc indirects. Les cellules peuvent être nommées, une à une ou par ensemble, ce qui est une pratique recommandée qui améliore la qualité de la construction, mais demande des efforts importants. En fait, le nommage des cellules est trop rarement pratiqué. On peut écrire des formules très élaborées dans un tableur, mais la lisibilité en est très médiocre, ne serait-ce que par l’incrustation des parenthèses. Les contrôles natifs permettent de mettre en évidence des erreurs de consistance dans la construction des calculs, comme les références circulaires. On peut aussi afficher les relations de calculs entre les cellules. Mais il n’y a aucun moyen de visualiser et contrôler la programmation dans sa globalité et d’en vérifier la consistance et l’exactitude. L’apparition des macros a permis d’introduire de véritables programmations, à des niveaux relativement complexes, mais sans avoir les sécurités que l’on met en œuvre par une programmation classique avec un SGBD. Sans macro, la mécanique de calcul d’un tableur est limité au fait que chaque cellule calcule sa valeur mais qu’on ne peut pas enclencher le calcul de la valeur d’une cellule à partir d’une autre cellule. Les techniques de programmation des tableurs s’en trouvent limitées et compliquées. L’apparition de fonctions de partage (« share… ») a aussi augmenté l’intérêt des tableurs, mais il reste d’importantes limitations dans la mise à jour des données, voire l’apparition de conflits lors des mises à jour en mode partagé, même s’il y a des moyens de verrouillage. Les flux de reporting dans l’entreprise : de la facilité aux difficultés Prenons le cas d’une entreprise structurée en divisions et départements. Sa taille sera alors de quelques centaines de personnes à quelques milliers. Dans le cas de très grandes entreprises, il peut y avoir de 4 à 5 niveaux hiérarchiques majeurs, donc quelques dizaines de milliers à plus de cent mille personnes. 206 Management des Technologies Organisationnelles : Journées d’Etude 2009 Dans le cas d’un Groupe, on trouvera typiquement des structures du type : Groupe – Filiales – Divisions – Départements - Unités On voit donc qu’entre la PME et le Grand Groupe le nombre de niveaux du reporting va être généralement de 2 à 5. Chaque niveau de hiérarchie va collecter les informations des 3 à 7 structures le composant, 10 étant un maximum. Un reporting demandera donc la consolidation de quelques dizaines à quelques centaines d’unités de production (industries ou services). Dans une direction informatique, il y a quelques dizaines à quelques centaines de projets à gérer en parallèle. La consolidation de centaines de tableaux pour obtenir une vision globale est donc assez commune. Lorsqu’une entreprise n’a pas intégré les informations opérationnelles et les informations financières dans un ERP (ce qui est la pratique courante), il est demandé à chaque unité de production de produire périodiquement les données traduisant l’activité, de préférence directement sous forme financière pour éviter des efforts de traduction des données opérationnelles vers les données financières. Or les métiers des unités ont toujours des différences opérationnelles notables. Au niveau de la direction générale d’une entreprise, du fait de la diversité opérationnelle et de l’éloignement hiérarchique, il est souvent malheureusement difficile d’appréhender la réalité opérationnelle quotidienne, celle qui est pourtant porteuse des résultats financiers. La facilité est donc de demander directement les données financières, avec généralement l’application de règles de transformation parfois grossières, mais justifié au niveau direction générale car reposant sur des moyennes. Les frais fixes sont par exemple répartis suivant une hyper-équation fondée sur un mixte des données de l’année précédente et les objectifs assignés à chaque unité. De telles règles induisent des approximations, tantôt au bénéfice des uns, tantôt au détriment des autres. Mais les tableaux seront d’autant plus faciles à construire et à interpréter du point de vue de la direction financière. L’une des problématiques induites est que les managers intermédiaires ont rarement le droit de proposition sur la structure et les règles de calculs des tableaux, elles sont imposées. La conséquence est souvent un certain mécontentement. Une autre problématique du reporting par remontées successives de tableaux est que l’information reste strictement ascendante. Il est certain que toute l’information de consolidation ne doit pas être mise à portée de tous, mais le management intermédiaire subit une frustration par manque d’information Communications MTO’2009 207 descendante. La mécanique de reporting par tableaux ne comporte pas d’automatisation pour redescendre l’information de pilotage. L’examen du processus de remontée des tableaux du point de vue des délais apporte une compréhension des causalités de manque de qualité et de fiabilité, voire de traçabilité des reportings. Constituer un tableau de reporting mensuel par exemple prend pour le manager intéressé généralement quelques heures, voire une journée. Le temps de saisie en soi n’est pas important, mais la collecte des données et leurs vérifications sont très gourmandes de temps. Le manager aura donc tendance à demander à ses responsables de remplir eux-aussi des tableaux. Ce qu’il subit, eux peuvent bien le subir également. Le reporting va être remonté sur 2 à 5 niveaux. Il est donc nécessaire de diviser le délai de remontée par le nombre de niveaux. Chaque niveau a le devoir de vérifier la qualité des informations lui parvenant, puis doit également convertir et agglomérer ces données pour le niveau supérieur. Le temps théorique de travail est généralement court, mais la pratique est toute autre. Il y a toujours des erreurs de saisies, de compréhension sur la nouvelle donnée à renseigner (car il y a presque toujours une nouvelle donnée), des personnes en vacances, un message non-arrivé, un format de tableau dans l’ancienne version... les causes de travail supplémentaires sont très nombreuses et très fréquentes. Les périodes de fin de mois sont donc souvent des périodes de stress, car la priorité devient le reporting. Dans les sociétés anglo-saxonnes, c’est la fin de trimestre qui est la plus stressante car les attentes du management sont très exigeantes en fin de quarter du fait de la propre exigence des actionnaires (cotation en bourse du groupe, …). Le tableur, outil facile d’usage, devient donc par son essence (et sa permissivité) un outil de désorganisation des activités normales de l’entreprise, avec aggravation lors des reportings. Les défaillances potentielles du système de reporting par tableur Les défaillances potentielles sont nombreuses. Il en est dressé ici la liste des principales : Manque de traçabilité des reportings Les fichiers ne sont pas signés lors de leurs émissions par leurs auteurs. Qui a réellement saisi telle ou telle donnée ? Les fichiers sont rarement conservés sur de longues périodes (a minima l’année) du fait que l’ERP, à coté, détient la vérité comptable, le reporting étant un instrument de pilotage à vue, même pour la fiscalité. Or bien des décisions stratégiques (sur un client, un projet, un 208 Management des Technologies Organisationnelles : Journées d’Etude 2009 produit, …) sont prises à partir des informations produites par le reporting. Il y a un besoin incontournable de traçabilité. Manque de fiabilité des informations Le problème est que les erreurs ne sont pas flagrantes : 5% d’erreur sur un résultat est peu visible. Or ce sont les erreurs le plus à craindre. Une erreur de 50% amène un réflexe de contrôle, pas un écart de 5%. Il faut aussi prendre conscience qu’un individu peut facilement concevoir des proto-applications impliquant des milliers de cellules contenant des formules (utilisation du copie-coller avec décalage de référence). Un taux de 1 pour mille d’erreur, très faible a priori, signifie que les résultats obtenus sont certainement faux. Non-reproductibilité des résultats Les tableaux étant rarement conservés ou conservables, on ne peut dès lors reconstituer les résultats ; s’ils sont conservés, les fichiers d’agglomération ne peuvent pas être réutilisés car souvent des données ont été forcées (généralement par simplification dans l’urgence). De plus, le tableur étant très facile à modifier (« c’est fait pour »), afin de mieux réagir à une conjoncture, des événements, des exigences de contrôle, … on a fait évoluer les tableaux. Plusieurs mois après, on ne peut plus retrouver quels changements ont été faits. Déstructuration de l’information L’usage du tableur fait que l’on codifie les informations dans la forme la plus pratique possible au moment de la réalisation du tableau et dans son contexte particulier ; il est fréquent par exemple de tronquer les périodes à la fin de l’année fiscale pour un projet pluriannuel (il sera toujours temps à la fin de l’année …) : le total obtenu n’est donc pas le total du projet. Il est construit des vues spécifiques de l’information et des données qui conduisent à une déstructuration globale des informations gérées, induisant des erreurs de compréhension quant à la signification des informations obtenues. Contrôles d’activité difficiles Le reporting est par essence un outil de contrôle, tant financier qu’opérationnel. Or les simplifications faites dans la remontée des données, puis les agglomérations des données, rendent difficile la compréhension du pourquoi des écarts. Il est fréquent de voir agglomérer dans l’ERP une masse de données opérationnelles en perdant la source de ces données car la vision globale demandée ne l’a pas estimée utile vis-à-vis de ses propres attentes (exemple : agglomération des jours de travail par projet en ignorant qui et sur quelles Communications MTO’2009 209 étapes). La vue financière a trop souvent ignoré la réalité opérationnelle ; les consignes opérationnelles d’une même hiérarchie peuvent être ainsi en contradiction avec les objectifs financiers. Suivis budgétaires délicats La concentration du tableur sur l’information financière laisse espérer que le contrôle budgétaire soit facilité. Or, les mécanismes d’agglomération et de souci de vision à court terme oblitèrent nombre de facteurs, dont souvent le moyen/long terme. Dans les collectivités, les engagements se font à l’année, mais les contrats avec les fournisseurs sont très souvent à cheval sur au moins deux années. Il apparaît alors une incertitude d’une période budgétaire à l’autre ; il sera alors imposé des tableaux supplémentaires pour évaluer la hauteur de l’engagé qui reste en encours. Plus généralement, une enquête du BPM Forum (réf. J-) révèle que seulement 16% des entreprises construisent leurs budgets de dépenses de façon suffisamment précise dans les temps requis, et ce taux tombe à 11% pour les budgets de ventes ; 76% des entreprises reconnaissent utiliser un tableur. Problèmes de vérification pour les auditeurs et contrôleurs de gestion Au-delà des applications comptables et des grandes fonctions des ERP, les auditeurs doivent également contrôler le contenu des tableurs, jusque dans le détail de la cellule. C’est une conséquence des réglementations SOX, Solvency II, IFRS, … qui exigent que la traçabilité des données financières soient complètes. Or les tableurs interviennent de plus en plus dans la construction des données financières et fiscales, pour la présentation aux comités pour la gouvernance des entreprises. L’une des problématiques classiques est le cas des retraitements qui se font fréquemment hors les outils de gestion, c'est-à-dire sur des tableurs. Contrôler les calculs dans un tableur peut impliquer de contrôler des milliers de cellules et leurs enchaînements, surchargeant alors le travail d’audit. Ouverture aux risques de fraude Les tableurs sont fréquemment des outils de calculs de primes. Les entreprises font varier tous les ans les critères et les logiciels de RH ne peuvent pas toujours suivre, surtout lorsque l’on doit considérer des valeurs opérationnelles (nombre de rendez-vous, nombre de contrats, …). Mais au-delà des calculs de primes aux personnels, lorsque les décisions de gestion utilisent des tableaux, il apparaît des faiblesses systémiques. Les fraudes atteignent facilement des montants de plusieurs millions d’euros, et parfois très au-delà. Le 210 Management des Technologies Organisationnelles : Journées d’Etude 2009 Sarbanes-Oxley Compliance journal cite le cas d’une fraude où le directeur financier a falsifié les états financiers pendant 5 ans, impliquant lors de la découverte une chute de la valeur de capitalisation de 437 millions de dollars. Démotivation du management intermédiaire Cette démotivation est l’un des risques réels de l’abus du tableur. Les managers ont l’obligation de remplir de plus en fréquemment des tableaux. Dans le meilleur des cas, ils ont une lassitude qui les invite à porter moins d’attention à la qualité du reporting, dont ils sont un maillon indispensable. Les indices de l’« abus de tableur » Comment savoir si entreprise ou une organisation a sombré dans l’« Excel Hell » (l’Enfert d’Excel) ? Quelques indices sont proposés ici : Le nombre de personnes concernées Dès que plus de 5 personnes sont concernées à remplir le même tableau, chacune devant rechercher des informations auprès de leurs collaborateurs ou collègues, il y a une demande significative de partage en écriture des informations. Le nombre de tableaux à consolider Si pour fournir régulièrement un tableau de bord, il est nécessaire de consolider plus de 5 tableaux de données différents, il se pose un problème de structuration des informations gérées. On constate alors également des variations fréquentes de structures des tableaux tout au long de l’année. Le nombre d’indicateurs de performances croit et devient important Faire croître le nombre d’indicateurs est un symptôme de difficultés à maîtriser le modèle économique de l’entreprise ou de la collectivité. Il doit être admis qu’un nombre finis d’indicateurs ne peut pas représenter le comportement exact d’une organisation dans toute sa finesse. Les indicateurs ne sont qu’une représentation modélisée des activités. Par contre, il est nécessaire de disposer des indicateurs qui montrent les activités sous un ensemble suffisant de vues. Les fondamentaux sont souvent exprimés à partir des indicateurs de mesure des processus de bout en bout. A titre d’exemple, une dizaine de tableaux de bord doit suffire à représenter l’activité d’une direction des systèmes d’information, activités de services complexes par nature. Communications MTO’2009 211 La fréquence des retards Lorsque pour la clôture mensuelle, ou même une simple consolidation hebdomadaire, il est constaté des retards fréquents (au moins 1 tableau en retard à chaque période), alors il y a des difficultés locales à remplir les tableaux, voire une reluctance. Cela traduit un déficit organisationnel dans la capacité à constituer et construire les informations locales (niveau d’un département, d’une équipe, d’un projet, …). L’expression d’une lassitude des collaborateurs Lorsque les collaborateurs montre un manque d’enthousiasme pour remplir en temps et en heure les tableaux, le processus est mal vécu, perçu comme inutile, voire contraire aux intérêts de l’entreprise et les risques de défaillances croient. Une fréquence élevée de constats d’erreurs Etant donné les taux d’erreurs constatés lors d’enquêtes, avoir tous ses tableaux exempts d’erreurs semblerait presque anormal ! Cependant, s’apercevoir très régulièrement que les tableaux présentent des erreurs signifie soit que les cellules ou les feuilles sont mal protégées, soit que les modalités de saisies sont mal expliquées ou perçues, soit qu’il y a des erreurs de formulation dans les fichiers. La lourdeur des re-saisies Lorsque les mêmes données sont re-saisies plusieurs fois, en parallèle ou à différents niveaux de la consolidation, il y a un problème latent d’intégrité des résultats. En fait, il est fréquent de faire saisir des données similaires, dont le périmètre n’est pas strictement le même (en temporel très souvent). Le problème peut alors être très difficile à résoudre car avoir des périmètres différents de signification des informations provient des habitudes propres à chaque entité structurelle, ou, des changements trop fréquents dans les exigences de l’entreprise (souvent dans la volonté de s’adapter à une conjoncture). Le changement fréquent de périmètre des données La volonté de s’adapter continuellement à la conjoncture, ou plus simplement à des événements en général à impact négatif, traduit un désarroi du management. Le marché de l’entreprise est vraisemblablement en pleine mutation, ou la concurrence devenue très agressive. Ces changements de périmètre vont générer des incompréhensions chez les responsables, et par là 212 Management des Technologies Organisationnelles : Journées d’Etude 2009 des erreurs d’interprétation. Il est alors temps de rechercher quels sont les fondamentaux de l’entreprise et quelles sont les informations qui les expriment. L’utilisation des macros Les macros servent à construire des applications autour des tableurs. Cette utilisation est un symptôme certain de l’abus comme recherche de la suppression des effets secondaires négatifs en fiabilisant les processus de reporting à « peu de frais ». La maintenabilité des macros est assez faible, résistant mal aux changements de versions : l’entreprise peut tomber dans une situation de blocage. Les solutions possibles L’abus de tableur n’est pas une maladie inguérissable. Le tableur est bien une ‘drogue’ du contrôleur tant il est facile d’emploi pour toutes sortes de travaux de calculs, de reportings et de présentation des données sous formes graphiques. Le principe est de fournir à l’entreprise une solution qui apporte les mêmes facilités d’adaptation et d’emploi, mais qui apporte les garanties de fiabilité, de pérennité, de sécurité et de traçabilité requises. A partir des expériences vécues par les auteurs tout au long de leur vie professionnelle, voici quelques principes qu’une telle solution devrait respecter : Nommer les cellules Plutôt que d’écrire des formules telles que « C4 = $B$1 * T4 … », il est pertinent de faire l’effort d’écrire « TVA = Taux_TVA * CA_HT ». Tous les lecteurs comprennent immédiatement la deuxième formulation. La traçabilité est également améliorée. Réduire dans les fiches les erreurs par des formules et étapes de vérification Dans l’objectif d’améliorer l’existant en termes de fiabilité, on peut mettre en place des outils de contrôle des formulations des tableurs, levant ainsi une part des risques et des désordres potentiels. La technique est simple et bien connue : mener les calculs suivant deux chemins parallèles et vérifier que le résultat est le même (application immédiate : les sommations en lignes et en colonnes doivent aboutir au même grand total d’une matrice). Le calcul de résultats intermédiaires permet d’éviter des formules trop complexes, de constater des anomalies, et, le cas échéant de découvrir plus rapidement les causes d’erreurs. Communications MTO’2009 213 Utiliser dans les fiches le mode de protection des cellules L’écrasement arbitraire de formules est facilement évité par la mise en place du mode de protection des cellules, avec un mot de passe non banal et non diffusé. Le mode de protection est alors géré par le propriétaire de l’application ou un administrateur fonctionnel. L’utilisation de différentes couleurs pour les zones de saisie et de restitution des calculs améliore notablement l’ergonomie et évite des écrasements. Les formules peuvent être aussi « cachées » dans d’autres fiches. Leur intégrité est ainsi garantie. Gérer les fichiers tableurs en mode centralisé Lorsque les consolidations de fichiers tableurs deviennent importantes en quantité et régulière, il devient intéressant de forcer l’utilisation des fichiers au travers d’une solution centralisée. Les fichiers sont mis à disposition sur un site web et, le cas échéant, ne sont jamais chargés sur les postes de travail. Modéliser les informations financières à partir des données opérationnelles Une solution pérenne, consistante et pertinente doit permettre de modéliser les fondamentaux opérationnels des métiers de l’entreprise. Les informations financières sont la traduction monétaire des activités opérationnelles de l’entreprise, via des formules de calcul. Ces relations mathématiques doivent être explicites et documentées, ainsi que leurs limites d’applications (exemple : calcul d’un coût de production en tenant compte des frais fixes, des quantités de matières et de main d’œuvre). C’est le seul moyen de garantir la cohérence des décisions financières et opérationnelles, permettant de comprendre et de justifier les unes vis-à-vis des autres. Gérer de façon centrale les structures des informations partagées Le fait qu’il existe des informations structurantes partagées a été découvert il y a plusieurs décennies. Il ne peut être laissé aux aléas des opinions et des pressions locales (i.e. au sein d’une division ou d’un département) de formaliser ces données de multiples façons (différences de codification, différences de signification des données, …). Le périmètre et la structure de toute information partagée doivent être définis pour toute l’entreprise ; une solution classique est d’établir un dictionnaire des données (ou glossaire), facilitant d’ailleurs une approche urbanistique du système d’information et les mises en œuvre organisationnelles. 214 Management des Technologies Organisationnelles : Journées d’Etude 2009 Permettre des paramétrages locaux en cohérence avec la gestion globale de l’entreprise L’art de l’organisation consiste aussi à mettre en œuvre les outils informationnels dans le respect des cultures et contraintes locales. Les informations d’intérêt général peuvent avoir des instanciations locales pour autant que l’on maîtrise leurs traductions dans les formats globaux de l’entreprise. Par exemple, savoir adapter le vocabulaire aux différents métiers de l’entreprise et/ou aux aspects régionaux est un atout pour fluidifier l’organisation. Ceci peut être réalisé par des paramétrages qui tiennent compte de l’origine ou de la situation de l’utilisateur (comme pour une langue). A titre d’exemple simple, une même codification peut prendre des valeurs de libellés différentes en fonction d’un statut de l’utilisateur (application : dans le domaine de la surveillance de la faune, un « sanglier » en Eure & Loire devient un « cochon sauvage » en Corse). Disposer d’outils adaptables aux évolutions métiers, structurelles et organisationnelles Les progiciels sont généralement paramétrables, mais généralement surtout dans l’application de fonctions et de modalités calculatoires (calcul d’une répartition des frais fixes par exemple). Il faut de plus être capable d’adapter, et donc de paramétrer, les structures et les libellés des informations en fonctions des métiers et des localisations. Les solutions doivent aussi pouvoir s’adapter aux évolutions organisationnelles, de plus en plus fréquentes, sans perdre les acquis de mois et d’années de capitalisation des données. Cela implique un effort de traçabilité des évolutions des paramétrages pour pouvoir réinterpréter ultérieurement les informations en tenant compte des changements de périmètres induits par les changements d’organisation. Remotiver le management intermédiaire Il est important que les responsables aient un retour pour les efforts qu’ils fournissent à remplir des tableaux de chiffres. Le principe du flux d’information ascendant du tableur n’incite pas au retour d’information : il faudrait créer un flux descendant. Les managers apprécient de connaître le contexte et les motifs de leur travail, ainsi que de constater que leurs résultats positifs sont officialisés. Le manager doit s’approprier l’utilité pour ses propres activités des reportings qu’il fournit à sa hiérarchie. Communications MTO’2009 215 CONCLUSION Le tableur n’est surtout pas un outil condamnable et infernal. Il a permis, permet et permettra de gérer des données avec des fonctions de plus en plus sophistiquées et adaptées aux besoins de l’entreprise. Le tableur est aussi un outil de prototypage pour le traitement de l’information. Il reste aussi un outil de traitement de l’information dans de petites structures : de l’individu au service de moins de 10 personnes. Du fait de la fragilité de son exploitation en usage intensif, l’abus du tableur, lui, est condamnable. On a vu que, suivant l’usage qui en est fait, il peut créer des potentiels de défaillances graves, induisant parfois des pertes financières notables ou des erreurs de décisions stratégiques, sans compter les simples surcoûts administratifs de rappels à l’ordre des managers retardataires, de double saisie ou de fusion des fichiers. Il est du ressort des dirigeants, responsables et gestionnaires de prendre conscience à partir de quel moment il devient nécessaire : • Dans une première étape, d’obliger à mettre en œuvre des moyens de contrôle des résultats obtenus, mais aussi des méthodes de programmation et d’utilisation dans les tableurs (principe de base d’une approche qualité) ; • Dans une seconde étape, de faire évoluer des systèmes d’information de prévisions et de reportings construits sur des tableurs vers de véritables applications qui soient conformes à toutes les exigences de performances et de sécurité. Les indices « d’abus de tableur » présentés ci-avant doivent permettre cette prise de conscience avant que des défaillances graves ne frappent l’entreprise. Etant donné que ces applications ont été développé presque toujours par des responsables pour cause d’absence de solution ad hoc du fait de permanentes variations dans les besoins, ces solutions devront être évolutives, fortement paramétrables, avec des instanciations par métier et/ou localisation de l’entreprise ou de la collectivité, et ayant toutes les facilités de traçabilité. NOTES ET REFERENCES BIBLIOGRAPHIQUES [1] "Histoire du tableur", Michel Volle, 2004 [2] « Petites erreurs, grandes conséquences », PricewaterhouseCoopers, "Disclose", juin 2007 [3] "Microsoft Sharepoint to the rescue for governance, risk and compliance (GRC)", accounting web 216 Management des Technologies Organisationnelles : Journées d’Etude 2009 [4] "New Tools Enhance Excel", Business finance, Robert Kugel, 01/04/2007 [5] "Getting to Grips With Spreadsheet Risk", Business Finance, John Cummings, 19/08/2008 [6] "Spreadsheets: Fear No Evil", cfo.com, Jason Karaian, 25/09/2007 |7] "Spreadsheet control marches forward", Compliance Week, Todd Neff, 12/02/2008 [8] "Assessing software in controlling company risk", Finance Week, Mike Wilkinson, 10/04/2008 [9] "Only 16% of firms budget accurately, why the rest are in Excel-Hell", Finance Week, Matt Quinn, 10/06/2008 [10] "BPM Forum Survey Shows Finance Lacks Speed & Accuracy, Hampering Critical Corporate Agility in Challenging Economic Times" - 2008 [11] "Sarbanes-Oxley Compliance Software 2006: Momentum Will Shift To Controls Optimization", Forester, Paul D. Hamerman, 09/03/2006 [12] "Alleged Accounting Fraud Points to the Perils of Spreadsheet Abuse", Gartner, Jay Heiser David Furlonger, 18/08/2008 [13] "Developing a Strategy to Control Spreadsheets", Gartner, Jay Heiser, 22/09/2006 [14] "Recognize the Risks of Uncontrolled Spreadsheets", Gartner, Jay Heiser, 08/11/2005 [15] "Embrace or Replace Your Spreadsheets for Performance Management", Gartner, Neil Chandler, 23/09/2008 [16] "The Good, the Bad, and the Ugly", International Auditor, Uttam Mukherjee, 04/2009 [17] "Le tableur, encore indispensable outil du décisionnel", Le Journal du Net, Dominique FILIPPONE, 03/02/2006 [18] "Erreurs dans Excel : Barclays rachète plus de Lehman que prévu", Le Magit, Reynald Fléchaux, 16/10/2008 [19] "Les DSI sous-estiment les données non-structurées", Le Magit, Reynald Fléchaux, 10/11/2008 [20] "Managing spreadsheet risk", Louise Pryor, 2005 [21] " Risk for Compliance Failures and Restatements, Revenue Recognition", Sondhi & Scott A. Taub, 2006 [22] "Are Greed, Lack of Oversight & Lack of Transparency to Blame?", Sarbanes-Oxley Compliance Journal, Soheil Saadat, 05/02/2009 [23] "Fraudes et risques liés aux documents Excel et Access!", Mag Securs, mars 2009 [24] "Prévision des ventes: quand Excel ne suffit plus", 01 Net, Pierre Hardouin, janvier 2008 [25] New Approach To Fixing Spreadsheet Errors Could Save Billions – Oregon State University - Martin ERWIG – 2007 [26] “What We Know About Spreadsheet Errors” – University of Hawai’I - Raymond Panko - published 1998 - revised 2008 [27] « La Confiance dans la société et en économie » - Georges Vignaux - CNRS – 2009 A. C. Communications MTO’2009 217 Pilotage de processus collaboratifs : amélioration de l’interopérabilité Sihem MALLEK, Nicolas DACLIN, Vincent CHAPURLAT Laboratoire de Génie Informatique et d'Ingénierie de Production Ecole des Mines d’Alès / Nîmes RESUME L’objectif de cette communication est de présenter une Approche Anticipative Dirigée par les Effets (AADE) de l’interopérabilité, pour aider les entreprises impliquées dans des processus collaboratifs à améliorer leur capacité à interopérer avant leur mise en œuvre. L’interopérabilité revêt un enjeu important pour l’industrie et peut être vue comme un des principaux freins à un travail collaboratif. Effectivement, l’interopérabilité caractérise la capacité de tous les éléments impliqués dans un processus collaboratif à échanger et interagir ensemble en maximisant leurs performances. Le but de ces travaux de recherche est de détecter de manière anticipative les possibles effets (désirés, non désirés, bons, néfastes ou insuffisants) causés par le manque d’interopérabilité, d’évaluer leur impact et, de développer des actions correctives. Cet article se concentre sur la formulation et la formalisation des exigences d’interopérabilité que le processus collaboratif doit satisfaire pour assurer une collaboration efficace. INTRODUCTION De nos jours, la collaboration se développe au sein de plusieurs systèmes tels que les systèmes de santé, les systèmes de gestion de crise, les systèmes industriels… et les acteurs cherchent en particulier à améliorer l’efficacité de leurs processus collaboratifs. Effectivement, plusieurs services (ressources, acteurs, organisations…) peuvent avoir à travailler ensemble pour les besoins d’une mission ou d’un projet commun. Pour une collaboration efficace entre ces 218 Management des Technologies Organisationnelles : Journées d’Etude 2009 services, leur synchronisation et leur coordination doivent être garanties, ainsi que leur capacité à interagir tout au long du processus collaboratif sans perte de performance. Plusieurs outils ont été développés dans les organisations pour permettre leur intégration. A titre d’exemple, les ERP (Enterprise Ressources Planning) répondent à des besoins d’amélioration de la circulation de l’information, de l’intégration de différentes fonctions dans un même système et de normalisation des processus dans l’entreprise. Cet article s’intéresse à la notion d’interopérabilité dont l’amélioration est devenue un enjeu majeur, depuis ces dernières années, pour assurer la collaboration. L’interopérabilité peut être définie comme (IDEAS, 2003) : « la capacité d’interaction entre les applications d’une entreprise à trois niveaux : données, application et processus ». En effet, l’amélioration de l’interopérabilité, et de ce fait, l’interaction entre les services travaillant ensemble, va faire que la collaboration entre les services sera améliorée à son tour. Les travaux de recherches présentés dans cet article proposent le développement de concepts, de mécanismes de raisonnement et d’une approche méthodologique pour caractériser, détecter et anticiper les effets possibles de la non-interopérabilité sur les processus collaboratifs. Ces effets seront identifiés à travers la vérification d’un ensemble d’exigences d’interopérabilité préalablement défini. Cet article s’organise autour de la méthodologie proposée pour l’obtention de l’Approche Anticipative Dirigée par les Effets (AADE) de l’interopérabilité. Les différentes étapes de la méthodologie seront présentées et développées. Enfin, une conclusion et les perspectives envisagées seront présentées à la fin de cet article. PROBLEMATIQUE ET POSITIONNEMENT La collaboration entre les entreprises implique une relation durable et omniprésente à l’engagement d’une mission commune (Kvan, 2000). Cette collaboration peut se dérouler entre plusieurs services de différentes entreprises formant de ce fait un processus collaboratif. Un processus collaboratif peut être défini comme : « un processus dont les activités appartiennent à différentes organisations » (Aubert, 2002). Ce genre de processus évoque la notion de collaboration classique c'est-à-dire l’interaction entre des acteurs pour accomplir un projet. La réalisation de ce projet dépend ainsi de la synchronisation des acteurs, de la simultanéité ou du parallélisme des activités etc. Dans un contexte industriel, cette interaction peut être matérialisée par des flux de différentes natures : données, informations, connaissances, produits, énergies ou finances. Les processus collaboratifs représentent, de nos jours, une nouvelle vision de Communications MTO’2009 219 l’organisation supportant une nouvelle approche de travail collaboratif. Les résultats de ce travail collaboratif sont influencés par l’interopérabilité au sein du processus collaboratif. La complexité des services ou des entreprises impliqués dans un processus, la complexité induite par l’interaction entre ces services doit être analysée pour rechercher des dysfonctionnements, des mauvaises allocations de ressources, des délais non respectés, des risques de pertes de performances au cours de la collaboration. Les travaux présentés ont pour but d’aider les entreprises à détecter et analyser les problèmes d’interopérabilité en couvrant les besoins suivants : • Cette analyse doit être guidée. Une définition claire des problèmes de l’interopérabilité entre les différents services interagissant ainsi que l’établissement d’un référentiel d’exigences d’interopérabilité sont donc indispensables. • Cette analyse s’appuie sur le modèle du processus collaboratif pour anticiper les problèmes d’interopérabilité avant leur mise en œuvre. Cette modélisation est effectuée à l’aide de cadres et de langages de modélisation. Cependant, ceux-ci n’intègrent pas les dimensions d’interopérabilité, c’est pourquoi ils doivent être enrichis en prenant en considération les problèmes d’interopérabilité. • Cette analyse doit être automatisée. Il s’agit de développer et d’appliquer des mécanismes de raisonnement pour vérifier si les exigences sont respectées tout au long du processus collaboratif. • Enfin, cette analyse doit être réalisée d’une manière anticipative pour réduire les risques, les pertes de performance … Pour ce faire, une Approche Anticipative Dirigée par les Effets est proposée réalisant les quatre besoins identifiés et définis précédemment pour anticiper les possibles effets (désirés, non désirés, bons, néfastes ou insuffisants) de la noninteropérabilité et de développer des actions correctives. Les résultats attendus pour le développement de cette approche sont de pouvoir : • Formuler puis formaliser les exigences d’interopérabilité. Il s’agit ici de développer un référentiel d’exigences d’interopérabilité que les processus collaboratifs doivent satisfaire. Ces exigences doivent, par la suite, être formalisées par le biais d’un langage formel en propriétés pour permettre la vérification. • Modéliser le processus collaboratif en prenant en considération les exigences de l’interopérabilité. • Prouver le processus collaboratif en vérifiant les exigences d’interopérabilité pour détecter le manque d’interopérabilité. Des 220 Management des Technologies Organisationnelles : Journées d’Etude 2009 techniques de vérification formelles sont alors utilisées à cet effet ainsi que la simulation. Les différents points développés précédemment et constituant les étapes de l’approche anticipative dirigée par les effets sont représentés dans la figure suivante. Modèle du système formalisation Réécriture Exigences Propriétés Analyse Figure 1 : Approche Anticipative Dirigée par les Effets Cet article s’intéresse à la formulation et la formalisation des exigences d’interopérabilité. La modélisation du processus collaboratif ainsi que l’analyse des exigences d’interopérabilité seront brièvement présentées respectivement en section 4 et 5. LES EXIGENCES D’INTEROPERABILITE Pour identifier et structurer les différents aspects de l’interopérabilité, plusieurs cadres d’interopérabilité ont été développés ces dernières années. En utilisant cette même approche, les exigences d’interopérabilité peuvent être, dans un premier temps, clairement définies en prenant en considération les différents aspects d’interopérabilité et, dans un second temps, structurées de manière cohérente par leur positionnement dans le cadre d’interopérabilité. a) Cadre d’interopérabilité Dès que différents services sont interopérables, leur collaboration est facilitée et plus efficace. En effet, l’interopérabilité est un pré-requis pour une collaboration efficace. Pour améliorer l’interopérabilité, différents aspects doivent être pris en considération (les problèmes d’interopérabilité, les approches Communications MTO’2009 221 d’interopérabilité …). Pour structurer ces différents aspects, des cadres d’interopérabilité ont été développés (EIF, 2004 ; e-Government Unit, 2005). Le cadre développé dans (Chen, 2007) pour l’interopérabilité des entreprises propose de considérer deux aspects fondamentaux de l’interopérabilité, « les problèmes d’interopérabilité » et « les niveaux d’interopérabilité ». Les problèmes d’interopérabilité sont liés aux incompatibilités qui empêchent l’échange et le partage de flux. Actuellement, trois catégories de problèmes d’interopérabilité ont été identifiées : les problèmes d’ordre conceptuel, technologique et organisationnel. Les problèmes conceptuels concernent les incompatibilités syntaxiques et sémantiques des flux échangés. Les problèmes technologiques sont concernés par l’incompatibilité des technologies de l’information (plateformes et application informatiques) pour communiquer et échanger des flux. Les problèmes organisationnels sont liés aux incompatibilités de structures organisationnelles et des techniques de management implémentées. De plus, ces problèmes d’interopérabilité peuvent apparaître à différents niveaux de l’entreprise : données, services, processus et business. L’interopérabilité des données se réfère à faire opérer ensemble différentes données et à l’utilisation de différents langages de modélisation. L’interopérabilité des services permet d’identifier, composer et faire opérer ensemble différentes applications ou fonctions d’entreprises en réseaux. L’interopérabilité des processus vise à faire travailler ensemble divers processus. Enfin, l’interopérabilité au niveau business se rapporte à l’harmonisation de l’organisation globale. La figure suivante représente le cadre d’interopérabilité pour les entreprises avec ses deux dimensions de base : « les problèmes d’interopérabilité » et « les niveaux d’interopérabilité ». Problèmes Niveaux Conceptuel Technologique Business Processus Service Données Figure 2 : Cadre d’interopérabilité Organisationnel 222 Management des Technologies Organisationnelles : Journées d’Etude 2009 Plusieurs travaux basés sur ce cadre d’interopérabilité ont été développés pour la résolution des problèmes d’interopérabilité. Par exemple, dans (Daclin et al., 2008) une matrice de compatibilité basée sur ce cadre d’interopérabilité a été développée pour mesurer la compatibilité et informer les entreprises de la présence ou non d’éventuels problèmes d’interopérabilité. Cependant, les exigences d’interopérabilité n’ont pas été formalisées explicitement ce qui rend cette matrice difficilement exploitable. b) Les exigences d’interopérabilité Le but est d’obtenir un référentiel d’exigences d’interopérabilité que les services ou les entreprises doivent satisfaire. Une exigence peut être définie comme « un énoncé qui prescrit une fonction, une aptitude ou une caractéristique à laquelle doit satisfaire un produit ou un système dans un contexte donné » (Scukanec, 2008). Des travaux liés à la formulation des exigences d’interopérabilité ont été entrepris dans (Blanc, 2007) sous forme de règles. Cinq règles ont été identifiées. Cependant, ces règles restent génériques en plus de ne pas être structurées dans le cadre d’interopérabilité. Par conséquent, il est difficile de les intégrer et les utiliser pour une vérification formelle. Classiquement, la formulation des exigences d’interopérabilité est liée à la notion de compatibilité des services. Cependant, il est nécessaire de noter que : « deux services interopérables sont compatibles mais deux services compatibles ne sont pas nécessairement interopérables » (Kasunic, 2004). Par conséquent, les exigences reliées à la compatibilité peuvent être considérées comme insuffisantes à cause de leur aspect statique. En effet, ces exigences sont indépendantes du temps, du comportement des services et de l’environnement dans lequel les services sont interconnectés. Ainsi, la capacité à interagir dépend non seulement de la compatibilité mais aussi du comportement des services et de l’environnement au niveau de l’interaction qui peuvent influencer l’efficacité de la collaboration. Ceci requiert donc de prendre en considération une seconde classe d’exigences d’interopérabilité liées à l’aspect dynamique de l’interaction qui sont appelées « exigences d’interopération ». En résumé les exigences d’interopérabilité peuvent êtres divisées en deux catégories : Exigences d’interopérabilité = {exigences de compatibilité ; exigences d’interopération} Ces deux catégories d’exigences d’interopérabilité vont être structurées selon le cadre d’interopérabilité présenté précédemment. Par exemple, au niveau des services, l’interopérabilité est liée, d’une part à l’interopération (moyens de transport, environnement …), et d’autre part à la compatibilité entre le service fournisseur (S1) et le service demandeur (S2). Communications MTO’2009 223 Exigences de compatibilité S1 S2 Exigences d’interopération Figure 3 : Décomposition des exigences d’interopérabilité entre deux services. Pour structurer, représenter et détailler les exigences d’interopérabilité, les concepts d’arbre causal ont été appliqués. Ces concepts permettent d’appliquer des mécanismes de raisonnement pour la vérification des exigences à l’aide de techniques de vérification. L’arbre causal présenté ici est basé sur le cadre d’interopérabilité présenté précédemment. Le premier niveau de l’arbre représente les différents niveaux de l’interopérabilité (données, services, processus, business). Le second niveau représente les deux types d’exigences d’interopérabilité (compatibilité et interopération). Le troisième niveau représente les trois catégories de problèmes d’interopérabilité (conceptuels, technologiques et organisationnels). Enfin les derniers niveaux représentent les exigences d’interopérabilité qui peuvent induire une perte d’interopérabilité si l’une d’entre elles n’est pas respectée. Cet arbre causal va pouvoir aider à « remonter » les branches jusqu’à trouver où se situe le problème en indiquant la véracité des exigences comme représenté sur la figure 4. Niveau3 Niveau 2 Niveau1 Business Exigences Conceptuelle Technologique Processus Compatibilité Organisationnelle Interopération Services Faux Interopérabilité Vrai Données Figure 4 : L’arbre causal des exigences d’interopérabilité. Quelques exemples d’exigences de compatibilité (les exigences d’interopération ne sont pas traitées ici) sont représentés sur l’arbre causal en 224 Management des Technologies Organisationnelles : Journées d’Etude 2009 figure 5 et directement liées avec les problèmes d’interopérabilité que peuvent rencontrer les entreprises. Ainsi, une exigence de compatibilité est proposée pour chaque problème d’interopérabilité au niveau des services. A titre d’exemple, au sein d’une entreprise, il peut y avoir confusion entre les services interagissant si ceux-ci ne sont pas préalablement clairement identifiés (e.g. nom du service, définition de l’activité réalisée…). Ce problème d’ordre conceptuel peut engendrer une perte de temps lors des interactions (e.g. recherche du bon service avec lequel interagir…). Dès lors, une exigence peut donc être extraite et définie telle que : « Deux services voulant interopérer efficacement doivent avoir une définition claire de la sémantique de leurs noms » pour éviter les ambigüités et les confusions lors de la collaboration effective. Les problèmes d’ordre technologiques que peuvent rencontrer les services sont principalement liés à la compatibilité des outils utilisés pour les échanges. Ainsi, d’une manière générale, une exigence peut donc être formulée telle que : « Deux services visant à interopérer efficacement doivent disposer d’outils compatibles » pour assurer les échanges entre eux. Enfin, pour remédier aux problèmes d’ordre organisationnel, une exigence peut être donnée telle que : « Deux services voulant interopérer doivent avoir leurs responsabilités respectives définies » afin de connaître avec une meilleure précision le responsable du service. Là encore, la non définition des responsabilités peut entraîner des erreurs lors de la transmission d’informations et par conséquent une dégradation de la collaboration i.e. confidentialité de l’information compromise, perte de temps pour transmettre la bonne information à la bonne personne… Sémantique Business Conceptuelle Processus Compatibilité des outils Technologique Responsabilité Organisationnelle Compatibilité Interopération Services Interopérabilité Données Figure 5 : Quelques exemples d’exigences de compatibilité. Pour pouvoir vérifier ces exigences, elles doivent être formalisées via un langage formel, sous forme de propriétés. Différents travaux pour la formalisation des exigences peuvent être trouvés dans la littérature. Dans (Evrot et al., 2008), des mécanismes (raffinement, allocation, formalisation et Communications MTO’2009 225 projection) sont proposés pour la formalisation des exigences en propriétés ainsi que leur allocation aux composants du système facilitant, de ce fait, la vérification. Ces mécanismes seront utilisés dans la suite de ces travaux pour formaliser les exigences en propriétés. Par la suite, la véracité des propriétés sera vérifiée sur le modèle du processus collaboratif. MODELE DU PROCESSUS COLLABORATIF Le modèle du processus collaboratif permet de décrire le comportement, les fonctions et l’organisation du système via une approche systémique. Le but est d’obtenir un modèle correct et exploitable pour extraire les problèmes d’interopérabilité. La complexité du processus collaboratif requiert l’utilisation d’une approche systémique procurant (Le Moigne, 1977) : • Les finalités et les objectifs du système ; • Les composants du système : les éléments qui composent le système et les relations entre eux ; • Les limites du système : identification des éléments ne faisant pas parti du système ; • Les interactions du système avec son environnement : les types de relations et les influences menant à la modification du système ; • Les fonctions que procure le système ; • La dynamique de l’évolution. L’analyse du respect ou du non respect des exigences d’interopérabilité sera effectuée sur le modèle du processus collaboratif. C’est pourquoi, le modèle du processus collaboratif doit prendre en considération les différents aspects de l’interopérabilité par l’enrichissement du langage de modélisation utilisé. ANALYSE DES EXIGENCES D’INTEROPERABILITE Les exigences doivent être vérifiées sur le modèle du processus collaboratif avec des techniques de vérification formelles. La vérification tend à répondre à la question : « construisons nous le modèle correctement ? ». Le but étant de prouver la consistance du modèle (Chapurlat, 2007). Dans notre cas, les techniques de vérification sont utilisées pour la vérification des exigences d’interopérabilité sur le modèle de processus collaboratif. Pour la vérification des exigences d’interopérabilité, deux techniques dépendant du type d’exigences seront utilisées. La première technique basée sur 226 Management des Technologies Organisationnelles : Journées d’Etude 2009 les Graphes Conceptuels proposée dans (Roque et al., 2009) permet la vérification des exigences statiques c'est-à-dire les exigences de compatibilité. La seconde technique basée sur les « model checkers » (Uppaal [1], SMV [2], Kronos [3]…) (Behrmann et al., 2004; McMillan, 1992; Yovine, 1997) permet de vérifier en deux phases les exigences dynamiques c'est-à-dire les exigences d’interopération. La première phase consiste à décrire ou à générer le modèle du processus collaboratif. La seconde phase consiste à formaliser les exigences d’interopération décrites dans l’arbre causal en propriétés par l’utilisation d’un langage formel comme la logique temporelle (Schnoebelen, 2002) ou LUSP (Langage Unifié de Spécification de Propriétés) (Lamine, 2001). Le principe d’un « model checker » est de vérifier exhaustivement les propriétés sur un modèle décrivant le comportement du système sous forme d’automates temporisés. Le « model checker » va donc vérifier la véracité des propriétés en répondant par « Vrai » ou « Faux » pour dire si la propriété est satisfaite ou non. Dans le cas où la propriété n’est pas vérifiée, le « model checker » fournit un contre exemple. Ensuite, la simulation peut être utilisée comme perspective dans ces travaux de recherche pour aider à la détection, d’une part, d’événements pouvant affecter le comportement du processus et, d’autre part, d’évaluer l’impact du manque d’interopérabilité sur le processus collaboratif. Ce sont les raisons pour lesquelles ces travaux de recherche proposent d’utiliser des techniques de vérification formelles et la simulation pour la vérification des exigences d’interopérabilité. Si les exigences d’interopérabilité ne sont pas satisfaites, des actions correctives seront développées pour résoudre les obstacles d’une collaboration effective dans un processus collaboratif. CONCLUSION Dans le contexte de collaboration, le développement de l’interopérabilité est devenu une question cruciale pour la collaboration des entreprises qui désirent évoluer sereinement dans un environnement de globalisation. Cet article a présenté les fondements d’une approche anticipative pour aider les entreprises à détecter et à anticiper les effets de la non-interopérabilité lors d’un partenariat. Cette approche est basée sur des techniques de vérification formelles des propriétés d’interopérabilité que les entreprises doivent respecter pour interopérer efficacement et donc améliorer leur collaboration. Les travaux présentés ici se sont principalement focalisés sur le développement d’un référentiel complet d’interopérabilité. Par la suite, il s’agit de Communications MTO’2009 227 s’intéresser à la formalisation de ces dernières, en propriétés, pour pouvoir les vérifier via l’utilisation de techniques de vérification formelles. NOTES [1] [2] [3] Téléchargeable en ligne sur : http://www.uppaal.com/ Téléchargeable en ligne sur : http://www.kenmcmil.com/smv.html Téléchargeable en ligne sur : http://www-verimag.imag.fr/~tripakis/openkronos.html REFERENCES BIBLIOGRAPHIQUES Aubert B., Dussart A., Système d’Information Inter-Organisationnel, Rapport Bourgogne, CIRANO, Mars 2002. Behrmann G., David A., Larsen K. G., A tutorial on Uppaal, Department of Computer Science, Aalborg University, Denmark, 2004. Blanc S., Ducq Y., Vallespir B., A Graph based approach for interoperability evaluation, Interoperability for Enterprise Software and applications – IESA 2007, Madeira, Portugal, 2007. Chapurlat V., Vérification et validation de modèles de systèmes complexes : application à la modélisation d'entreprise, HdR, Université Montpellier 2, France, Mars 2007. Chen D., Dassisti M., Elvesaeter B., Enterprise interoperability Framework and knowledge corpus – advanced report, INTEROP Deliverable DI.3, 2007. Daclin N., Chen D., Vallespir B., Methodology for enterprise interoperability, 17th IFAC World Congress (IFAC’08), Seoul, Corée, 6-11 juillet 2008. e-Government Unit, e-Government Interoperability Framework, Version 6.1, 2005. EIF, European Interoperability Framework For Pan-European eGovernment Services. European Commission, version 1.0, European Communities Ed., 2004. Evrot D., Pétin J-F., Morel G., Combining SysML and formal methods for safety requirements verification, Insight Journal of INCOSE 11, pp 21-22, 2008. IDEAS, State of the Art – Introduction, IDEAS Project - Deliverable D1.1, Juin 2003. Téléchargeable en ligne sur : http://www.interop-vlab.eu/. Kasunic M., Anderson W., Measuring systems interoperability: challenges and opportunities, Software engineering measurement and analysis initiative, Technical note CMU/SEI-2004-TN-003, 2004. Kvan T., « Collaborative design: what is it? », Automation in Construction, Volume 9, 2000. Lamine E., Définition d’un modèle de propriété et proposition d’un langage de spécification associé : LUSP. PhD thesis, Université Montpellier 2, France, 2001. Le Moigne J.-L., La théorie du système générale – théorie de la modélisation, Presse Universitaire de France, 1977. McMillan K. L., Symbolic Model Checking: An approach to the state explosion problem, PhD thesis, Carnegie Mellon University, USA, Mai 1992. Roque M., Chapurlat V., Interoperability in collaborative processes: Requirements characterisation and proof approach, PRO-VE’09, 10th IFIP Working Conference on VIRTUAL ENTERPRISES, Thessaloniki, Greece, 7-9 Octobre 2009. 228 Management des Technologies Organisationnelles : Journées d’Etude 2009 Schnoebelen Ph., The Complexity of Temporal Logic Model Checking, Advances in Modal Logic, Volume 4, pp 1-44, 2002. Scukanec S. J., Van Gaasbeek J. R., A Day in the Life of a Verification Requirement, U.S. Air Force T&E Days, Los Angeles, Californie, 5-7 Février 2008. Yovine S., Kronos: A verification tool for real-time system, Springer international journal of Software Tools for technology, Octobre 1997. Communications MTO’2009 229 On the use of possibility distribution summary indicators in multi-criteria decision based on the Choquet integral: application to marketing of e-commerce organizations Afef DENGUIR-REKIK a,,b Gilles MAURIS a b Jacky MONTMAIN , Abdelhak IMOUSSATEN b (a) LISTIC- Polytech’Savoie / Annecy Le Vieux (b) LGI2P - Ecole des Mines d’Alès / Nîmes ABSTRACT The paper proposes a mathematical framework that supports a formal representation of a decision aiding process in a multi-criteria and multi-actors context in an uncertain universe. For this purpose, possibility distributions representing uncertainty are characterized and indicators describing them are provided in order to simplify their quantitative interpretation. To take the interactions between criteria into account, a Choquet integral based aggregation of the possibility distributions is proposed by using a suitable decomposition in linear domains. For the summary indicator aggregation, key theoretical results on the union of the upper and lower mean values of a possibility distribution are established. The contributions of the location and imprecision criteria indicators to the indicators of the distribution associated with the global evaluation are then defined. These contribution indicators constitute the basis of the explanations aimed at aiding the decision making. In addition, a software system, called a “Feedback Based Recommendation System” (FBRS) has been developed and used to aid the marketing teams of an e-commerce company in their activities. The customers’ feedback database constitutes the basis of the diagnosis functionalities of the FBRS which uses a possibility representation to model the uncertainty associated with the imprecision, the variability of the opinions of the customers. 230 Management des Technologies Organisationnelles : Journées d’Etude 2009 INTRODUCTION The paper concern is situated within the framework of the multi-criteria decision making which considers that the decision-making behaviour is not inevitably driven by a unique criterion but is the result of a set of interacting criteria [11][20]. To aid a decision-maker select an alternative from several decision criteria, a global evaluation is determined by an aggregation of their evaluations. This aggregation model should be legible enough to be easily understood, and should also be capable of representing the decision strategies of the decision-maker. In this view, the Choquet integral based aggregation, allowing to take the interactions between criteria into account while keeping the compromise aspect of the conventional average, is an interesting tool, already used by several authors [11][12][17]. But, in a decision making process, uncertainty due to all the actors involved often occurs [18]. For example, in the monitoring of the e-commerce organizations, customers’ criteria satisfactions present uncertainty due to variability, imprecision or ignorance [21]. Developing explanation capabilities in such complex aggregation models under uncertainty has not really been studied so far, and is thus a key issue for the operational application of such tools [6]. For dealing with uncertainty, we propose to use possibility distributions to gather all the opinions of the different actors (customers in our application). This choice is also motivated by the nature as well as the availability of the data: indeed, the data or evaluations stemming from our application are given stars representing intervals of numerical evaluations. Besides, in many cases we have few available evaluations which make the reliable identification of probability distributions difficult. In other respects, the possibility approach leads to rather less complex calculations when using the Choquet integral in the aggregation of possibility distributions [4]. The main issue considered in this paper basically concerns the development of explanation capabilities in a multi-criteria decision aiding process involving uncertain evaluations coming from a database of various persons. In particular, three major contributions are provided in this paper: • The characterization of the possibility distributions by defining descriptive indicators simplifying their quantitative interpretation. For this purpose, we provide key indicators such as the location, the mean imprecision (section III). • The aggregation of the possibility distributions and their associated indicators by the Choquet integral. Our main contribution at this level consists in establishing a linear relationship between the partial and the aggregated evaluations, thanks to a suitable method of possibility Communications MTO’2009 231 distribution aggregation different from the one proposed in [17] (section IV). • The definition, from these expressions, of original explanation functionalities based on the criteria evaluation contributions to the aggregated evaluation (section V). Finally, the developed tools are used for analysing customers’ feedback evaluations of e-commerce sites in order to improve the existing strategies of the marketing teams (section VI). PRELIMINARY CONSIDERATIONS In this section, we state the problem and the notations, and recall briefly the general concepts of the possibility theory and the Choquet integral based aggregation. Problem statement Let us consider a set of l possible alternatives ( Al ) for a given decision q making problem. Each alternative Al is evaluated according to n criteria. Let α ,q us also consider a database of r customers ( Evl ). Let xi be the numeric degree of satisfaction (partial evaluations expressed in the range [0,20]) given α q by the customer Evl according to the criterion i for Al . As mentioned above, the possibility theory is used to take into account the various aspects of imperfection of the information inherent to the evaluations q q given by all the customers of a given alternative Al . Possibility distributions π i α ,q are thus built from the different criteria evaluations xi of each q alternative Al . Let us notice that the focus of this paper is not on the construction of the possibility distributions (the reader can refer to [7] and [9] for further details on this issue), but on the definition of the corresponding indicators and their aggregation through the Choquet integral. The Choquet integral The operators of the Choquet Integral (CI) family [11] are interesting because they include a lot of compromise operators. Moreover, they can be written under the form of a conventional weighted mean modified by effects coming from interactions between criteria. According to the application context, only a particular case of Choquet fuzzy integrals known as the 2-additive Choquet integral that takes into account only interactions by pairs will be considered here [12]. In the following, the notations of the 2-additive Choquet integral and its principal properties are briefly recalled. The expression of the 2- 232 Management des Technologies Organisationnelles : Journées d’Etude 2009 q additive Choquet fuzzy integral for the alternative Al defined by the partial q q evaluation vector ( x1 ,..., xn ) can be written as follows [15]: (1) This equation involves two types of parameters: • the vi’s are the Shapley indices, representing the importance of each criterion relative to all the others, that satisfy, which is a natural condition for decision-makers, • the interaction parameters Iij of any pair of performance criteria (i,j) that range in [-1,1] ; a positive value means a complementarity between the two criteria, a negative value means a redundancy, and a null value means the criteria are not interacting, i.e. independent, thus νi acts as the weights in a common weighted mean. The identification of the parameters of the 2-additive Choquet integral is simpler than the identification of a general fuzzy measure, and can thus be made by direct expression from the decision-makers. Nevertheless, for better-quality quantification, more elaborated methods are available [2] [3][13]. Another important point, directly in line with the paper contribution, is that, the CI has a linear form on the simplex domains defined by the ranking of evaluations (the ranking allows to simplify the absolute value in the right-hand part of equation (1)). By considering a permutation on the criteria such that q x(1) ≤ ... ≤ x(qi ) ≤ ... ≤ x(qn ) (the index (.) indicates the permutation), the CI can thus be written as [1]: (2) where with and (1) such that As mentioned above, we are dealing with uncertainty in a possibility q framework, and in the following xi is considered as an uncertain value q α ,q represented by a possibility distribution π i that gathers all the evaluations xi α given by all the customers Evl . Communications MTO’2009 233 POSSIBILITY THEORY The possibility theory was introduced in 1978, by Zadeh [26] to give uncertainty semantics to the notion of fuzzy sets which he had previously proposed in the 60’s [9] [25]. Given a set of reference Ω and A and B two subsets of Ω . A possibility measure, denoted Π , is a function defined over set P (Ω) of the parts of Ω , taking its values in [0, 1], such that: Π (∅) = 0 and Π ( A ∪ B ) = max(Π ( A), Π ( B )) . Π ( A) quantifies how likely an event A ⊆ Ω is: a value 1 means that the event is 100% possible, and 0 means that the event is impossible. A possibility measure Π can be characterized by a possibility distribution π , that is a function π : Ω → [0,1] such that: Π ( A) = sup π (ω ) ∀A ⊆ Ω . It is said to be normalized if ∃ω ∈ Ωω,∈πA(ω ) = 1 . To the possibility distribution, a dual measure so-called necessity measure is associated: N ( A) = inf (1 − π (ω )) ∀A ⊆ Ω such that Π ( A) = 1 − N ( A) . ω∈ A Also let us note that a possibility distribution defines a family of probability distributions ℘(π ) defined by [7]: ℘(π ) = {P/∀A N ( A) ≤ P ( A)} = {P/∀A P ( A) ≤ Π ( A)} . It thus allows representing some incomplete probability knowledge by bracketing an unknown * probability value. We can thus define an upper ( F ) and lower ( F* ) cumulative * distribution function such that ∀x, F* ( x ) ≤ F ( x ) ≤ F ( x ) (Fig. 1) with ∀x ∈ R F ∗ ( x) = Π (] − ∞, x]) and F∗ ( x) = N (] − ∞, x[) * The difference between F* ( x ) and F ( x) reflects the imprecision of the mean information. To quantify this imprecision, we can use the lower value and the upper mean value which are taken by the probability distributions belonging to℘(π ) . An important property which we shall use later * is the invariance of the values E* (π ) and E (π ) by the linear operations on π [7] [8]. * * Figure 1 Example of F , F* , E , and E* Often, for reasons of simplicity, as well as for a more natural interpretation for the decision-maker, a piece-wise linear representation of the possibility 234 Management des Technologies Organisationnelles : Journées d’Etude 2009 distributions is used. In our case, we consider for each criterion a triangular or trapezoidal distribution for the unimodal case. Each possibility distribution will be defined in the range [0,20] and represented by a quadruplet ( a, b, c, d ) with [b, c] the kernel and [a, d ] the support. For the multi modal case, the distribution will be decomposed per mode, and thus represented by a union of unimodal distributions. The union of possibility distributions will be denoted % and is defined by: U % (π ( x), π ( x)) = max (π ( x), π ( x)) . The sum of U 1 2 x 1 2 % . Using the preceding parameterized possibility distributions will be denoted ∑ representation leads to: % (π (a , b , c , d ), π (a , b , c , d )) = π (a + a , b + b , c + c , d + d ) ∑ 1 1 1 1 1 2 2 2 2 2 1 2 1 2 1 2 1 2 Hereafter is a table summarizing the notations used in the remaining of the paper: x = [ x1 ,..., xi ,.., xn ] the vector of partial evaluations of Al with respect to the n considered criteria. xi uncertain criterion i evaluation represented by a possibility distribution π i π ag the possibility distribution associated to the global evaluation xag CI ( Al q ) 2-additive Choquet integral of the partial evaluations of Al q : q π Ag = CI (π 1q ...π nq ) ν i coefficient of importance of the criterion i (called also Shapley coefficient) I ij coefficient of interaction between the criteria i and j H k domain where the Choquet integral has a linear expression, noted domain k in the remaining of the paper. ∆µik linear coefficient of importance of criterion i in the domain k E * (π ) mean value of the upper probability distribution defined by a possibility distribution π E* (π ) mean value of the lower probability distribution defined by a possibility distribution π MD (π ) the location indicator of a possibility distribution π ∆ (π ) the mean imprecision indicator of a possibility distribution π π agk decomposed portion of the global possibility distribution π ag in the k domain π ik decomposed portion of the criteria possibility distribution π i in the k domain % the union of possibility distributions: U% (π ( x ), π ( x )) = max (π ( x ), π ( x )) U 1 2 x 1 2 % the sum of possibility distributions: ∑ % (π ( a , b , c , d ), π ( a , b , c , d ))) = π ( a + a , b + b , c + c , d + d ) ∑ 1 1 1 1 1 2 2 2 2 2 1 2 1 2 1 2 1 2 ϒiMD contribution of the location indicator MD (π i ) to the global location indicator MD (π ag ) ϒi∆ contribution of the imprecision indicator ∆ (π i ) to the global imprecision indicator ∆ (π ag ) Communications MTO’2009 235 MEANINGFUL DESCRIPTIVE INDICATORS OF A POSSIBILITY DISTRIBUTION The approach In a similar way to that of probability distributions, where a distribution can be characterized by a limited set of parameters (average, variance, skewness, etc.), we suggest describing a possibility distribution by meaningful indicators relative to the location and to the imprecision. The proposed indicators are based ∗ on the upper ( E (π ) ) and lower ( E∗ (π ) ) mean values associated with the distribution π . An important property (established in [8]) is : ∗ Proposition 1: E (π ) and E∗ (π ) are invariant by linear operations on π . As the aggregation operators (i.e. the 2-additive Choquet integrals) used throughout the paper, are linear per domain, this property will be very useful for the proposed definition of meaningful contribution indicators. Definition of the indicators The expressions of the location and imprecision indicators for unimodal distributions are given in Table 1. The support of these indicators is the interval [0,20] corresponding to the possible values that can be taken by the satisfaction degrees in our application. Table 1 Expressions of the location and imprecision indicators Location indicator Definition: Example: Mean imprecision indicator Definition: Example: 236 Management des Technologies Organisationnelles : Journées d’Etude 2009 The expression of ∆ (π ) allows to verify both extreme cases of the mean ∗ imprecision, i.e. the consensus (i.e. total precision, E (π ) = E∗ (π ) ), and total ignorance ( ∀x ∈ 0, 20 π ( x) = 1 , thus E ∗ (π ) = 20 and E∗ (π ) = 0 ). In this latter case the mean imprecision is ∆ = 20 . Left and right skewness indicators can be defined in the same line [6], but are not detailed here because they are not useful in our application context. [ ] For multimodal distributions that occur in our application, the preceding approach can be applied separately for each mode, which leads to the following vector for the location indicator. For the imprecision indicator, a similar per mode approach can be applied. AGGREGATION OF THE POSSIBILITY DISTRIBUTIONS WITH THE CHOQUET INTEGRAL Specificity of our approach In the general case, the aggregation of the possibility distributions relative to each criterion by the Choquet integral is based on Zadeh’s extension principle [26]. If we let π ag be the aggregated distribution obtained via the aggregation of the partial distributions of criteria (π 1 ( x1 ),..., π n ( xn )) by the Choquet integral, the application of the extension principle gives: This principle is very general and can be applied to all shapes of distributions, even multimodal ones. Nevertheless, direct assessment can become cumbersome in many cases such as the latter. In [17] an expression stemming from the Mobius expression of the Choquet integral was proposed. This approach is based on the determination of the minimum of the possibility distributions, which surely allows a more elegant global writing but is not very useful to assess criteria contributions. Our original approach is based on the determination of domains in which the ranking of the decomposed distributions can be defined, and thus it is more adapted for the requirements of providing explanations in the context of the Choquet integral based decision making. Communications MTO’2009 237 In fact, as we are dealing with piecewise linear distributions, and with a piecewise linear aggregation operator, the aggregated possibility distribution is also piecewise linear. As the Choquet integral takes a linear form when the evaluation ranking is determined, it is now a question of transposing this property into the possibility distribution space. In fact, the ranking of two distributions can be set by their intersections [10]: each time there is an intersection between the ascending (resp. descending) parts of the distributions, the initial distribution ranking is modified. Each of these intersection points determines, on both sides, the domains H k and H k +1 , noted domain k and k+1 in the remaining of the paper, where the Choquet integral has a linear expression [5]. Thus to make the computations, each possibility distribution is decomposed into partial possibility distributions that are well ranked (see an example in Fig. 2), and can be re-unified later on. The problem now is to consider the aggregation of these indicators. In an earlier study [5] we showed that the aggregated possibility distribution through the Choquet integral π ag can be written as the union of the elementary aggregated distributions of p+1 disjointed domains defined by the p points of linearity change of the propagated distribution. (2) where π ag is the partial aggregated distribution related to the k-th domain in k which the Choquet integral has a linear expression, and π i is the partial possibility distribution of the criterion i involved in the k-th domain. k Figure 2 Example of possibility distribution decomposition by linear domains 238 Management des Technologies Organisationnelles : Journées d’Etude 2009 As an illustration, let us consider the example given in Erreur ! Source du renvoi introuvable.. In the left column, the criteria distribution and their decomposition in two linear domains according to the only ascending intersection point between the distributions 1 and 2 are plotted. In the right-hand column, the aggregated distribution and its decomposition in the two linear domains are plotted. AGGREGATION OF THE DESCRIPTIVE INDICATORS WITH THE CHOQUET INTEGRAL Main contribution results: we showed that the indicators associated to the * possibility distributions are essentially based on the notion of E and E* of a distribution π . Besides we also saw that the Choquet integral is linear by domains. The coefficients of the various linear expressions, which the Choquet integral takes, depend on the ranking of the distributions of the criteria, which * implies that the aggregation of E* (π i ) (resp. E (π i ) ) also depends on this ranking. This ranking is modified every time there is an intersection between the ascending parts (resp.descending) of the partial distributions. * Therefore, we have only the conservation of E* (resp. E ) at the level of each domain of linearity (proposition 1), i.e. respectively but we do not have respectively Thus, we propose the following original theorem. * Theorem 1: Union of E* and E Let π be a piecewise linear distribution. This distribution can be written as % π k where π k are the adjacent linear distributions (not necessarily π= U k =1.. p +1 normalized) ordered from left to right and where p is the number of points of change of linearity. Let k N be the domain index corresponding to the normalized partial distribution. We have then for k N > 1 ( p = 0 gives a single region, k = 1 ): Communications MTO’2009 239 Proof: see [5]. Using theorem 1, the following corollaries are deduced (the proofs are provided in [5]): Corollary 1: k with Xpt the X-coordinate of the points of change of linearity of p the total number of these points. π and % π where Corollary 2: Let π be a piecewise linear distribution, π = U k =1.. p +1 k π are the adjacent linear distributions (not necessarily normalized) ordered from left to right and where p is the number of points of change of linearity. Then we have: k Aggregation of the location indicator with the Choquet integral: the corollary 1 allows us to write the MD of the aggregated distribution: with Xptag the X-coordinate of the points of change of linearity of π ag and p the total number of these points. As each of the points of change of linearity of the aggregated distribution k ( Xptag ) defines a border between two successive domains k and k + 1 , such a point can also be defined as the barycentre of two successive MD ’s. Thus we k k k k k +1 k a coefficient have: Xptag = α MD (π ag ) + (1 − α ) MD (π ag ) , with α k k k +1 depending on Xpt p +ag 1 , MD (π ag ) and MD (π ag ) . From corollary 1 we have: k MD(π ag ) = (α k −1 − α k ) MD(π ag ) with α 0 = 1 and α p +1 = 0 . =1 Thanks to thek linearity nof CI in each domain we can write (using equations k (2) and (3)) MD (π ag ) = ∆µik MD(π ik ) . Thus: k ∑ ∑ i =1 (3) In the case where the aggregated distribution is multimodal ( π agM ), its location indicator is defined as the vector: 240 Management des Technologies Organisationnelles : Journées d’Etude 2009 with π agM . pj the number of domains of linearity concerning the j mode of • Aggregation of the imprecision indicator with the Choquet integral: thanks to the linearity of CI in each domain k and to the invariance of E* and E* by linear transformation, the mean imprecision indicator of the aggregated distribution is written as: (6) Thus, from the corollary 2 we can deduce that (7) This allows us to write: (8) When the aggregated distribution is multimodal ( π agM ), we have: (9) with , where p j + 1 is the number of domains of linearity concerning the mode j of π agM and, π i j , k is the portion of the distribution of the criterion i in the linearity domain k which contributes to the mode j of π agM . Decision explanation indicators defined from the partial evaluation contributions As mentioned earlier, the goal of the explanation is to enlighten the decisionmaker during the phases of the decision process. Thus explaining a proposed Communications MTO’2009 241 decision makes it clearer and better perceived, which allows the users to have more trust in the system of recommendation. The requirement of understanding the "why" of a decision can be expressed qualitatively and\or quantitatively at several levels. The "Why" can, for example, be expressed quantitatively in terms of influence or relative dominance of the partial satisfactions of criteria on the global satisfaction. The analysis of the distributions in terms of indicators is not only essential in the understanding of the results by the decision-maker, but also useful to identify the criteria according to which an improvement could be relevant. Contributions to the aggregated location indicator Let us first consider the unimodal case. The idea is to seek an additive model of contributions. Thus we want to write the location indicator as: (10) with ϒiMD the contribution to the aggregated MD relative to the partial evaluation distribution of criterion i to the MD p +1 of the propagated distribution. k −1 k k k From the equation (5) we have ϒiMD = (α uuuur − α )∆µi MD(π i ) . =1 MD (π In the multi modal case, the contribution kto ag M ) is also defined as a vector of MD contributions of the evaluation distributions relative to each j to the MD of each mode j , ϒiMD . Thus: criterion p j +1i j k −1 k j ,k j ,k ϒiMD = (α − α )∆µi MD(π i ) , with p j + 1 the number of domains j ,k k =1the mode j of π inferred by the portion of the distribution of the agM and π i criterion i in the linearity domain k involved in obtaining the mode j of π agM . So the contribution of the location indicator of each criteria evaluation distribution to that of the aggregated distribution is defined in this case by the vector: ∑ ∑ Contributions to the aggregated mean imprecision indicator In a similar way to the case of the location indicator, we want to have: (11) 242 Management des Technologies Organisationnelles : Journées d’Etude 2009 with ϒi∆ the contribution of the mean impression indicator ∆ relative to the evaluation distribution of criterion i top +the ∆ of the aggregated distribution. 1 From equation (8) we have ϒi∆ = ∆µik .∆(π ik ) j k =1 In the multi modal case, from equation (9) each ∆ (π ag ) can be written as n j j ∆(π ag ) = ϒ i∆ . p j +1 j We havei =1ϒi∆ = ∆µi j ,k .∆(π i j , k ) where p j + 1 is the number of domains k =1 j of the aggregated distribution and π j , k the portion generated by the mode i of the partial evaluation distribution of the criterion i involved in obtaining the mode j of π agM . So the contribution of the mean imprecision of each partial evaluation distribution to the global imprecision is defined in this case by: ∑ ∑ ∑ (12) where m is the total number of modes. CASE STUDY General description The theoretical contributions presented before are now applied to the monitoring problem of e-recommendation organizations based on customers’ feedbacks for e-commerce websites [16] [21]. The feedback database provided by the "ciao.com" (www.ciao.com) company has been used as a basis of our analysis for the application. Our decision support system is intended to be a tool of diagnosis enabling to support the managers for the e-commerce, in particular the marketing team based on the information supplied by "ciao.com". Our approach consists in keeping the multiplicity of points of view (feedbacks and multi criteria evaluations of the customers of "ciao.com") to assess the variability of the opinions in the evaluation of e-commerce websites. Taking into the different aspects of the imperfect evaluations into account without reducing them a lot by making a simple average (as done currently), a possibility representation of the set of "ciao.com" members’ evaluations for each criterion is used. To quantify the uncertainty, the possibility distribution indicators defined previously are applied. Besides, although the multi criteria aspect of e-commerce evaluations proposed by "ciao.com" appears as something natural, the concept of multi criteria aggregation is currently systematically reduced to arithmetic means in Communications MTO’2009 243 this field. Indeed, the notion of the relative importance of criteria is rarely explicitly introduced in the evaluation whereas priorities between evaluation criteria are implicitly admitted! Neither are the interactions between criteria taken into account, although they obviously exist. Therefore, aggregation operators reflecting a more realistic model of customers’ satisfaction have to be considered. Thus, the 2-additive Choquet integral has been used to aggregate the possibility distributions relative to the evaluation criteria. The diagnosis takes the form of an explanation related to the contribution of each criterion to the global evaluation (cf. section V). A software prototype of the decision aiding support system dedicated to the management and to the processing of the multi criteria evaluations of the sites of e-commerce has been developed. This support is called Feedbacks Based Recommendation System (FBRS) and offers the e-commerce marketing team diagnosis and piloting functionalities on the basis of the evaluations. The figures of this section are obtained from this tool. Integration of the mathematical tools in the FBRS The aggregation model: the parameters of the aggregation operator have been obtained by direct expression of the experts, followed by an a posteriori adaptation of the values of the relative importances and interactions of criteria. This simple approach has led to a satisfactory modelling of the strategy of aggregation in this application. The set of parameters used afterwards to illustrate our propositions is given in the tables 2 and 3. Table 2 Criteria definitions Criteria Description vi Information (c1) It includes the information about products, the security of payment, the updating of the site, the follow-up of orders, etc, 0.3 Price (c2) It corresponds to the price range proposed by an e-commerce site 0.275 Time Delivery (c3) It expresses the satisfaction of the customers with regard to the delay of reception of their goods. 0.225 Purchase Tracking Function (c4) It expresses the satisfaction of the customers concerning the way their problems have been resolved. 0.1 Products (c5) It reflects the variety of products proposed by a site. 0.1 Range 244 Management des Technologies Organisationnelles : Journées d’Etude 2009 Table 3 Criteria interaction parameters I12 I13 I23 I25 I34 0.2 0.3 -0.05 0.04 0.05 Notes: As mentioned above, the identification of the parameters of the 2additive Choquet integral is simpler than the identification of a general fuzzy measure, and can thus be made by direct expression from the decision-makers as it is the case in this application. Only n.(n + 1) 2 easily understandable parameters are required. Nevertheless, for better-quality quantification of these parameters, more elaborated indirect methods are available [2] [3] [13]. Indirect identification methods work with indirect information to identify the weights of a weighted average mean: pair wise comparisons are done considering the ratio or difference of attractiveness rather than attractiveness itself (as required by direct methods). These indirect methods for weight identification are rather well received in industry because they explicitly highlight the role of the experience and the know-how of the company’s experts. We have implemented such a method extended to the 2-additive Choquet integral in our software tool. In a q q q few words, a learning base of profiles Al = ( x1 ,.., xn ) is introduced. The decision-maker is asked to make pair wise comparisons and order the profiles; then, he is asked about the intensity attractiveness difference existing between the ordered profiles. Equations of type (13) are obtained. (13) where k characterizes the preference intensity (weakly, strongly, roughly preferred etc.) and α is introduced to respect the domain bounds (e.g. [0,1]). q Then, equations of type (13) from the learning base Al , q = 1..Q define an optimization problem whose solution provides with the Shapley indices vi’s and the interaction parameters Iij. Let us consider the case of the e-commerce Nomatix.com. Nomatix.com has chosen to invest in the price and the choice of products and not to focus on the quality of service provided. They practise a policy of low prices on a wide product range, and are mainly concerned with a strategy of quantity (increasing sales). The evaluation values in Fig.3 show that the considered e-commerce has chosen to invest in the price and the choice of products and not to focus on the quality of service. The distributions relative to the criteria evaluations of the customers are plotted in figure 3 and their parameters indicated in table 4. Communications MTO’2009 245 Information Price Time delivery Purchase tracking Products Range Figure 3 Global evaluation of Nomatix.com Table 4 Criteria distributions Information (14,16,17,18) Price (13,14,14.5,16. 5) Time Delivery Purchase Function (5,7,7.25,9) Tracking Products Range (8,8.5,9,10) (13.5,14,14.5,1 6.5) It can be noted that the customers are rather satisfied by the "price", the "products Range" and the available information. They are nevertheless, dissatisfied with "Time Delivery" and with the "Purchase Tracking Function". The results are consistent with the policy of the site. "Nomatix.com" tries to satisfy a category of customers who prefer to buy at cheaper prices even if it means waiting longer for the goods to be delivered. Its global evaluation, defined from the aggregation by the Choquet integral of the satisfactions of its customers on the considered criteria is given on the figure 3 ; the location indicator of the aggregated distribution, i.e. the average evaluation is 11.38. Using the indicators for decision explanations: a simple look at Fig. 3 seems to indicate that the worst evaluation is the "Time Delivery" and then the "Purchase tracking Function" according to the location indicators relative to the distributions of satisfaction of the customers for each criterion given in the Table 5. 246 Management des Technologies Organisationnelles : Journées d’Etude 2009 Table 5 Location indicators Criteria Location values Information (c1) 16.25 Price (c2) 14.50 Time Delivery (c3) 7.063 Purchase Tracking Function (c4) Products Range (c5) indicator 8.875 14.625 But if we consider the contributions of the criteria evaluations relative to these indicators (given in Figure 4), the most important contribution comes from the criterion "Price" (48.4%) followed by the one relative to the "Time Delivery" (23.3%). Let us recall that "Nomatix.com" follows a quantity strategy. Thus, in spite of its good evaluations in "Information" and "Products Range" and its weak evaluation obtained in "Time Delivery" (MD = 7.06), it is the latter that nevertheless contributes the most to the global evaluation after the price criterion. This result is not very intuitive and only the detail of the computations can allow understanding it. In fact, the profile of the performances of "Nomatix.com" is such that in the simplex of the evaluations ( x1 > x5 > x2 > x4 > x3 ), the local weight ∆µ3 of "Time Delivery" has a value of 0.375 while ∆µ1 = 0.05 for "Information" and ∆µ5 = 0.12 for the "Products Range "! Consequently, in this domain of the space of evaluations, the criteria "Information" and "Products Range" on which "Nomatix.com" invests a lot do not generate a big added value. Figure 4 Contributions of the criteria to the location indicator Communications MTO’2009 247 Let us now study the diagnosis from the point of view of the mean imprecision indicators. The mean imprecision indicators relative to each criterion distribution are given in Table 6. Table 6 Imprecision indicators Criteria Imprecision indicator values Information (c1) 2.5 Price (c2) 2.0 Time Delivery (c3) 2.12 Purchase Tracking Function (c4) 1.25 Products Range (c5) 1.75 We have ∆ (Information)> ∆ (Time Delivery) > ∆ (Price) > ∆ (Products range) > ∆ (Purchase Tracking). The mean imprecision of the distribution relative to the global evaluation through the Choquet integral is 1.99. The contributions of the criteria to this imprecision are given on the figure 5. It is the imprecision of the criterion "Time Delivery", followed by that of "Price" which most contributes to the mean imprecision of the global evaluation of "Nomatix.com". This is explained by their local weights ∆µ3 = ∆µ 2 = 0.375 against 0.05, 0.075 and 0.12 for respectively ∆µ1 , ∆µ 4 and ∆µ5 . Figure 5 Contributions of the criteria to the imprecision indicator A recommendation to the marketing team of "Nomatix.com" in order to reduce the imprecision of its global evaluation is to review in priority its policies regarding "Price", which is the most important criterion for its quantity strategy. 248 Management des Technologies Organisationnelles : Journées d’Etude 2009 Limitations of the contribution indicators For unimodal distributions, the indicators allow a simple and relevant analysis of the criteria contribution. But for multimodal distributions, it is not always the case. Let us consider for example the website "GoodDelly.com". This site presents a bimodal distribution according to the criteria "Information" and "Price" (Figure 6). The aggregation of the criteria distributions of "GoodDelly.com" by the Choquet integral gives a quadrimodal distribution illustrated on the Fig. 7. Figure 6 Possibility distributions relative to the evaluation of the information and price criteria Figure 7 Global evaluation of "GoodDelly.com" Here, the location indicator is not very informative. It has a value of 8 whereas the evaluation range is [2;13.5]. A more interesting aspect is the contribution to the lowest mode in order to provide the reasons for the bad global evaluation. In this case, it is useful to have a vision from criteria distribution contribution. Eq. (4) is used to express π ag as the sum of the partial distributions contributions: % πk = U % π ag = U ag k =1.. p +1 % ∆µ k .π k = ∑ % ∑ i i k =1.. p +1 i=1..n % ∆µ k .π k U i i i=1..n k =1.. p +1 For the preceding example, the criteria contribution distributions are plotted in the figure. It can be observed that the most contributing criteria to the lowest mode (i.e. the worst evaluations) are “Time Delivery followed by “Product Range”. Communications MTO’2009 249 1,5 Information 1 Price 0,5 Time Delivery 0 0 2 4 6 8 10 12 14 Figure 8 Criteria contribution distributions to the lowest mode of the aggregated distribution CONCLUSION The paper is dedicated to the development of explanation capabilities in a multi-criteria decision making process in an uncertain universe. We have presented a theoretical description of the basic techniques used; the possibility theory as well as the aggregation by a 2-additive Choquet integral. We have also proposed the definition of meaningful descriptive indicators of possibility distributions. A key theorem on the union of the upper and lower mean values of a possibility distribution and two additional corollaries have been established. They simplify the mechanisms of aggregation of the distributions indicators through the Choquet integral in order to clearly identify the criteria contributions. The latter are the bases of explanation functionalities taking the form of mean and imprecision contribution indicators. As an application of these theoretical contributions on a real case, a decision support system (FBRS) has been developed to help the marketing teams of ecommerce sites in the management of customers’ feedbacks. A set of diagnosis indicators is now available. It aims to supply marketing teams of e-commerce with relevant information and a quantitative analysis of the contribution of decision-making indicators of the criteria to the overall evaluation. Further works concern the extension of these indicators to the relative comparison and explanation of two competitive sites to support the benchmarking teams of ecommerce companies. As a summary, the main advantages of this mathematical model with regard to classical statistical linear regression models are: • the possibilistic model allows representing the variability of the opinions when these opinions are not precise values (this is the case in the evaluation of e-commerce websites with stars representing intervals of numerical evaluations); 250 Management des Technologies Organisationnelles : Journées d’Etude 2009 • • • the non linear aggregation model allows taking into account both relative importance of criteria and interactions between them; thus, more complex preference models modeling the company’s policy can be introduced; multi modal distributions of opinions are taken into account; the properties we have established, concerning the location and the mean imprecision indicators, confer explanative functionalities on our model, and thus extend the notion of explanative variables as commonly used in statistical linear regression models. They are useful to identify the criteria according to which an improvement could be relevant when non linearity prevents from any intuitive reasoning. REFERENCES [1] Akharraz A., Mauris G., Montmain J., A project decision support system based on an elucidative fusion system, Fith Int. Conf. on Information Fusion (ICIF 02), Annapolis, USA, July 2002, 593-599. [2] C. Bana E Costa, M. Changas, A career choice problem: an example of how to use Macbeth to build a quantitaive value model based on qualitative value judgements, European journal of Operational Research 153(2004) 323–331. [3] C. Bana E Costa, J. Vansnick, Applications of the Macbeth approach in the framework of an additive aggregation model, Journal of Multi-Criteria Decision Analysis 6(1997) 107– 114. [4] P. Bosc, D. Dubois, H. Prade, An introduction to fuzzy sets and possibility theory based approaches to the treatment of uncertainty and imprecision in database management systems. In Proceedings of the 2nd Workshop on Uncertainty Management in Information Systems: From needs to solutions, Catalina, CA, USA, 1993. [5] A. Denguir.R, G. Mauris, J. Montmain, Propagation of uncertainty by the possibility theory in a Choquet integral based Decision making for an E-commerce website choice support, IEEE Transactions on Instrumentation and Measurement 55 (2006) 721– 728. [6] A. Denguir. R, J. Montmain, G. Mauris, E-commerce evaluations comparison and recommendation within a possibilistic framework. In The 11th Int. conf. on Information Processing and Management of Uncertainty in Knowledge-Based Systems (IPMU’ 06), Paris, France, 2006 770–777. [7] D. Dubois, Possibility theory and statistical reasoning, Computational Statistics & Data Analysis, Volume 51, Issue 1, (2006) 47-69. [8] D. Dubois, H. Prade, The mean value of a fuzzy number, Fuzzy Sets and Systems 24(1987) 279–300. [9] D. Dubois, H. Prade, Possibility Theory: An Approach to Computerized Processing of Uncertainty, Plenum Press, New York, 1988. [10] M. Grabisch, H,T. Nguyen, E A. Walker, Fundamentals of uncertainty calculi with applications to fuzzy inference, Dordrecht, Kluwer Academic, 1994. Communications MTO’2009 251 [11] M. Grabisch, M. Roubens, The application of fuzzy integrals in multi-criteria decision making, European J. of Operational Research 89(1996) 445-456. [12] M. Grabisch, k-Ordered Discrete Fuzzy Measures and Their Representation, Fuzzy sets and systems 92(1997) 167-189. [13] M. Grabisch , C. Labreuche, J.Vansnick, On the extension of pseudo Boolean function for the interacting bipolar criteria, European Journal of Operational Research 148(2003) 28-47. [14] Y. Iwasaki, H. Simon, Causality in device behaviour, Artificial Intelligence 29 (1986) 3–32. [15] J.L. Marichal, Concepts et Méthodes pour l’Aide à la Décision Volume 3, chap. Fonctions d’agrégation pour la décision. IC2 Series, Hermès Science Publications, 2006. [16] S. Mcnee, S. Lam, C. Guetzlaff, J. Konstan, J. Riedl, Confidence displays and training in recommender systems. In International Conference on Human-Computer Interaction, 2003, 176–183. [17] P. Meyer, M. Roubens, On the use of the choquet integral with fuzzy numbers in multiple criteria decision support. Fuzzy Sets and Systems 157 (2006) 927–938. [18] A. Motro, A. Sources of uncertainty in information systems, In the 2nd Workshop on Uncertainty Management and Information Systems: From Needs to Solutions, Catalina Island, CA, 1993. [19] B. Roy, D. Bouyssou, Aide multicritère à la décision : méthodes et cas. Economica, 1993. [20] B. Roy, In Decision, Prospective Auto-Organisation, Mélanges en l’honneur de J. Lesourne, Thépot J., Godet M., Roubelat F. et Saab A.E., chap. Réflexions sur le thème, quête de l’optimum et aide à la décision. Dunod (Eds.), 2000. [21] J. Schafer, J. Konstan, J. Riedl, E-commerce recommandation applications, Journal of Data Mining and Knowledge Discovery (2001) 115-153. [22] A. Scharling, Décider sur plusieurs critères. Panorama de l’aide la décision multicritère. Presses polytechniques et universitaires romandes, Lausanne, 1985. [23] H. Simon, Administrative behaviour: a study of Decision Making Processes in Administrative Organizations. Mac Millan, New York, 1947. [24] E. Turban Decision Support and Expert Systems: Management Support Systems. PrenticeHall, Inc, 1994. [25] L.A. Zadeh, Fuzzy sets. Information and Control 8(1965) 338–353. [26] L.A. Zadeh, Fuzzy Sets as a basis for a theory of possibility, Fuzzy Sets and Systems 1(1978) 3-28. 252 Management des Technologies Organisationnelles : Journées d’Etude 2009 Communications MTO’2009 253 Vers de nouveaux agencements pour l’organisation et l’accès à l’information scientifique Monique COMMANDRÉ Laboratoire VECT / Université de Perpignan / Mende Pierre-Michel RICCIO Centre de recherche LGI2P / Ecole des mines d’Alès / Nîmes RÉSUMÉ Face à la prolifération de l’information numérique, nous interrogeons le niveau de performativité des ontologies comme dispositif de médiation entre des données préexistantes dans les interfaces d’édition numérique et un projet d’apprentissage et / ou de veille scientifique. Notre contribution, illustrée par deux études de cas, propose une ingénierie de la médiation intégrée s’appuyant sur un modèle en trois niveaux pour l’organisation et l’accès à l’information scientifique. INTRODUCTION Notre contribution au débat sur l’organisation et l’accès à l’information scientifique portera sur les problématiques d’extraction et d’appropriation de l’information dans des communautés de pratiques. Plus précisément nous interrogerons les dispositifs de médiation entre l’information « disponible » et les acteurs porteurs d’une intention d’apprentissage et /ou de veille scientifique. Le dispositif sera ici considéré dans la lignée des travaux de la sociologie de l’innovation, elle-même héritière de la pensée foucaldienne (Foucault, 1991). Ainsi, le terme de dispositif sera utilisé pour désigner tous les assemblages sociotechniques d’humains et de non-humains auxquels s’intéressent ces sociologues, qu’il s’agisse de décrire les « programmes d’action » (Latour, 1996) 254 Management des Technologies Organisationnelles : Journées d’Etude 2009 ou les « scripts » (Akrich, 1992) inscrits dans des objets, ou encore, « des assemblages d’éléments hétérogènes d’énoncés, d’agencements techniques, de compétences incorporées » (Callon, 1995). Nous aborderons les formes de médiation sociocognitives, relationnelles et technologiques (Peraya, 2005) pour interroger les affordances des ontologies (Sowa, 1999) sur la structuration et l’organisation des informations, ainsi que sur les modes d’appropriation des connaissances. Notre contribution se situe au niveau de l’analyse des interrelations entre des outils d’indexation, des modèles de structuration induits par les différentes générations d’ontologies et les modalités de construction des connaissances par différentes communautés de pratique. PROBLEMATIQUE ET METHODE. Face à la prolifération de l’information numérique, nous interrogeons le niveau de performativité des ontologies - dans la dynamique des travaux sur le Web sémantique (Berners-Lee, 2001) - comme dispositif de médiation entre des données préexistantes dans les interfaces d’édition numérique et un projet d’apprentissage et / ou de veille scientifique. Considérant que le projet d’apprentissage et / ou de veille scientifique est entendu comme un processus de construction de connaissances actionnables (Schön, 1983) (Penalva, 2000) et que l’édition numérique est vue comme un stock de données indexées et référencées dans une logique plus ou moins ouverte de mise à disposition, nous pouvons poser une base de questionnement problématique. Qu’elle soit à vocation de service public ou à vocation commerciale, l’édition scientifique numérique organise l’accès à des stocks de données. Ces « réservoirs » rendent disponibles des données indexées, classées et référencées. La profusion d’informations scientifiques tient-elle ses promesses ? Ces données disponibles rencontrent-elles les projets des acteurs ? Les données rendues disponibles par l’édition numérique garantissent-elles toujours un critère de pertinence pour des connaissances actionnables au niveau du projet d’un acteur ou d’un collectif ? Les réservoirs de données sont riches mais leur utilité et utilisabilité (Chevalier, Tricot, 2008) restent très faibles du point de vue de la construction de connaissances actionnables. Dans un grand nombre de cas, l’accès aux données est réalisé par des requêtes basées sur des descripteurs ou à travers une taxinomie aristotélicienne. Cette classification structure des données potentiellement intéressantes mais s’avère inopérante du point de vue de la construction de connaissances actionnables. Communications MTO’2009 255 A partir de ces constats, nous émettons une hypothèse concernant le potentiel des ontologies. La structuration et l’organisation des informations sous formes de documents numériques, de réseaux sémantiques et d’ontologies permettraient d’utiliser de manière profitable les données disponibles. Les données présentent un caractère informe, un potentiel plus ou moins activé, a contrario du terme d’information, du latin « informare » ou « informatio », qui signifie « donner une forme, une signification ». La donnée deviendrait donc information dans sa rencontre avec une intention (Schutz, 1987). La première intention à laquelle l’information va être soumise est celle du concepteur de l’ontologie. Comment les ontologies et leurs différentes générations induisentelles la structuration des données en informations ? Quelles sont les médiations sociocognitives, relationnelles et technologiques observables ? Les ontologies en tant qu’agencements numériques se situent à l’intermédiaire entre des données préexistantes disponibles et une intention d’apprentissage ou de veille scientifique. Nous verrons à ce propos quels sont les niveaux de performances des différentes générations d’ontologies (ontologies élaborées de manière manuelle ou ontologies quasi automatique) dans l’organisation et la structuration des données en informations. C’est ainsi que nous pouvons définir la problématique centrale de notre contribution : en quoi et comment les ontologies peuvent-elles constituer des dispositifs de médiation plus ou moins performants entre des données préexistantes et un projet d’apprentissage et / ou de veille scientifique ? Pour illustrer cette problématique nous nous appuyerons sur deux cas : l’expérience de construction d’une ontologie de la pneumologie initiée par l’INSERM et l’utilisation d’une plateforme ToxNuc mise en place dans le cadre du programme Toxicologie Nucléaire Environnementale. A travers ces projets de recherche nous allons tenter d’appréhender le développement d’ontologies et la position des acteurs dans leurs processus (individuels et collectifs) d’apprentissage et de veille scientifique. La posture méthodologique qui est la notre dans le cadre de ces recherches prend ses fondements dans l’ethnographie des usages. Selon Serge Proulx, l’ethnographie des usages permet « d’observer le plus finement possible l’action effective de la technique dans la société » (Proulx, 1999). Concrètement nous privilégions une approche par immersion, plus ou moins approfondie sur chacun des deux cas explicités ici, et une analyse des formes signifiantes par la mise en contexte. L’approche par immersion est organisée autour de techniques de recueil privilégiant l’observation participante, des entretiens semi-directifs, l’analyse des documents recueillis et l’analyse des documents exploités. Notre démarche d’analyse qui se réclame du paradigme interprétatif est guidée par la mise en contexte des phénomènes signifiants laissant apparaître des médiations complexes au sein des dispositifs. 256 Management des Technologies Organisationnelles : Journées d’Etude 2009 LE CAS #01 : LA CONSTRUCTION D’UNE ONTOLOGIE DE LA PNEUMOLOGIE Voici une présentation des travaux de doctorat réalisés par Audrey Baneyx sous la direction de Jean Charlet au sein du laboratoire Santé Publique et Informatique Médicale de l’INSERM au Centre de recherche des Cordeliers à Paris (Baneyx, 2007). Depuis le 31 juillet 1991 les établissements de santé doivent procéder à l’évaluation et l’analyse de leur activité en s’appuyant sur le Programme de Médicalisation des Systèmes d’Information (PMSI). L’action poursuit un double objectif une meilleure répartition des ressources et une amélioration à terme de l’efficacité des pratiques. Dans ce contexte, il est nécessaire d’harmoniser assez rapidement les langages médicaux, pour aider les médecins qui renseignent le dispositif à partir des comptes rendus d’hospitalisation sans avoir nécessairement vu les patients, comme pour favoriser l’échange entre partenaires hospitaliers : médecins, soignants et administratifs. Dans ce contexte, l’effort d’Audrey Baneyx a porté plus particulièrement sur la construction d’une ontologie de la pneumologie. Après une immersion dans la spécialité qui lui a permis d’appréhender les besoins des praticiens et réaliser un état de l’art, la jeune femme - en s’appuyant sur la méthode ARCHONTE proposée par Bruno Bachimont (Bachimont, 2002) - a mis au point une méthodologie complète pour élaborer une ontologie en partant des documents disponibles. Sur le terrain elle a rencontré de nombreuses difficultés. Les projets de standardisation du contenu des dossiers médicaux et de codage des pathologies. La complexité de la démarche de soin. La difficulté pour obtenir un consensus chez les médecins codeurs. La difficulté méthodologique pour obtenir un recueil de données homogène pour un même état pathologique. La nécessité de respecter la structure naturelle de l’information pour la dénaturer le moins possible. La faiblesse des outils d’aide au codage fondés sur les thésaurus professionnels. Les difficultés pour rendre compte des richesses d’un langage de spécialité. Enfin, la crainte que le codage des actes et des pathologies soit plus utilisé pour surveiller l’activité que pour améliorer les pratiques. S’appuyant sur les travaux de T. Gruber « une ontologie est une spécification partagée d’une conceptualisation » (Gruber, 1993) puis de B. Bachimont « définir une ontologie pour la représentation des connaissances, c’est définir un domaine et un problème donnés, la signature fonctionnelle et relationnelle d’un langage formel de représentation et la sémantique associée » (Bachimont, 2002), l’état de l’art dresse un panorama : des différents types d’ontologies selon le degré de formalisme (hautement informelles, semi-informelles, semi-formelles et formelles), les objets modélisés (pour la représentation des connaissances, de domaine, de haut niveau, génériques, de tâches, d’applications) ou le niveau de Communications MTO’2009 257 granularité (fine, large), et des formalismes pour la représentation des connaissances (graphes conceptuels et logiques de description). La jeune femme présente ensuite un assez grand nombre de méthodologies de construction d’ontologies et des outils pour finalement privilégier la méthode ARCHONTE (choisir les termes pertinents et les positionner, formaliser les connaissances en précisant les propriétés, et opérationnaliser l’ensemble dans un langage de représentation des connaissances) et l’outil PROTEGE (développé et mis à disposition par le Stanford Medical Informatics). Dans une démarche ascendante, le travail de construction de l’ontologie de la pneumologie est alors conduit en cinq étapes : analyse terminologique fondée sur l’analyse des corpus (en utilisant des outils pour repérer les syntagmes nominaux), identification sélection et extraction des termes pertinents, normalisation, formalisation et opérationnalisation. La construction est conduite avec un souci de validation des contenus en s’appuyant sur un ensemble de critères : clarté et objectivité, perfection, cohérence et extensibilité, biais d’encodage minimal, engagements ontologiques minimaux, distinction ontologique, minimisation de la distance sémantique et normalisation des termes. Un ensemble d’erreurs potentielles est aussi recherché : circularité, partition, redondance, sémantique, incomplétude. L’ensemble devant être naturellement validé par les praticiens. Les ontologies construites dans une démarche ascendante semblent être performantes mais aussi coûteuses à élaborer et entretenir. Or, si la qualification d’actes médicaux requiert un niveau élevé de précision, d’autres usages pourraient se contenter de modèles intermédiaires de connaissances, moins aboutis, mais beaucoup plus économiques à construire et faire évoluer. LE CAS #02 : LA RECHERCHE D’INFORMATIONS DANS LE PROGRAMME TOXNUC-E Pour appréhender d’autres formes ou démarches de construction de modèle de connaissances, nous allons présenter les travaux de doctorat de Reena T.N. Shetty réalisés sous la direction de Joël Quinqueton et Pierre-Michel Riccio au Centre de Recherche LGI2P de l’Ecole des Mines d’Alès (Shetty, 2008). Le programme de recherche Toxicologie Nucléaire Environnementale (Ménager, 2007) a pour objectif d'identifier les effets toxiques d'éléments chimiques, radioactifs ou non, utilisés dans la recherche et l'industrie nucléaires. Ces travaux visent à déterminer les mécanismes de toxicité de ces éléments pour l'homme et son environnement et de proposer des procédés de dépollution et de traitement d'éventuelles contaminations. Ce programme inter-organismes, organisé en 15 projets de recherche, est piloté par le CEA et soutenu par le Ministère de la Recherche. Il fédère, depuis 2004, une communauté scientifique 258 Management des Technologies Organisationnelles : Journées d’Etude 2009 pluridisciplinaire d'environ 200 chercheurs/an et 100 doctorants et postdoctorants (CEA, CNRS, Inra, Inserm). Dans ce contexte l’action du centre de recherche LGI2P de l’Ecole des Mines d’Alès a été d’accompagner le développement de la communauté scientifique notamment à travers la mise en place d’un système d’information collectif. Les travaux de Reena Shetty ont concerné plus particulièrement l’élaboration d’une méthodologie de construction de modèles de connaissances pour faciliter l’identification de documents et le travail collaboratif (Shetty, 2007). La recherche d’informations sur les systèmes ouverts (internet) ou fermés (plateformes de travail collaboratif) devient vite exaspérante car les données accessibles sont difficilement exploitables. Les requêtes simples produisent un très grand nombre de résultats et les utilisateurs passent beaucoup de temps à analyser ces résultats souvent peu pertinents par rapport à leur projet, leur besoin. A partir de ce constat l’idée est de mieux utiliser les capacités de calcul de la machine pour restreindre la taille de l’ensemble des résultats ou identifier avec une bonne précision l’information recherchée. Les travaux sur le « web sémantique » et les « ontologies » sont prometteurs, car ils permettent une meilleure « compréhension » des documents et facilitent à l’aide d’outils appropriés la qualité des recherches. Mais la construction d’ontologies et un travail long et très coûteux. Aussi, l’idée de ce travail de recherche a été d’imaginer une approche semiautomatique de construction de modèles de connaissances pour la recherche d’information dans de larges corpus. Le principe : trouver une forme d’ontologie utilisable avec les mêmes outils, mais qui puisse être construite rapidement et mise à jour facilement, en faisant intervenir les spécialistes du domaine sur une partie strictement indispensable et laissant la machine calculer le reste. Nous l’avons appelée réseaux sémantiques étendus ou ESN pour : Extended Semantic Network. La première étape consiste à partir d’un ensemble de documents soigneusement sélectionnés à créer par calculs mathématiques issus de l’analyse de données et de la classification automatique (fondés sur la proximité des mots dans l’espace) un ou plusieurs réseaux de proximités (un réseau de proximité par thème). Dans le même temps des spécialistes élaborent, en s’appuyant sur un guide de construction, de petits réseaux sémantiques (environ cinquante nœuds ou concepts par réseau) qui représentent la vision du monde de l’acteur en situation sur un thème. La deuxième étape consiste à fusionner de façon automatique réseaux sémantiques et réseaux de proximité pour générer des quasi-ontologies qui pourront être ensuite utilisées à la place de véritables ontologies pour restreindre de façon efficace l’ensemble des résultats d’une requête. Communications MTO’2009 259 Pour certains spécialistes la démarche est discutable puisqu’elle consiste à rapprocher des concepts et des termes, mais elle respecte le point de vue de l’acteur qui construit de façon manuelle le ou les réseaux sémantiques, les termes n’étant finalement utilisés que pour étendre et préciser les différents concepts. Les premiers résultats sur le programme ToxNuc-E sont encourageants, mais il reste à conduire une véritable campagne de validation des travaux dans différentes situations. UNE ORGANISATION EN TROIS NIVEAUX A la vue de ces deux études de cas nous proposons de réconcilier documents numériques, intentions d’apprentissage et information scientifique à travers un modèle en trois niveaux : une couche basse ou substrat dans laquelle serait stocké l’ensemble des données de base accessibles constituant un réservoir d’informations, une couche haute dédiée aux intentions dans l’usage (processus de création par l’auteur / processus de reconstruction par le lecteur) et une couche intermédiaire dans laquelle serait concentré l’ensemble des supports de médiation (index, thésaurus, ontologies, réseaux sémantiques,…). Le principe d’un modèle en trois niveaux semble adapté, il est bien le reflet d’une décomposition de la connaissance en construction : données, informations et connaissances actionnables. Mais, il convient à notre avis de prendre un peu de recul quand à la composition des différentes couches. Pour la couche basse ou substrat, que l’on se situe dans un système ouvert (web étendu), semi-ouvert (plateformes professionnelles), ou fermé (plateformes de travail collaboratif), l’expérience montre qu’il existe un processus de sélection des données. Les législations internationales, les pratiques culturelles, l’éthique guident de facto le processus de publication des données. Pour ne pas être poursuivi en justice (par exemple pour diffamation ou plagiat), parce que le dépôt n’est pas complètement anonyme (ce qui pose la question de la responsabilité des acteurs et de leur image par rapport aux autres acteurs), ou plus simplement parce que les contributeurs semblent être dans d’assez larges proportions dotés d’une volonté de bien faire, les données accessibles sont plutôt d’assez bonne qualité. Un point important est que les données n’existent pas seules : pour qu’elles puissent être repérées, le contributeur va associer des mots-clés, les moteurs de recherche vont créer et utiliser des index (différents selon le type de moteur). L’ensemble fait qu’il est aujourd’hui difficile de considérer que l’information numérique accessible est une accumulation de données sans forme et sans cohérence au sens intrinsèque. Il existe toutefois de nombreux problèmes : coexistence de versions différentes d’un même ensemble de données, repérage des auteurs et / ou contributeurs, positionnement dans le 260 Management des Technologies Organisationnelles : Journées d’Etude 2009 temps, insertion dans un champ, cohérences locales, qui font que les données publiées peuvent être complètement inexploitables dans un projet d’apprentissage ou de veille scientifique. La couche haute doit de notre point de vue faciliter l’expression des intentions de l’auteur en charge d’une action de publication comme celles de l’apprenant ou d’un acteur inscrit dans un projet de veille. Méthodes et outils devraient faciliter dans ce cas le travail de publication de l’auteur comme le parcours in situ de l’apprenant. Il nous semble difficile, et dans un grand nombre de cas impossible, de dissocier la contribution directe de ces acteurs (qu’il s’agisse d’un scénario d’apprentissage rédigé par un formateur ou de la découverte d’un parcours d’apprentissage ou de veille) d’éléments qui vont apporter une valeur ajoutée. De nombreux outils technologiques peuvent être utilisés : modèles utilisateurs mémorisant les pratiques (sur la machine de l’utilisateur ou sur une machine distante) ou traces d’usages pour in fine donner plus de souplesse ou trouver une meilleure adéquation dans la démarche (adaptation de la restitution aux profils des utilisateurs pour améliorer la construction des connaissances). Ces outils peuvent aussi être mis à contribution pour mieux situer les éléments d’apprentissage ou de veille en contexte (par exemple en accédant à la biographie des auteurs de référence). En ce qui concerne la couche intermédiaire de nombreux travaux ont été initiés, comme ceux que nous avons présentés pour la construction d’une ontologie de la pneumologie ou la mise au point de réseaux sémantiques étendus pour la toxicologie nucléaire environnementale. Aujourd’hui, il nous semble que deux points doivent être approfondis en priorité : en termes d’accès la mise en cohérence d’un projet éditorial ou d’apprentissage par rapport aux données accessibles via les représentations collectives (élaborées sous forme d’ontologies ou de réseaux sémantiques étendus), et en termes d’organisation la mise en cohérence, la validité, l’homogénéité, la constance et la fiabilité des informations (qui vont qualifier les données accessibles dans la couche basse). CONCLUSION La réponse à la problématique que nous posions sur les niveaux de performativité des différentes générations d’ontologies doit être nuancée. Nous constatons tout d’abord que les ontologies sont relatives à la responsabilité éditoriale qui prévaut. Cette dernière reposerait sur un niveau d’expertise suffisant pour légitimer les savoirs organisés. Nous interrogeons la place des experts dans leurs intentions éditoriales. Les objectifs et les finalités qui prévalent à la constitution d’ontologies déterminent l’organisation de « monde de connaissances ». La responsabilité éditoriale est donc primordiale et doit être Communications MTO’2009 261 interrogée dans ses intentions. Le projet éditorial s’inscrit dans une intention qui au mieux recouvre une dimension heuristique mais qui peut aussi être marquée par des intentions politiques ou économiques. La construction d’ontologies ne peut pas faire l’impasse d’une justification des schèmes épistémologiques qui prévalent à son existence. Ce qui nous invite à revenir à la question initiale de l'explicitation des paradigmes épistémologiques de référence : ceux par lesquels nous tenons pour « valables » les connaissances constituées au sein d’ontologies. Nous prônons une responsabilité éditoriale qui non seulement organise les connaissances mais surtout rend lisible l'épistémè et les « schèmes de liaison » à l’œuvre dans la construction de « mondes de connaissances ». Nous rejoignons les préoccupations éthiques d’une « science avec conscience » et préconisons une mise en contexte de la construction d’ontologies. Ces dernières apparaissent par ailleurs comme des spécifications partagées par une communauté de pratiques. En ce sens, l’ontologie n’est valable que pour une communauté et reproduit des formes paradigmatiques reconnues au sein de cette communauté. En ce sens, les ontologies apparaissent comme des systèmes de reproduction des connaissances constitutives de paradigmes de référence. Les ontologies et les nouveaux agencements numériques qui leur donnent formes, s’ils facilitent l’organisation et l’accès à l’information scientifique éditorialisée, ne favorisent pas l’ouverture créative à travers des apprentissages à la marge des disciplines constituées ou des paradigmes de référence. La médiation n’étant pas neutre elle oriente forcément l’accès aux informations dans une vision paradigmatique. De manière plus conséquente et comme nous avons pu l’observer dans le cas de construction d’une ontologie de la pneumologie, les ontologies orientent parfois la pratique. La dimension pragmatique instaurée par l’utilisation des ontologies dans les activités scientifiques (sous formes d’évaluation notamment) n’échappe pas à une orientation paradigmatique. Un des paradoxes dans la construction d‘ontologies repose sur les récurrences de la démarche éditoriale au détriment de la pertinence d’un monde de connaissances ouvert sur la pratique. Nous préconisons donc une ingénierie de la médiation dans les dispositifs d’information scientifique. Cette ingénierie de la médiation va garantir la qualité des documents à travers la validation, la hiérarchisation et la responsabilité éditoriale et, située dans un dialogue entre pratiques et épistémè, va renforcer le lien entre les acteurs. Une ingénierie de la médiation complétera l’apport de l’ingénierie des connaissances, dont la principale contribution est d’élaborer des représentations collectives, en resituant les projets de conception ou d’usage au centre de la démarche. 262 Management des Technologies Organisationnelles : Journées d’Etude 2009 RÉFÉRENCES BIBLIOGRAPHIQUES Akrich M., « The De-Scription of Technical Objects », Shaping Technology / Building Society: Studies in Sociotechnical change, Cambridge, MIT Press., 1992. Bachimont B., Isaac A. and Troncy R., « Semantic commitment for designing ontologies: A proposal », 13th International Conference on Knowledge Engineering and Knowledge Management EKAW’2002, in Lecture Note in Computer Science, Springer, vol. 2473, 2002, p. 114-121. Baneyx A., Construire une ontologie de la pneumologie, Thèse de doctorat en informatique, Université Paris 6, 2007. Berners-Lee T., Hendler J. and Lassila O., The semantic Web, Scientific American, May 2001. Callon M., « Four Models for the Dynamics of Science », Handbook of Science and Technology Studies, Thousand Oaks, Sage, 1995. p. 29-63. Chevalier A., Tricot A., Ergonomie des documents électroniques, Paris, Presses Universitaires de France, 2007. Foucault M., La poussière et le nuage, in L'impossible prison, recherches sur le système pénitentiaire au XIXe siècle, Paris, Seuil, 1991, p.29-39. Gruber T., « A translation approach to portable ontology specifications », in Knowledge Acquisition, vol. 5, n° 2, 1993, p. 199-220. Latour B., Petites leçons de sociologie des sciences, Paris, Seuil, 1996. Ménager M.T., Présentation des résultats du programme de recherche Toxicologie Nucléaire Environnementale 2007, http://www.toxnuc-e.org/vulgarisation/index.php Penalva J.M., Connaissances actionnables et intelligence collective, Actes du colloque Ingénierie des systèmes et NTIC (NîmesTIC’2000), Nîmes, Septembre 2000. Peraya D., « La formation à distance : un dispositif de formation et de communications médiatisées, Une approche des processus de médiatisation et de médiation », TICE et développement, 2005. Proulx S., « La construction sociale des objets informationnels : matériaux pour une ethnographie des usages », Actes du Colloque Comprendre les usages d'Internet, Paris, 3 et 4 décembre 1999. Schön D.A., The Reflective Practitioner: how professionals think in action, Basic books, NewYork, 1983. Schutz A., Le chercheur et le quotidien : phénoménologie des sciences sociales, Paris, Méridiens Klincksieck, 1987. Shetty R.T.N., Quinqueton J., Riccio P.M., Penalva J.M. and Villerd J., « Collaborative Platform Using Knowledge Cartography – ToxNuc-E », Proceedings of CTS’2007, New-York, IEEE, p. 312-320. Shetty R.T.N., Enrichissement de réseaux sémantiques par la proximité de concepts, Thèse de doctorat, Ecole des Mines de Paris, 2008. Sowa J.F., Knowledge representation: Logical, philosophical and computational foundations. Brooks Cole Publishing Co., Pacific Grove, CA USA. 1999. III – En direct des laboratoires Daniel BONNET Nicolas DACLIN et Vincent CHAPURLAT Philippe COIFFARD Marie-Françoise COMBAZ Irène GEORGESCU Frank ROBERT, Frank LASCH et Frédéric LE ROY 264 Management des Technologies Organisationnelles : Journées d’Etude 2009 En direct des laboratoires 265 Promouvoir le Management des Technologies Organisationnelles : lignes directrices fondamentales d’une politique de management des technologies organisationnelles Daniel BONNET Chercheur-associé à l’ISEOR Université Jean-Moulin / Lyon RESUME Les technologies organisationnelles intègrent le fonctionnement courant des organisations. Les processus dynamiques du fonctionnement se recomposent désormais dans l’interaction de l’usage des technologies organisationnelles et dans l’investissement immatériel. Cette recomposition détermine les nouveaux invariants de la transformation, voire de la métamorphose des organisations. Cette communication étudie les lignes directrices d’une politique de management intégré des technologies organisationnelles sous ce point de vue. INTRODUCTION : EMERGENCE DE LA NOTION DE MANAGEMENT DES TECHNOLOGIES ORGANISATIONNELLES Les technologies de l’information et de la communication permettaient jusqu’à une époque encore récente de réaliser des fonctions simples, par exemple envoyer ou recevoir un mail. Elles étaient principalement orientées vers l’accomplissement de ces fonctions simples pour lesquelles elles ont été conçues à l’origine. Désormais, elles s’intègrent dans des dispositifs organisationnels aux seins desquels elles doivent réaliser des fonctions complexes. On voit apparaître de nouvelles exigences, par exemple l’interopérabilité des solutions 266 Management des Technologies Organisationnelles : Journées d’Etude 2009 technologiques. La technologie a évolué et propose désormais des solutions d’organisation d’essence technologique, par exemple le workflow qui permet le travail collaboratif au sein des organisations et entre des organisations différentes. Cette intégration modifie leurs finalités. Le développement des technologies organisationnelles a d’abord été préconisé comme solution pour améliorer en qualité et en efficacité le fonctionnement des organisations. Leur intégration devient désormais le problème. Au stade actuel des savoir-faire dans le domaine du management des technologies organisationnelles, cette intégration révèle les incompatibilités dont le franchissement contribuera à l’émergence même du management des technologies organisationnelles. L’incompatibilité est ici définie sur le plan logique. Elle caractérise des phénomènes dysfonctionnels dont la conjonction ne peut intervenir pour des raisons logiques indépendantes des circonstances. Ce sera par exemple le cas avec des outils de gestion conçus dans des contextes différents de celui où ils doivent être mis en place, ce qui est souvent le cas pour la mise en œuvre des solutions SAP (Systems, Applications, and Products for data processing), dans la catégorie desquels se classent les ERP (Entreprise Ressource Planning). Cette incompatibilité peut-être analysée en observant les dysfonctionnements. Ces dysfonctionnements sont le symptôme d’une marge d’indétermination. L’information nécessaire à la conjonction n’est pas générée par le couplage des structures de la technologie et de l’organisation. La détermination du nouvel ensemble organisationnel nécessite l’intervention de l’homme, en réalisant le couplage du gestionnaire et de l’ingénieur. Il s’agirait de porter toute son attention sur les dysfonctionnements. Les dysfonctionnements trouvent leur origine dans l’interaction des structures et des comportements. L’approche dysfonctionnelle est une option méthodologique (H.Savall et V.Zardet, 1995a : 183). Le dysfonctionnement est un phénomène d’essence socio-économique. La modélisation des phénomènes du fonctionnement organisationnel impose de relâcher la contrainte de la rationalité limitée, comme l’avait préconisée J.G March et H.A Simon (1969), compte tenu de ce que l’incompatibilité naît également du décalage plus ou moins important selon les contextes entre la logique de conception de la solution technologique, ce que la technologie permet de proposer, et la logique de l’outil lui-même (J.C Moisdon, 1997 : 111). Les incompatibilités technologiques et organisationnelles saturent donc le déploiement du potentiel et des capacités organisationnelles. Le progrès technologique se vulgarise dans tout le champ de ses possibilités, définissant l’étendue des transformations qui s’opèrent, mais posent de nombreux problèmes nouveaux dans le champ de son intégration, définissant quant à lui la profondeur des transformations. La problématique se En direct des laboratoires 267 situe donc à l’intersection de l’étendue des transformations et de leur profondeur. La recherche scientifique et la coopération des acteurs (consultants, professionnels) doivent se concentrer à cette intersection. La problématique étant posée, notre recherche stipule qu’il convient d’intégrer deux perspectives, constituant les hypothèses à valider. • Les processus dynamiques de la transformation des structures et des comportements se recomposent dans l’interaction de l’usage des technologies organisationnelles et dans l’investissement immatériel courant. • Les organisations fonctionnent en régulations d’incompatibilités (Partie 1). Elles doivent trouver avec la collaboration de chercheurs et des consultants les voies et les moyens permettant de proposer et d’implanter des solutions technologiques compatibles dans la diversité des contextes. Le choix des investissements nécessite d’évaluer préalablement la pertinence des solutions technologiques proposées. Cette évaluation se fait généralement à partir d’un cahier des charges des besoins. Cette évaluation n’est pas suffisante, même si elle anticipe les conditions de l’alignement stratégique et ergonomique. L’évaluation des conditions et des modalités de l’alignement doivent intégrer la compréhension des processus de recomposition des dysfonctionnements. Les cahiers des charges devraient donc intégrer également une analyse systématique des dysfonctionnements, et proposer un traitement de ceux-ci en profondeur. • Le déploiement du potentiel et des capacités organisationnelles nécessite de mettre en œuvre une politique de management intégré des technologies organisationnelles. • Le management des technologies organisationnelles doit se fixer pour objectif d’organiser le déploiement du potentiel et des capacités organisationnelles (Partie 2). Ce déploiement nécessite d’intervenir avec des méthodes de la conduite du changement réalisant une approche transformative. Cette perspective nécessite que les politiques de management des technologies organisationnelles intègrent le traitement des invariants à l’origine des dysfonctionnements. La recomposition des dysfonctionnements peut en effet s’expliquer par le fait que les politiques mises en œuvre, généralement définies comme des politiques de conduite du changement, ne sont pas parvenues à transformer les processus dans le fonctionnement des infrastructures de l’organisation et de son management. Les invariants sont définis comme les éléments qui rendent compte de l’aspect inchangé de la transformation (W.R Bion, 1982 : 7). 268 Management des Technologies Organisationnelles : Journées d’Etude 2009 Notre communication analyse ces deux hypothèses pour explorer les lignes directrices d’une politique fondamentale de management des technologies organisationnelles (Partie 3). Cependant, notre conclusion montrera que l’incompatibilité est immanente dès lors que le fonctionnement des organisations et les solutions technologiques ne réalisent pas l’homéostasie de leur propre perfectionnement, qu’il s’agit donc de pratiquer le management intégré des technologies organisationnelles. Le management des technologies organisationnelles doit être envisagé comme vecteur de l’innovation managériale et organisationnelle. PARTIE 1 : LES ORGANISATIONS FONCTIONNENT EN REGULATIONS D’INCOMPATIBILITES Cette partie explicite la notion de régulation d’incompatibilités. N. Belbaly et ali. (2007 : 20) soulignent que peu d’auteurs ouvrent la boite noire des résistances et des conflits consécutifs à la résistance des acteurs au cours de l’implantation des technologies de l’information et des communications. L’explicitation proposée est réalisée à partir du concept de rapport de phase (G.Simondon, 1989 : 159). Ce concept permet de montrer comment la duplicité des phases conduit à l’émergence de la notion de management des technologies organisationnelles. Le fonctionnement d’une structure ou d’un système bien équilibré est « orthofonctionnel » (ortho = correct). Cette propriété est généralement réunie pour les systèmes dits fermés lorsque leur fonctionnement est bien réglé et que les structures sont en bon état de fonctionnement, pour des conditions d’environnement données. Ce n’est jamais totalement le cas pour les solutions technologiques, et plus généralement pour les systèmes dits ouverts sur leur environnement, car elles ne sont jamais intégralement compatibles avec le fonctionnement des organisations. Elles s’intègrent dans des dispositifs organisationnels dont le fonctionnement n’est jamais bien réglé lui-même d’une part. D’autre part, le fonctionnement de la solution technologique est par essence hétéronome. Son fonctionnement correct est contingent des règles qui le gouvernent. Cette hétéronomie est d’autant plus forte que la solution technologique accomplit des fonctions très intégrées. Les nouvelles conceptualisations, de l’inter-opérationnalité et du worflow par exemple, ont permis de réaliser des progrès importants en termes d’intégration, mais leur mise en œuvre est aussi beaucoup plus complexe à gérer. Cette mise en œuvre se trouve de plus en plus adossée à la réussite des stratégies de changement dont la recherche autant que les résultats concrets au sein des organisations montrent les limites. La conduite du changement ayant pour objet de En direct des laboratoires 269 transformer des interactions requiert des méthodes elles-mêmes transformatives. Enfin, la solution technologique fonctionne dans ses propres les limites fonctionnelles. Les dysfonctionnements ne naissent pas spontanément. Ils sont eux-mêmes la condition de leur propre reproduction, et cette condition leur confère les propriétés de leur propre invariance. En réalité, ils se transforment, mais lorsque cette transformation est une recomposition, elle offre une prise à la perception (J.Gibson, 1977), qui est celle du rapport d’inertie entre le sujet et l’objet observé. Elle établit en fait des rapports analogiques entre différentes situations dans un espace-temps. Nous voyons ce qui ne change pas, mais en fonction de notre connaissance. H.Savall et V.Zardet (1995b : 35) ont ainsi déterminé à partir de leurs observations des dysfonctionnements le principe de la contingence générique qui permet de procéder à leur observation scientifique, afin d’identifier les invariants à l’origine des dysfonctionnements. La question des modalités de l’observation scientifique se pose néanmoins pour la mise en œuvre des solutions technologiques dès lors que celles-ci interviennent dans les processus de pilotage. Dans le cas de la mise en œuvre des technologies organisationnelles, la référence au concept de l’énaction (F.Varela, 1993), qui désigne le couplage structurel entre l’individu et son environnement doit être relativisé. La mobilisation de la notion gibsonienne d’affordance (J.Gibson, 1977), qui désigne la prise que l’environnement offre à la perception en même temps que la capacité que la perception possède d’avoir prise ou d’être en prise avec ses prises (A.Berque, 2000 : 151), permet de réaliser une intégration réciproque des rapports d’inertie entre l’observateur et son environnement, ce qui n’est pas le cas du concept de l’énaction qui exclut le rapport d’invariance de l’environnement. T.Morineau (2001) indique à cet égard que les caractéristiques de l’individu, sa personnalité, ses compétences, son comportement dans l’action, et les propriétés du milieu vont déterminer les sollicitations et leur valeur adaptative immédiate. La boucle perception-action ne fait pas nécessairement intervenir des médiateurs cognitifs. Selon cette approche, T.Morineau a conduit des expérimentations, qui ont contribué à améliorer la définition des systèmes de contrôle du trafic aérien. Ces expérimentations ont permis de modéliser les anticipations des contrôleurs aériens dans le traitement des affordances immédiates. L’auteur indique que cette approche est intéressante pour évaluer des individus en situation instrumentale, où celui-ci agit et perçoit à travers des outils de mise en œuvre en raison de leurs propriétés affordantes. L’observation ne doit donc pas exclure l’existence d’incompatibilités structurelles à un moment donné de l’état des technologies d’une part, 270 Management des Technologies Organisationnelles : Journées d’Etude 2009 consécutives des affordances par exemple, qui ne sont pas visibles à la perception mais le deviennent à l’analyse, ni exclure le couplage structurel du rapport d’invariance (A.Berque, 2000 : 152). Ce couplage structurel n’apparaît pas dans le rapport entre l’environnement interne et l’environnement externe. Il apparaît cependant si l’on raisonne dans la relation au milieu associé (G.Simondon, 2005 : 63). Les individus structurent en effet leur comportement en fonction des propriétés de leur milieu de vie (J.J Gibson, 1979). La seule connaissance analogique ne permet pas seule de traiter les dysfonctionnements. La connaissance seule n’est pas suffisante. Il faut s’intéresser à la connaissance individuée, c’est-à-dire à la connaissance, et plus exactement à l’information qui est traitée et intégrée par les processus de transformations, qui seule fait advenir le changement. Pour G.Simondon (2005 :35), c’est la transformation de l’information qui génère la compatibilité dans un système comportant des potentiels. Le traitement des dysfonctionnements nécessite donc de réaliser un processus de transformations spécifiques, qui n’est pas seulement celui de la forme, mais également celui de la signification. A défaut, la transformation s’opère en régulations de dysfonctionnements, car le fonctionnement dans les infrastructures de l’organisation intègre le processus de régulations d’incompatibilités, dont il convient d’expliquer le mécanisme de fonctionnement, appliqué au sujet de cette communication. Les incompatibilités naissent du dédoublement du processus de transformations entre deux phases, organisationnelle et technologique, qui permet à l’une et à l’autre de réaliser leur processus spécifique de transformations. Ces processus opèrent la spécialisation dichotomique de chaque phase, la recherche technologique d’une part, la recherche organisationnelle d’autre part, par exemple. Chacune a également son propre processus de dédoublement en mode théorique et en mode pratique. La mise en œuvre de la solution technologique nécessite cependant que les phases technologique et organisationnelle d’une part, théorique et pratique d’autre part, se regroupent à un moment donné pour réaliser les fonctions requises. Ce moment est celui de l’implantation, puis de la mise en œuvre de la solution technologique dans l’organisation. Ce moment est concrétisé par le dispositif organisationnel qui réalise la conjonction de la technologie et de l’organisationnel. Le management des technologies organisationnelles apparaît au point neutre isodynamique qui surgit à notre connaissance lorsque les processus sont de nouveaux envisagés dans leur totalité. Mais, cette transformation se réalise dans un rapport dysfonctionnel entre les phases, d’où naît l’incompatibilité contenue dans les processus. Cette incompatibilité sature le déploiement du potentiel d’essence technologique d’une part et d’essence socio-économique d’autre part, contenu dans chacune des phases. Chacune d’elles doit cependant se dédoublait en mode En direct des laboratoires 271 théorique et en mode pratique dans l’entreprise qui implante la solution technologique, pour résoudre l’incompatibilité (G.Simondon, 1989 : 160). Et la formation qui apporte la connaissance analogique n’est pas suffisante à cet égard, comme nous l’avons indiqué précédemment. Le rapport de phase se substitue chez G.Simondon (Ibid., 159) à la notion de schème dialectique auquel nos raisonnements logiques se réfèrent généralement, pour expliquer les tensions, mais également pour montrer que chaque réalité consécutive du dédoublement, en l’espèce les spécialisations, sont le symbole l’une de l’autre. Par conséquent, il faut envisager que le dédoublement donne forme à une unité de pensée du management des technologies organisationnelles, consécutif de la réintégration des modes de pensée technologique et organisationnel dans le dispositif de gestion, qui est elle-même le point d’équilibration des modes théorique et pratique, lorsqu’il s’agit d’implanter les technologies dans le fonctionnement de l’organisation. Le management des technologies organisationnelles doit devenir à ce moment de la transformation un thème de recherche scientifique, tant pour les gestionnaires que pour les ingénieurs, dont le point de fuite est de définir les meilleures conditions et modalités de traitement des incompatibilités immanentes. La technologie doit pour cela se projeter dans l’ontogénèse des structures et des comportements qui régiront le fonctionnement des dispositifs organisationnels, pour réaliser la conjonction de l’essence socio-économique et de la technologie. Même s’il n’est pas explicité, ce processus est à l’œuvre dans les versions béta qui sont expérimentées plusieurs années durant par des utilisateurs, par exemple. PARTIE 2 : LE MANAGEMENT DES TECHNOLOGIES ORGANISATIONNELLES CONTRBUERA A ORGANISER LE DEPLOIEMENT DU POTENTIEL ET DES CAPACITES ORGANISATIONNELLES Nous avons montré dans la première partie que les organisations, et les dispositifs organisationnels qu’elles utilisent, fonctionnent en régulations d’incompatibilités. Nous avons utilisé le concept de rapport de phase pour expliquer cette modalité du fonctionnement. Les régulations, plus ou moins bien maîtrisées, tentent de résoudre les problèmes de l’incompatibilité, sans jamais y parvenir, car elles alimentent elles-mêmes le processus dynamique de l’équilibration des interactions qui s’établit à un niveau quelconque de qualité sur le continuum « dysfonctionnement – orthofonctionnement ». Il s’agit donc d’inscrire la transformation dans son propre processus de résolution de problèmes. Cette inscription est l’essence de la conduite du changement. Il nécessite d’utiliser des méthodes permettant de piloter les processus à leurs plus 272 Management des Technologies Organisationnelles : Journées d’Etude 2009 hauts niveaux d’exigences. Nous allons montré dans cette deuxième partie que cette condition doit être réunie pour réussir le déploiement du potentiel et des capacités organisationnelles. L’essence du management des technologies organisationnelles procède du recouplage de la pensée technologique et de la pensée organisationnelle. La pensée technologique n’a conservé au cours de la spécialisation que les caractères figuraux de l’organisation qu’elle se trouve devoir rapporter dans les nouveaux contextes dans lesquels elle s’incorpore. Par conséquent, elle tire sa signification de sa conjonction à l’organisation. Ces caractères figuraux définissent cependant une structure qui est celle de l’organisation de la solution technologique elle-même, qui se trouve par essence toujours incompatible, y compris mais à un degré moindre lorsque les solutions sont totalement paramétrables. Les caractères figuraux ne conservent en effet que des fragments de l’organisation qu’elle modélise. Et si la pensée technologique s’inscrit toujours dans un processus d’induction dont elle tire sa propre unité (G.Simondon, 1989 : 176), elle se trouve toujours orpheline du contexte organisationnel lui-même. Il n’est pas interdit de penser cependant que la pensée technologique contribuera à proposer des solutions organisationnelles dont l’augure est très probablement la contribution qui s’amplifie désormais aux nouvelles formes d’organisations, lesquelles ouvrent d’immenses possibilités dans le domaine de la stratégie des entreprises. Les organisations de demain seront technologiques. Cette perspective est introduite par exemple avec la gamme des solutions ASP (application service provider), dont certaines se positionnent sur un fragment de l’organisation (solutions fonctionnelles et verticales : Organizer en mode ASP par exemple), et d’autres sur un service plus complet (spectres de services externalisés : PGI en mode ASP par exemple). On peut citer également des solutions horizontales spécialisées sur un service, comme le service électronique de paiement en ligne par exemple. Cette perspective d’analyse montre que les nouvelles technologies de l’information et de la communication permettent de repenser l’organisation autour de deux idées-clés. D’une part, l’organisation n’est plus pensée au travers de sa structure sociale, par exemple la hiérarchie, ou plus généralement de sa fonction d’utilité, mais comme unité de fonctionnement (G.Simondon, 1989 : 253). Il ne s’agit pas cependant de la repenser exclusivement au travers des opérations techniques du fonctionnement, mais bien également des opérations relationnelles d’essence socio-économique. Les travaux de H.Savall et V.Zardet (1995b : 311) ont notamment contribué à réintégrer cette approche dans l’analyse technico-économique des choix d’investissements. D’autre part, cette unité de fonctionnement s’organise autour du noyau relationnel, celui des En direct des laboratoires 273 communications-coordinations-concertations, dont les mêmes travaux ont montré que ces trois catégories d’opérations ne devaient jamais être dissociés. Ainsi, l’organisation peut prendre des formes nouvelles, si les conditions du déploiement de son potentiel de virtualités sont réunies. Les travaux de G.Simondon (1989 : 248) ont montré notamment que la solution technologique conservait en elle le potentiel des relations trans-individuelles. On peut donc concevoir qu’une organisation ne soit définie que par sa structure des interactions et des flux qui la structurent, dans un espace lui-même en constante transformation. Ces nouvelles formes d’organisations permettent de développer la transformation de flux, qui se matérialisent par des produits et services immatériels, voire virtuels, à partir du moment où la conjonction s’établit parfaitement entre la phase technologique et la phase organisationnelle. Les technologies viennent donc transformer les conditions techniques de la réalisation des processus de la transformation, mais cette transformation ne libère le potentiel des virtualités, dont nous venons de souligner qu’elles se transformeront elles-mêmes en potentiel économique pour l’entreprise, que si le processus de la transformation est parfaitement maîtrisé. La conjonction des phases s’établit donc à un point d’équilibration isodynamique plus ou moins parfait, qui caractérise la qualité et l’efficacité du fonctionnement du dispositif organisationnel dans son milieu associé. Les phénomènes que nous observons, et nous nous intéressons plus particulièrement aux dysfonctionnements, ne sont que le symptôme révélateur des incompatibilités dans les infrastructures du dispositif organisationnel, en particulier lorsque des causes purement techniques ne viennent pas expliquer ces dysfonctionnements. Les difficultés rencontrées ne sont pas nouvelles. Progressivement, les intervenants ont essayé de les résoudre en mettant en œuvre des méthodes de la conduite du changement. Il est toujours commode et certes préférable de se satisfaire d’un résultat, mais globalement, il est apparu que les méthodes classiques de la conduite du changement étaient inadéquates, et elles le seront de plus en plus dans un contexte de globalisation des technologies organisationnelles. Ce n’est pas une affaire de spécialiste, mais de nature de méthode. Les problématiques de transformations doivent être traitées avec des méthodes elles-mêmes transformatives. Le management des technologies organisationnelles doit contribuer au dépassement de la pensée spécialisée consécutive du dédoublement des phases technologiques et organisationnelles, pour leur permettre précisément de poursuivre leur propre perfectionnement. Pour G.Simondon (1989 : 196), cette réunion des formes de la pensée différenciée est du registre de la modalité esthétique, auquel il assimile la pensée philosophique (Ibid., : 201), (qui selon nous désigne plutôt le paradigme), car c’est cette modalité qui permet de passer 274 Management des Technologies Organisationnelles : Journées d’Etude 2009 d’un mode de pensée à un autre (Ibid. : 199), qui permet d’en reconstituer l’unité, et de préparer la médiation et la communication entre les différents collectifs de pensée (Ibid., : 197), dont la méthode est par essence inductive. Or, c’est précisément de cette méthode de la pensée inductive que provient l’échec de l’action technique directe (Ibid., : 205) : Elle privilégie le subjectif comme substitut de l’optatif ; « par son échec, la pensée technique découvre que le monde ne se laisse pas tout entier incorporer aux techniques » ; « si le monde n’était fait que de structures figurales, la technique triomphante ne rencontrerait jamais d’obstacles » (Ibid., : 205). Ce n’est plus à ce stade le perfectionnement de l’objet technologique qui est seul en question, mais également celui de son incorporation au fonctionnement de l’organisation. Les pensées théorique et pratique doivent à ce stade réaliser la conjonction de leur contenu théorique et pratique respectif. La réalisation de cette conjonction ne relève pas de l’ordre du subjectif, mais de l’intersubjectif dont émerge la modalité optative. Cette modalité, qui réalise la conjonction, et plus précisément le réglage du fonctionnement, permet la réalisation la plus conforme possible du processus de transformations. Les travaux de H.Savall (1977, 1978), et de H.Savall et V.Zardet (1984, 2004 : 378) ont montré comment il était possible dans ces contextes de conduite du changement, d’activer les processus cognitifs et contradictoires des acteurs. Leurs travaux de recherche concernent le fonctionnement des organisations. Les méthodologies de la recherche-intervention élaborées par ces auteurs et leur équipe de recherche à l’Institut de Socio-Economie des Entreprises et des Organisations (ISEOR), permettent de révéler les structures intersubjectives de l’objet à transformer, pour en réaliser la métamorphose (Ibid., : 386). Le Centre de Gestion Scientifique (CGS) de l’Ecole des Mines de Paris réalise des travaux convergents, mais leurs travaux concernent plus particulièrement les outils de gestion (J.C Moisdon, 1984, 1997). Le Centre de Recherche en Gestion (CRG) de l’Ecole Polytechnique a également largement contribué au développement des méthodes de la recherche-intervention (J.Girin, 1989 ; A.Hatchuel, 1986, 1994 ; A.David & ali., 2000). Ces méthodes permettent d’intervenir au sein des organisations avec une volonté délibérée de transformer l’objet observé pour mieux le connaître : la recherche-intervention est définie comme une méthode interactive à visée transformative (H.Savall, 1977, 1979 ; H.Savall et V.Zardet, 1984). Si nous insistons plus particulièrement sur la méthodologie de rechercheintervention de l’ISEOR, c’est parce que cette méthodologie permet d’installer des méthodes de conduite du changement à visée transformative, dans le fonctionnement courant de l’organisation. Elles permettent de piloter un processus permanent d’activation des opérations transformatives. En direct des laboratoires 275 PARTIE 3 : LIGNES DIRECTRICES FONDAMENTALES D’UNE POLITIQUE DE MANAGEMENT DES TECHNOLOGIES ORGANISATIONNELLES Nous avons montré dans la seconde partie que le management des technologies organisationnelles devait être adossé à la mise en œuvre de méthodes de conduite du changement réalisant une approche transformative du fonctionnement de l’organisation. Nous avons privilégié la présentation des méthodes de la recherche-intervention. Une revue de littérature plus importante nous aurait conduit à explorer les méthodes s’inscrivant plus particulièrement dans le courant de la « capacité à se transformer » (C.Demers, 1999 ; Rondeau & ali., 2002), ou dans des courants plus anciens, notamment les courants systémique et socio-technique qui ont inspiré les principales méthodologies de la conduite du changement. Nous ne l’avons pas fait, car ces courants définissent la transformation comme une forme particulière du changement. Pour notre part, nous soutenons qu’il ne faut plus saisir la transformation à partir de la notion de changement, mais qu’il faut au contraire saisir le changement à partir de la notion de transformation. Nous définissons le changement comme une prise de forme qui surgit à notre conscience, tandis que la transformation est le processus qui le fait advenir. Compte tenu de cette approche, nous allons montré ce que doivent être les lignes directrices d’une politique de management des technologies organisationnelles. Le traitement des incompatibilités nécessite que le changement s’inscrive dans un processus de transformations projectives (W.R Bion, 1982 : 35), encore appelées « transformations kleiniennes », c’est-à-dire un processus de transformations qui fait advenir les conceptualisations. S.Freud, pour sa part, avait plutôt étudié les processus de transformations rigides (phénomènes du transfert notamment). Pour analyser un processus de transformations, il faut évidemment comprendre ce qui dans le cours de ce processus reste inaltéré, c’est-à-dire se recompose, en observant plus particulièrement les dysfonctionnements (symptômes), mais le projet est de traiter les incompatibilités, et de ne pas de se satisfaire que l’organisation vive le mieux possible avec ses pathologies dysfonctionnelles. Dans ces conditions, on ne ferait pas mieux que le management classique. C’est une option méthodologique (H.Savall et V.Zardet, 1995a : 183). La tâche de l’intervenant-chercheur est de remonter les transformations pour en saisir les invariants, en pilotant un processus d’interactivité cognitive et d’intersubjectivité contradictoire, que vous avons présenté en partie 2, ce que H.Savall et V.Zardet appellent la recherche des causes profondes. Celui-ci travaille à partir de l’énoncé inductif, mais ce n’est pas ce matériau qui l’intéresse. Il s’agit, en mettant en œuvre les méthodes de la recherche-intervention, de faire bouger les invariants identifiés se rapportant à l’objet de recherche, afin d’observer les transformations. Evidemment, dans le 276 Management des Technologies Organisationnelles : Journées d’Etude 2009 protocole scientifique de l’ISEOR, qui s’inscrit dans le cadre du constructivisme générique, ce sont l’ensemble des transformations qui sont observées, y compris celles qui ne se rapportent pas directement à l’objet de recherche, mais l’impactent. Dans le management d’une organisation, lorsque l’objectif est d’améliorer la qualité et l’efficacité du fonctionnement et de son management, on ne saurait en effet concevoir l’isolement d’un processus qui est toujours interdépendant et hétéronome. Il s’agit d’agir prioritairement sur les causes profondes expliquant la recomposition de l’invariant dysfonctionnel. C’est à partir de cette observation que les acteurs construisent leurs projets de transformations. Bien que les protocoles scientifiques du CGS et du CRG s’inscrivent dans le cadre de l’opportunisme méthodologique (J.Girin, 1989), on observe généralement des résultats de recherche convergents. Les transformations projectives, à la différence des transformations rigides, chargées l’une comme l’autre de l’expérience émotive, transmettent des significations contenant les représentations du futur. La mise en œuvre des technologies organisationnelles se situe dans cet espace-temps. La solution technologique représente ici l’objet extérieur vers lequel la projection va s’opérer, et qui va acquérir les éléments caractéristiques projetés de Soi, qui impactent la perception au travers du mécanisme des affordances (partie 1). M.Klein a montré que ce phénomène de projection fonctionnait pour toutes les personnes, y compris les personnes « normales ». Ce qu’il faut observer de manière subséquente, c’est que la mise en œuvre d’une nouvelle solution technologique, avec des méthodes inadéquates de conduite du changement, peut contribuer à créer des conditions de changements catastrophiques, au sens défini par W.R Bion, c’est-à-dire des conditions remettant en cause une stabilité structurale, auxquelles les acteurs vont réagir (crise, résistance au changement …). Les travaux de W.R Bion ont montré notamment comment les mécanismes primitifs à l’œuvre dans les dynamiques de groupes contribuaient à générer un climat d’hostilité au changement. Ce phénomène général a été analysé également par K.Lewin (phase de déstabilisation). Le changement ne peut toutefois s’opérer que si l’intégration de la solution dans l’organisation fonctionne harmonieusement, ce qui n’est quand même pas très souvent le cas. Or, les méthodes classiques de la conduite du changement s’inscrivent généralement dans le postulat que leur mise en œuvre permettra de conduire harmonieusement le changement, ce qui n’est jamais le cas non plus. Nous l’avons montré dans les parties 1 et 2 en analysant les processus avec le concept de rapport de phase. Toutes les méthodes qui indiquent intervenir dans le domaine de la transformation des structures mentales de l’organisation, ne sont pas judicieuses si le contexte ne s’y prête pas. Ce n’est pas la valeur de la méthode qui pose problème. Ce qui est En direct des laboratoires 277 fondamental, c’est que le processus transductif de la méthode doit être incorporé dans le fonctionnement de l’organisation pour que le changement réussisse, ce qui est rarement le cas, et ne peut pas l’être lorsque l’organisation aborde le traitement du changement à partir de la formation comme cela est souvent le cas. L’organisation doit acquérir une compétence dans le domaine de la gestion des politiques et des stratégies de transformations. Cette expérience ne peut être acquise qu’en adossant le management courant de l’organisation à des méthodes de conduite du changement réalisant une approche transformative dans son fonctionnement courant. Cette perspective est celle du management socio-économique. Dans cette perspective, le processus de la transformation est engagé dès le démarrage de l’intervention, au cours du processus même du diagnostic, ce qui permet de l’implanter dans le fonctionnement courant, en amont de la définition et de la mise en œuvre des projets. Pour être durablement efficace cependant, l’organisation doit réaliser le perfectionnement permanent de ce processus. Il ne s’agit pas de faire du management de la conduite du changement un but de mission, un objectif en soi, mais, de développer les compétences permettant de résoudre les problèmes. Nous observons une convergence de pensée entre H.Savall & V.Zardet, et W.R Bion, sur le point précis que la méthode de conduite du changement permet d’observer simultanément et en conjonction constante, les deux phases de ce qui n’évolue pas et de ce qui évolue. C’est dans cette observation que se campe le processus du pilotage de la transformation. Il est aussi le processus de l’innovation managériale. Car, c’est notre thèse, le management intégré des technologies organisationnelles doit s’inscrire dans un processus de management innovant. Il n’y a pas d’intérêt à promouvoir cette notion en laissant à penser que les méthodes classiques du management sont adaptées. La réflexion est d’actualité, puisque dans « La fin du management : Inventer les règles de demain » (G.Hamel et ali., 2008), les auteurs invitent à identifier et contester de l’intérieur même les pratiques du management classique pour trouver au cas par cas les bonnes réponses. La ligne directrice fondamentale d’un management innovant est précisément celle qui prend le contre-pied des pratiques actuelles, qui l’inscrit dans un processus de découverte et d’invention. Là encore, la globalisation des technologies organisationnelles doit être analysée dans son rapport de phase, l’une construisant la standardisation des méthodes du management, une sorte d’organisation scientifique des activités de services par exemple qui nous rappelle une autre époque, l’autre la différenciation. Le concept de rapport de phase permet de montrer que la réponse n’est pas de choisir une option de standardisation ou de différenciation, ce que les stratégies de management 278 Management des Technologies Organisationnelles : Journées d’Etude 2009 classique continuent de perpétuer. Le choix devient dans ce cas un invariant dysfonctionnel. W.R Bion (1982 : 81) a écrit que les éléments d’une relation sont constamment conjoints, et que c’est cette conjonction, qu’il dénomme conjonction constante, qu’il enregistre et lie dans ses observations au moyen du terme de transformation. Dans la théorie de la complexité (E.Morin, 1977, 1980, 1986), le concept équivalent serait celui de l’unidualité. L’émergence de la notion de management des technologies organisationnelles exige donc une transformation des mécanismes de la pensée et des idées. La conjonction constante n’est jamais celle des phénomènes, dont il est possible de démontrer par ailleurs la synchronicité, mais celle des invariants identifiés lorsque deux phases dans un processus de transformations sont envisagées à nouveau dans leur totalité. CONCLUSION : LE MANAGEMENT DES TECHNOLOGIES ORGANISATIONNELLES COMME VECTEUR DE L’INNOVATION MANAGERIALE ET ORGANISATIONNELLE [1] Cette communication aura montré incidemment que l’innovation managériale et organisationnelle ne viendra pas des structures et des comportements anciens. Nous avons montré en partie 3 que l’innovation suppose d’intégrer le pilotage des processus de la transformation dans le fonctionnement courant des organisations. Le management des technologies organisationnelles impose d’entreprendre ce préalable, car l’innovation ne peut émerger que du déploiement du potentiel contenu dans les structures et des capacités organisationnelles. L’enjeu du management des technologies organisationnelles est par conséquent double : Il est d’abord l’amélioration de la qualité et de l’efficacité du fonctionnement des dispositifs techno-organisationnels. Il est aussi celui du développement de la capacité à innover. Cette communication pose une question plus large, qui est de savoir selon quelles essences les choses sont connues. Les problèmes de résistances et de conflits ne peuvent être traités sur la base de la seule observation des phénomènes. Cette communication fait converger deux essences, technologique et socio-économique, proposant une perspective d’intégration de la technologie et de l’organisation. L’unité de ces deux essences fait émerger le concept du management des technologies organisationnelles. C’est en effet la condensation des fonctions proposées par la solution technologique qui détermine la compatibilité caractérisée par le degré et la qualité de son intégration dans le fonctionnement d’une organisation, et non pas la seule diversité des fonctions qui peut fonctionner selon un ordre linéaire des processus. La spécialisation des processus s’efface donc lorsque la technologie réalise leur condensation. Cette En direct des laboratoires 279 condensation des processus contribue à réaliser la comptabilité de la technologie et de l’organisation. NOTE [1] Nous apportons préalablement quelques précisions d’ordre méthodologique. A la manière de W.R Bion (1982 : 197), notre démarche de recherche se focalise tout à la fois sur l’objet observé et sur les acteurs observants, dans les différentes perspectives que cet auteur a appelé déplacement de foyer ou encore vertex. Le terme de vertex, qui est la traduction anglaise de nœud, est utilisé en géométrie projective pour désigner le point dans un espace en constante transformation duquel s’accomplit la transformation. C’est une notion qui est en principe connue des informaticiens. Les techniques d’observation développées par cet auteur ont cet intérêt qu’elles permettent d’observer tout à la fois l’avers et le revers des situations analysées, qui consiste à déplacer l’observation dans les différentes perspectives. Nous appliquons cette technique d’observation en utilisant le concept de rapport de phase. Il s’agit dans le même temps d’analyser sa position d’observateur et les résultats de l’observation. En pratique, il consiste à multiplier les postes d’observations, ce qui explique le choix que nous faisons des méthodes de la recherche-intervention, car elles permettent, dans le domaine des Sciences de Gestion, d’observer l’objet in vivo (H.Savall et V.Zardet, 2004 : 76). Il faut comprendre que la transformation d’une structure mentale s’opère lorsque les acteurs parviennent à interroger leur point de vue sur une situation, et que cette interrogation va entrainer un déplacement des coordonnées mentales de l’observation permettant d’intégrer d’autres points de vue. L’intervenant-chercheur suit ce processus au cours de l’intervention en notant scrupuleusement les énoncés caractérisant ce changement de point de vue. On peut considérer que la transformation s’est opérée, bien qu’elle contienne toujours les germes de sa propre réversion, quand les énoncés sont orthofonctionnels. On voit que la notion de vertex évite de considérer la subjectivité du point de vue, puisque la recherche porte sur les invariants en analysant la modalité optative. Tant que les énoncés ne sont pas convergents, cela signifie que le rapport à la solution technologique fonctionne en régulations d’incompatibilités, et que l’analyse des dysfonctionnements doit être approfondie, ou que la modalité optative retenue n’est pas parfaitement positionnée dans le registre de l’intersubjectivité, ce que l’on peut immédiatement vérifier en réactivant les processus cognitifs et contradictoires des acteurs. REFERENCES BIBLIOGRAPHIQUES BERQUE A. (2000), Ecoumène : Introduction à l’étude des milieux humains, Médaille d’argent du CNRS 2001, 271 p. BELBALY N., MEISSONNIER R., HOUZE E., (2007), Résistance aux projets d’implantation de technologies de l’information : Le cas d’une PME du secteur des hautes technologies, Revue Gestion (Gestion Internationale), Vol.32, n°1, pp. 20-26. BION W.R., (1982), Transformations : Passage de l’apprentissage à la croissance, PUF, 207 p. – Traduction par F.Robert ; Bion W.R., Transformations : Change from Learning to Growth Londres, Heinemann. DAVID A., HATCHUEl A., LAUFER R., (2000), Les nouvelles fondations en Sciences de Gestion, Vuibert-FNEGE, 215 p., pp. 193-212. 280 Management des Technologies Organisationnelles : Journées d’Etude 2009 DEMERS C. (1999), « De la gestion du changement à la capacité de changer : L’évolution de la recherche sur le changement organisationnel de 1945 à aujourd’hui », Gestion – Revue Internationale de Gestion, Vol.24, n° 3, pp.131-139. GIBSON J.J., (1977), The Theory of Affordances : Acting and Knowledge: Toward an Ecological Psychology, in Robert Shaw and John Bradsford (Ed.), Perceiving, acting and Knowing, Hillsdale, N.J.: Lawrence Erlbaum Associates, pp. 67-82. GIBSON, J. J. (1979), The ecological approach to visual perception. Boston : Houghton Mifflin, 339p. GIRIN J., (1989), L’opportunisme méthodologique, http://crg.polytechnique.fr/incunables/Opportunisme.html HAMEL G, BREEN B., Y F., PAVILLET M.F., (2008), La fin du management : Inventer les règles de demain, Editions Vuibert, 249 p. KAHN J.F (1994), Tout change parce que rien ne change : Introduction à une théorie de l’évolution sociale, Fayard, 767 p. MOISDON J.C (1997), Du mode d’existence des outils de gestion, Editions Séli-Arsan, 288 p. MORIN E., (1977), La méthode : 1.La nature de la nature, Editions du Seuil, 410 p. MORIN E., (1980), La méthode : 2. La vie de la vie,, Editions du Seuil, 482 p. MORIN E., (1986), La méthode : 3. La connaissance de la connaissance, Ed. du Seuil, 249 p. MORINEAU T., (2001), « Eléments pour une modélisation du concept d’affordance », Actes du Colloque EPIQUE, Nantes, pp. 83-95. PIAGET J., (2004) Le structuralisme, PUF, Collection Que-Sais-Je ?, 12° édition, 128 p. RONDEAU A. (2002), « Transformer l’organisation : Vers un modèle de mise en œuvre », In R.JACOB, A.RONDEAU, D.LUC, « Transformer l’organisation : La gestion stratégique du changement », Gestion-Revue Internationale de Gestion, Collection Racines du savoir, 435 p., pp.91-112. SAVALL H., (1978), « Compatibilité de l’efficience économique et du développement du potentiel humain », VII° Colloque International au Collège de France, organisé par François Perroux et Jean Piaget, 1977, Revue d’Economie Appliquée, Archives de l’ISMEA, Tome XXXI°, n° 3-4, « Equilibre et Régulation, Droz, Genève, pp.561-593. SAVALL H., (1989), Enrichir le Travail Humain : L’évaluation économique, Préface de J.Delors et du Pr.A.Bienaymé, Economica, 3° édition, 275 p. SAVALL H. et ZARDET V., (1995a), Maîtriser les Coûts et les Performances Cachés : Le Contrat d’Activité Périodiquement Négociable, Prix de Management Stratégique HarvardL’Expansion, Préface de M.A Lanselle, Avant-Propos de J.M Doublet, 3° édition, Economica, 405 p. SAVALL H. et ZARDET V., (1995b), Ingénierie Stratégique du Roseau, Préface de Serge Pasquier, Economica, 517 pages. SAVALL H. et ZARDET V. (1995c), « La dimension cognitive de la recherche-intervention : La production de connaissances par interactivité cognitive », Revue Internationale de Systémique, Vol.10, n°1-2, pp. 157-189. SAVALL H. et ZARDET V. (2003), « Socio-Economic Approach to Management », Journal of Organizational Change Management, Guest Editor : H.Savall, Vol.16, N°1, 128 p. SAVALL H. et ZARDET V. (2004), Recherche en Sciences de Gestion : Approche Qualimétrique, Observer l’objet complexe, Préface du Pr. David Boje, Economica, 432 p. SAVALL H. et ZARDET V. (2005), Tétranormalisation : défis et dynamiques, Economica, 195 p. En direct des laboratoires 281 SAVALL H. et ZARDET V. (2008), Mastering Hiden Costs and Socio-Economic Performance, Editions IAP, Research in Management Consulting, Series Editor : A.F Buono, 346 p. SIMONDON G. (2005), L’individuation à la lumière des notions de forme et d’information, Editions Million, 571 p. SIMONDON G. (1989), Du mode d’existence des objets techniques, Editions Aubier, 337 p. VARELA F., FRANCISCO J., THOMSON E., ROSCH E., (1993), L'inscription corporelle de l'esprit, Paris, Editions du Seuil, 377 p. 282 Management des Technologies Organisationnelles : Journées d’Etude 2009 En direct des laboratoires 283 Transformation des compétences et création de potentiel humain pour le management des technologies organisationnelles Daniel BONNET Chercheur-associé à l’ISEOR [1] Université Jean-Moulin / Lyon RESUME Cette communication explore la relation entre les deux items de la transformation des compétences et la création de potentiel humain. La compétence est ce qui transforme la politique, la stratégie et le fonctionnement des organisations. Dans un contexte de globalisation des technologies organisationnelles, la compétence doit intégrer celle de la technologie dans les processus mêmes du fonctionnement de l’organisation, tout comme elle fut antérieurement intégrée dans les processus de la production. Cette communication montre qu’il est important de considérer l’essence socio-économique de la compétence. Elle montre également que le développement de stratégies d’innovations managériales requiert un changement de paradigme. L’organisation doit développer sa capacité à se transformer, et ses compétences dans ce domaine. INTRODUCTION La globalisation des technologies organisationnelles modifie le contexte d’acquisition des compétences au cours de l’action. Elle entraine notamment le développement des processus réflexifs (D.Schön, 1994, 1996) dans l’acquisition des compétences. 284 Management des Technologies Organisationnelles : Journées d’Etude 2009 La transformation des modalités d’acquisition de la compétence relance le débat entre une conception internaliste de la connaissance, et une conception externaliste. G.Simondon (1989 : 234) avait son idée sur la question : « la connaissance n’est ni formée ni construite par le sujet ; il n’y a pas de genèse de la connaissance, mais seulement découverte du réel par l’esprit ». Sa recherche à cet égard posait le problème du statut de l’objet technique (et de son essence) dans le processus réflexif. Elle interrogeait en particulier le statut de la connaissance opératoire (Ibid., 1989 : 234), et les modes d’acquisition. Le dictionnaire Le Robert fournit la définition de la notion de découverte : Action de révéler un objet, un phénomène caché ou ignoré, ou encore action de trouver, de découvrir ce qui était inconnu, ignoré ou caché. G.Simondon n’a pas expressément réfuté les conceptions positivistes et constructivistes de la connaissance. Il en a cependant révélé l’ontologie génétique (J.H Barthélémy, 2006), souligné l’importance du désir (B.Stiegler, 2006 : 327), et introduit la notion de potentiel pour penser le changement (J.Jenny, 1997 : 38). La connaissance est conçue dans l’unidualité de l’acte cognitif et de l’objet d’une part, dans la relation au milieu associé d’autre part. Cette communication explore la relation entre les deux items de la transformation des compétences et la création de potentiel humain. La relation problématique entre ces deux items est notre question de recherche. Concernant plus particulièrement le rapport aux technologies organisationnelles, l’unidualité de l’acte cognitif et de l’objet interroge l’hypothèse que les systèmes d’informations dans un contexte de globalisation des technologies organisationnelles ne traitent pas seulement de l’information. La technologie devient une composante intégrale des processus de transformations. En conclusion, nous établirons le rapport entre l’innovation managériale et la création de potentiel humain. Nous annexerons un modèle de grille d’évaluation de la compétence réalisée au sein d’une coopérative viti-vinicole, illustrant un cas d’hypertélie, en l’espèce un déséquilibre profond entre le développement des compétences nécessaires à la gestion des activités courantes et la création de potentiel humain. LA TRANSFORMATION DES COMPETENCES Pour G.Simondon (Ibid., 1989 : 235), l’élaboration des concepts relève de la connaissance opératoire. Cette élaboration est indissociable des opérations techniques. Ces opérations sont réalisées par la pensée inductive, mais elles sont généralement tenues en échec, par delà les possibilités et les limites de l’objet technique, car le monde ne se laisse pas incorporer aux techniques (Ibid., 205). En direct des laboratoires 285 Le fonctionnement de l’objet technique doit être rendu compatible dans le fonctionnement des organisations. Or, la conception de l’objet technique émerge toujours d’un processus de transformations, que nous définissons comme un rapport de phase, comprenant un perfectionnement technologique de nature générique d’une part, et un perfectionnement des systèmes d’organisations et de leur fonctionnement d’autre part. Ce rapport de phase est par nature dysfonctionnelle. L’objet technique peut exister en soi. Il ne se concrétise cependant que dans l’intégration au fonctionnement de l’organisation, qui n’est jamais lui-même bien réglé. Par conséquent, le déplacement de la recherche au point focal de la conjonction du rapport de phase devient un enjeu scientifique dans un contexte de globalisation technologique. C’est à cette conjonction que se révèle le potentiel humain incorporé respectivement dans l’objet technique et dans l’objet organisationnel. L’étude des dysfonctionnements à ce point de conjonction révèle ou souligne les freins au déploiement de la compétence. La maîtrise de la technologie organisationnelle joue comme un facteur clé de succès, qui ne concerne plus seulement la production, mais l’organisation dans son ensemble. Elle est une compétence qui doit se déployer à tous les niveaux de l’organisation, selon deux perspectives, individuelles et collectives. La notion de compétences s’est imposée dans l’économie de l’entreprise. La conceptualisation de cette notion trouve son origine dans les travaux de P.Zarifian (1999). Traditionnellement, sa définition, concernant les personnes, intègre différents éléments se rapportant au savoir, au savoir être et au savoir faire. Concernant l’entreprise, la notion de compétences renvoie à différents concepts selon le cadre théorique mobilisé, comme celui du métier en stratégie par exemple. Pour être performante et compétitive, l’entreprise doit transformer des compétences individuelles en compétences collectives. La capacité de l’entreprise à transformer ces compétences est elle-même une compétence. Cette double perspective souligne l’essence socio-économique de cette notion, et le cadre théorique de cette communication. Mais, elle souligne également la modalité holonomique (E.Morin, 1986 : 104) de la compétence, et son ontologie génétique (J.Piaget, 1968/2004 ; G.Simondon, 1989). De ce point de vue, les compétences technologiques et organisationnelles sont indissociables. Leur transformation s’opère en effet dans l’interaction des structures et des comportements (H.Savall et V.Zardet, 1995a : 180). Ces auteurs caractérisent l’organisation en distinguant des composantes stables, les structures, et des composantes conjoncturelles, les comportements. Concernant les structures, nous retenons la définition proposée par J.Piaget (Ibid., 1968 : 6), à savoir que la structure est un système de transformations, ce qui permet de généraliser à 286 Management des Technologies Organisationnelles : Journées d’Etude 2009 tous les contextes organisationnels, y compris virtuels. Les comportements euxmêmes sont donc régis par des structures. H.Saval et V.Zardet (1995a : 180) classent la partie stable des comportements humains dans les structures. On peut distinguer dans les savoirs eux-mêmes une partie stable et une partie conjoncturelle, les savoirs étant définis comme des connaissances organisées. Cette approche permet d’intégrer la dimension cognitive des systèmes de transformations, pour faire émerger la notion de « création de potentiel humain ». La recherche est réalisée dans le cadre épistémologique du constructivisme générique (H.Savall et V.Zardet, 1995b : 324) En pratique pour les entreprises, l’exploration de cette relation permet de mieux comprendre ce qui distingue les entreprises les unes des autres. Le développement des technologies organisationnelles, plus encore leur globalisation, introduisent des changements majeurs dans le fonctionnement et dans la stratégie des entreprises. Cette exploration montre que le management des compétences doit être repensé à partir de la notion de capacité à se transformer. Il est une composante du management de la conduite du changement, mais il doit être repensé en mettant en œuvre des méthodes transformatives, car la compatibilité de la solution technologique et du fonctionnement de l’organisation suppose de concevoir la transformation de l’un dans l’autre. Cet examen nous conduit à souligner l’importance du choix d’un référentiel théorique, méthodologique et opératoire adapté. La transformation est une notion récente en Sciences de Gestion qui consiste à considérer que le fonctionnement d’une organisation trouve sa source dans les processus qui le génère. Ces processus sont des processus de transformations. Ce que l’on perçoit est un état de ces processus. Par conséquent, il ne faut plus saisir la transformation à partir de la notion de changement, mais au contraire saisir le changement à partir de la notion de transformation, lorsqu’il s’agit d’expliquer la performance et la compétitivité par les compétences. La transformation des compétences est toujours celle d’une combinaison de compétences et de comportements. Les savoirs, les savoirs faires et les savoirs êtres ne sont pas des compétences in extenso, mais des composantes de la compétence. Les notions de savoir, de savoir faire et de savoir être renvoient successivement à celles de connaissance, d’habileté et d’adaptabilité. La compétence est une notion générique qui se définit dans le rapport de phase entre les différentes composantes. Ces composantes peuvent être définies par nature (compétences techniques, méthodologiques …), ou par essence (compétences individuelles, collectives …). La compétence et les compétences sont indissociables de l’action, et c’est leur actualisation dans l’action qui leur confère le statut de compétence(s). De En direct des laboratoires 287 même, les différentes natures de compétences et les différentes essences ne déterminent pas la compétence. C’est le couplage intégré des différentes composantes et de leur essence dans l’action et dans un contexte donné qui détermine la compétence. Celle-ci n’existe que par son usage, et cet usage qui la fait advenir confère de l’expérience. Le développement des compétences est un véritable enjeu pour les entreprises. Ce développement s’inscrit néanmoins dans un processus discontinu de perfectionnements, dont il faut distinguer les perfectionnements mineurs et les perfectionnements majeurs. L’amélioration d’une connaissance, d’une habileté ou d’une adaptabilité, ne constituent que des perfectionnements mineurs. Cette prémisse définit un mode de transformation, et ne signifie pas qu’ils sont moins importants. Le perfectionnement continu du mode mineur de développement des compétences, et leur synchronisation dans le fonctionnement et le management courants de l’organisation, sont le socle de la performance et de la compétitivité courantes. Ils permettant également de mieux intégrer les perfectionnements majeurs. La compréhension de la notion de perfectionnement majeur nécessite de considérer un autre ordre de réalité. Les compétences ne sont pas seulement un donné, c’est-à-dire un état de connaissances, d’habiletés et d’adaptabilités que l’on perfectionne, mais elles existent également à l’état de potentiel qu’il faut découvrir et extraire dans les infrastructures du fonctionnement et du management d’une organisation. Les compétences existent préalablement à l’état virtuel c’est-à-dire à l’état de possibilité, de capacité ou de disposition, qu’il faut enrichir, puis dévoiler dans l’action. Le perfectionnement majeur trouve son origine dans le développement du processus de création de potentiel humain. La mise en œuvre de ce mode de perfectionnement suppose que l’entreprise développe une stratégie d’évaluation de la capacité à se transformer, ce qui est assez peu courant encore. H.Savall et V.Zardet (1995b : 496) définissent la création de potentiel de la manière suivante : « concerne toutes les actions qui auront des effets positifs différés sur les résultats immédiats. Elle se compose d’investissements matériels et d’investissements immatériels ». Une entreprise doit donc apprendre à gérer deux modes de perfectionnement des compétences pour développer sa capacité à se transformer. Le développement du perfectionnement en mode majeur est la source de l’innovation, y compris de l’innovation managériale. Les auteurs (Ibid., 1995b : 56) insistent d’ailleurs sur l’investissement conjoint immatériel, incorporel et intellectuel. 288 Management des Technologies Organisationnelles : Journées d’Etude 2009 Or, on observe généralement une hypertélie du développement des compétences dans certains domaines, le plus souvent technique, technologique, commercial, financier, etc., tandis que l’innovation dans les domaines du fonctionnement et du management de l’organisation restent des parents pauvres (Cf. Annexe 01). Un déficit d’innovations managériales ne signifient pas que le fonctionnement de l’organisation n’en recèle pas. Mais, les travaux de recherche dans ce domaine (A.David, 1996 : 12) ont montré qu’un déficit d’innovation managériale était un frein à l’intégration de toutes les formes d’innovations. Ce déficit peut d’ailleurs être recherché en analysant le niveau d’investissement de toutes les entreprises dans un secteur d’activité donné, ce que A.David appelle « le degré de contextualisation externe ». La transformation de ce déficit pourra être envisagée en introduisant un nouveau mode de management socioéconomique de la conduite du changement au sein de l’organisation. LA CREATION DE POTENTIEL HUMAIN Une entreprise performante est une entreprise qui met en œuvre une stratégie de développement de ses potentiels internes et externes, couplée à une très bonne gestion. Cette mise en œuvre est du ressort de la direction générale. Deux problématiques sont à traiter sur ce plan : L’une est l’inscription de cette politique dans un référentiel opératoire adapté ; l’autre est celle de l’évaluation du bénéfice économique pour l’entreprise. Il faut également gérer en conjonction constante les processus de la transformation afférant au fonctionnement courant et les processus afférant à la création de potentiel humain. Le développement du potentiel humain pose un problème rarement étudié, qui est celui de la méta-compétence de l’organisation. Nous l’avons abordé précédemment en définissant la capacité de l’entreprise à transformer ses compétences comme une compétence à part entière. C’est ici l’étymologie grecque qui nous intéresse, celle qui renvoie aux notions de changement et de métamorphose, puisque nous concevons la transformation dans la relation au milieu associé. Il n’est pas indifférent pour une entreprise d’analyser sa relation au milieu associé à cet égard. Dans un pôle de compétences par exemple, les conditions de développement du potentiel humain seront plus favorables. Il est donc important de considérer cette notion dans l’échelle des structures. En milieu fermé, l’involution des compétences conduit à des situations d’impasse stratégique ou concurrentielle (Annexe 01 [2]). Il ne suffit pas d’élaborer une vision ou même un projet d’entreprises, ni même de se satisfaire, dans le domaine de la gestion stratégique des ressources humaines, de mettre en œuvre la gestion prévisionnelle des emplois et des compétences (GPEC). Les entreprises ont souvent recours à cette méthode En direct des laboratoires 289 lorsqu’elle envisage une restructuration. Si la GPEC est une condition de base qui va permettre d’établir un diagnostic et de définir une politique cohérente avec la stratégie future, elle n’est aussi qu’une technique. Mais, cette technique va contribuer à la transformation des parties stables de l’organisation. C’est donc en tant que cette technique contribue à la transformation des régularités du fonctionnement et des invariants que nous observons son impact. De quel point de vue cependant ? La GPEC doit s’intégrer dans une politique générale de création de valeur ajoutée par le développement des compétences. Cela ne signifie pas évidemment que la direction générale considérera exclusivement cet axe. Mais, à ce titre, elle intègre l’investissement en technologies organisationnelles. C’est dans le cadre de cette politique générale que l’entreprise va envisager l’élaboration de sa stratégie de perfectionnements, synchronisant les deux modes mineur et majeur sur un moyen terme au moins. Cette politique renvoie à des concepts connus, comme par exemple le core competency [3] (G.Hamel et C.K Prahalad, 1990) qui désigne la capacité d’une entreprise à assembler les compétences dans un ensemble cohérent. Cet assemblage se situe dans le contexte phénoménologique de l’organisation, mais il impacte la transformation dans les infrastructures du fonctionnement de l’organisation, lesquelles recèlent l’essence des phénomènes précisément. La transformation est donc bien un processus endogène, hétéronome des choix de la politique générale. Nous observons que dans la généralité des cas, la technique ou la technologie, par delà les espoirs qu’elles fondent, ne peut pas contribuer à la formation de la valeur ajoutée en dehors de son objet. La GPEC a par ailleurs ses propres limites car elle ne s’inscrit que dans une théorie de la forme. Nombreuses sont les entreprises qui ne font que du raccommodage stratégique. Dans le cas de l’annexe 01, la coopérative produisait des vins régulièrement distingués par des médailles d’or et d’argent dans les grands salons, ce qui laissait à penser que la stratégie était bonne, mais ne réalisait pas de résultats économiques meilleurs que ses consœurs au sein de l’union des coopératives. L’approche socio-économique montre donc que le développement des compétences, et plus particulièrement la création de potentiel humain est inconcevable à partir d’approches technicistes ou économistes. Les techniques et les concepts ne font pas la stratégie de l’entreprise, mais le couplage de la pratique à un référentiel théorique facilite l’élaboration de la politique et de la stratégie. Selon un changement de paradigme cependant. Dans une société marchande, on perd trop souvent de vue que les fonds de commerce normalisent les choix de la politique et de la stratégie, sans se poser plus de questions. Or, les travaux de l’ISEOR, ont montré que l’intégration d’un ensemble normatif est source de performances cachées (H.Savall et V.Zardet, 290 Management des Technologies Organisationnelles : Journées d’Etude 2009 2005 : 25), qui peuvent être transformées en valeur ajoutée si pour le moins elles sont analysées et intégrées dans les projets de conduite du changement. Les méthodes du management de la qualité totale n’intègrent pas cette perspective. Ce qui est vendu aux entreprises consiste pour l’essentiel en de la technique. Dans le cas annexe 01, les collaborateurs étaient très professionnels. Eux-mêmes et la direction nourrissaient de gros espoirs dans la mise en œuvre de la traçabilité et d’une normalisation de la politique de qualité. Cette mise en œuvre révélait les problèmes qui n’avaient pas été observés jusque-là. Les coûtsperformances cachés ont été évalués à 32 K€ par personne et par an dans cette coopérative. Le même scénario s’était produit quelques années auparavant avec la mise en place d’une informatique de deuxième génération. Les coûtsperformances cachés imputables aux dysfonctionnements dans le traitement informatisés des données représentaient à eux seuls 155 K€, soit 11 K€ par personne et par an. La référence à la technique et aux concepts n’est pas suffisante, ni même la référence à des cadres théoriques essentiellement analytiques. La conception et la mise en œuvre d’une stratégie de création de potentiel nécessite d’inscrire la politique et la stratégie dans un référentiel théorique et méthodologique opératoire. L’importance de la médiation technique a contribué à l’émergence du courant socio-technique dans les années cinquante. Les travaux de H.Savall et V.Zardet ont ouvert le courant de l’innovation managériale dans les années soixante dix. Les méthodes d’intervention et de management proposées par ce courant plus particulièrement permettent d’installer le management global, tout à la fois sur le plan stratégique et opératoire, dans le fonctionnement courant de l’organisation, et à tous les niveaux de la hiérarchie, incluant le management des compétences. La seconde problématique est celle de l’évaluation du bénéfice pour l’entreprise d’un investissement immatériel. Dès 1975, H.Savall (1989) avait souligné la nécessité de rénover les méthodes de calcul économique à cet égard. Ce travail de recherche, plus largement connu sous l’appellation de théorie des coûts-performances cachés, est à l’origine de la création de l’ISEOR et de la théorie socio-économique des organisations. La méthode proposée permet d’établir la balance économique de la rentabilité d’un projet d’investissement immatériel. Il a été démontré, après trente trois ans de recherche, au premier congrès transatlantique de L’Institut International des Coûts (IIC) et de l’American Accounting Association (AAC), que le retour sur investissement était spectaculaire : de 200 % à 4000 % : à savoir qu‘un euro investi dans la création de potentiel humain produit un retour sur investissement, sous forme de création de valeur ajoutée, compris entre 2 et 40 euros. Toutes les entreprises, y compris En direct des laboratoires 291 celles qui ont une très bonne gestion, peuvent donc toujours progresser en investissant dans la création de potentiel humain. L’hypertélie dans le management des compétences est une cause explicative des dysfonctionnements dans les termes de la performance et de la compétitivité. La compétence est une totalité, et dans cette totalité, tout facteur limitant inhibe la libération du potentiel des autres facteurs. Les travaux de l’ISEOR ont montré que l’insuffisance d’investissement dans la qualité et l’efficacité du fonctionnement et du management permettait d’expliquer les dysfonctionnements, dont l’évaluation en termes d’incidence financière, appelé coût caché, pouvait atteindre jusqu’à 60 K€ par personne et par an. La performance de l’euro investi dans la création de potentiel humain trouve sa source dans la conversion de ces coûts cachés en valeur ajoutée. L’investissement en création de potentiel humain oblige cependant les directions générales, non pas seulement à se poser la question de la libération de l’énergie stratégique des acteurs (H.Savall et V.Zardet, 1995b : 123) en se limitant aux traditionnels facteurs clés de succès, mais également à élucider les phénomènes cachés agissant dans les infrastructures du fonctionnement et du management comme facteur limitant. Les dysfonctionnements entre les modes mineurs et majeurs de perfectionnements surgissent quand ces deux modes ne sont pas synchronisés. Le déficit de synchronisation entraîne un dédoublement du rapport de phase. Ce dédoublement peut concerner les modes eux-mêmes lorsque l’entreprise ne réalise pas d’investissements immatériels, les modes théoriques et pratiques lorsque l’entreprise considère que la pratique se suffit à elle-même, ou les spécialisations lorsque l’entreprise force les perfectionnements mineurs dans des domaines particuliers. Le consultant ou le chercheur posent rapidement un diagnostic lorsqu’ils évaluent le programme de formation intégrée par exemple. Pour gérer en conjonction constante les processus de la transformation afférant au fonctionnement courant et les processus afférant à la création de potentiel humain, il est indispensable d’équilibrer les actions régissant les perfectionnements contribuant à l’obtention de résultats immédiats d’une part, à la création de potentiel d’autre part. Cela ne dispense pas d’élaborer un calendrier avec des priorités si le programme de formation intégré est installé dans le fonctionnement courant de l’organisation et régulièrement toiletté. UNE STRATEGIE D’INNOVATION MANAGERIALE S’ENRACINE DANS LA CREATION DE POTENTIEL HUMAIN Les politiques et les stratégies sont performantes si elles sont enracinées dans le fonctionnement de l’organisation. Toute stratégie rapportée, par 292 Management des Technologies Organisationnelles : Journées d’Etude 2009 imitation par exemple, se révèle à terme improductive. Une stratégie est toujours endogène, à condition de ne pas distinguer les environnements internes et les environnements externes, qui ne sont que des commodités de raisonnement dans certains cadres théoriques. Ces commodités peuvent se trouver à l’origine d’erreurs de type logique dans l’élaboration et la mise en œuvre de la stratégie. Dans l’annexe 01, la coopérative viti-vinicole se défendait d’être aussi performante que ses consœurs. Une stratégie n’est pas bonne au seul motif que quelques unes de ses composantes sont bonnes. J.Piaget (2005 : 118), après B.Russell, se sont posés la question du « que faire des idées fausses ». Il ont apporté la même réponse ; elles subsistent à côté des vraies. L’un comme l’autre considéraient que l’épistémologie génétique ne doit pas s’égarer dans la recherche de l’historique des structures. La connaissance juste est celle qui représente la structure analogique la plus juste entre la connaissance des structures de l’objet (par l’acteur) et les structures de l’objet (lui-même). Cette connaissance est généralement fausse dans les organisations (Annexe 01). La connaissance est juste (légitime, défendable) s’il existe une relation isomorphique entre sa propre structure (une représentation) et celle de l’objet observé. Pour G.Simondon (2005 : 559), la connaissance est une allagmatique (du grec ‘allagma’ qui signifie changement). Elle relève donc de la théorie des opérations, qui se réalisent toujours dans l’interaction des structures et des comportements. On peut aisément identifier la transformation des compétences en observant à différentes périodes les seules opérations qui les convertissent en structures (Annexe 01), à partir d’une nomenclature opératoire. Les travaux de recherche à l’ISEOR ont déterminé que cette périodicité devait être de six mois. La théorie socio-économique des organisations (H.Savall et V.Zardet, 1975/1989, 1995, 2004, 2005) tout comme la théorie du système général (J.L Le Moigne, 1990) observent les formes stables de l’objet. Mais, une théorie ne peut pas n’être que descriptive. Elle doit être opératoire. Et si l’on considère que la forme stable ne rend compte que de l’aspect inchangé (W.R Bion, 1982 : 7), tandis que les opérations réalisant la transformation des structures peuvent consister en leur recomposition, ce qui explique la perception de l’invariance, alors la transformation est immanente. Plus largement, toute théorie du changement en Sciences de Gestion qui limite la transformation à certaines formes du changement en ignorant que la transformation de l’invariant est ellemême munie d’une loi de composition, ne permettent pas d’observer la transformation des compétences, parce que précisément elles ne permettent d’observer que certaines formes particulières du changement. Paradoxalement, la théorie socio-économique des organisations permet d’observer la En direct des laboratoires 293 transformation des compétences parce qu’elle observe la transformation des invariants qui sont les structures recelant la création du potentiel humain. L’unité d’analyse de l’interaction des structures et des comportements chez H.Savall et V.Zardet (1995) permet d’opérer le diagnostic des compétences au point de convertibilité des opérations en structures et des structures en opérations. Ce point de convertibilité est le point (ou encore le moment) de la transformation des compétences. C’est à ce point que l’on observe les phénomènes de la résistance notamment. L’intervenant doit identifier ce point pour observer les transformations. Il dispose à cet égard d’un outil méthodologique (Annexe 01). Cet outil permet de définir la structure des compétences, y compris comportementales, et de les actualiser périodiquement. L’outil permet d’analyser le rapport de phase entre les modes de genèse technologique (dans n’importe quel domaine) et organisationnel de la compétence, et entre les modes théoriques et pratiques de perfectionnements de ces mêmes compétences. La transformation des compétences et la création de potentiel humain obligent à se référer à des cadres théoriques, méthodologiques et opératoires pertinents. Cette perspective est importante car elle permet d’équilibrer le développement des compétences. Cette équilibration fait surgir la compétence distinctive de l’entreprise. Le cadre théorique, méthodologique et opératoire ne doit pas être sélectif. On observe souvent que des dirigeants d’entreprises se privent d’un examen de leur stratégie parce que la réflexion théorique serait réservée et accessible à certaines catégories d’entreprises et pas à d’autres. C’est un exemple d’erreur de type logique. Ce n’est pas la question de la réflexion théorique qui est posée, mais celle du choix d’un cadre pertinent. Un cadre théorique, méthodologique et opératoire doit être accessible et utilisable par toutes les catégories d’entreprises. La création de potentiel humain nécessite en effet de se référer à un référentiel théorique, méthodologique et surtout opératoire, car il s’agit d’analyser et de dynamiser des phénomènes immergés dans les infrastructures du fonctionnement de l’organisation. Cette perspective souligne l’importance de l’équilibration des modes de perfectionnements mineurs et majeurs des actions dans le management du développement des compétences. La combinaison de ces actions dévoile et installe la compétence dans le fonctionnement courant de l’organisation. A rebours, le processus de la transformation des compétences se trouve piloté. Cette communication se veut être une contribution à cette perspective. 294 Management des Technologies Organisationnelles : Journées d’Etude 2009 NOTES [1] Institut de Socio-Economie des Entreprises et des Organisations, Université JeanMoulin Lyon 3. [2] La stratégie proposée a consistée à orienter la coopérative dans un projet de restructuration industrielle et commerciale au sein de l’union de coopératives dont elle était adhérente. La coopérative a été la tète de pont qui a permis le regroupement des treize coopératives. [3] Traduction : Cœur fondamentales … de compétence, compétence de base, compétences REFERENCES BIBLIOGRAPHIQUES BARTHELEMY J.H (2006), « D’une rencontre fertile de Bergson et Bachelard : L’ontologie génétique de Simondon », Colloque Bachelard et Bergson : Continuité et discontinuité - Une relation au cœur du 20° siècle, Université Jean-Moulin Lyon 3, Septembre 2006. BION W.R (1982), Transformations : Passage de l’apprentissage à la croissance, Editions PUF, 208 p. DAVID A. (1996), « Structure et dynamique des innovations managériales », Actes de la 5° Conférence Internationale de l’AIMS, Mai, Lille, 29 p. - ou Cahier de Recherche n° 12 du Centre de Recherche Scientifique de l’Ecole des Mines de Paris, Juillet, 44 p. HAMEL G. et PRAHALAD C.K., (1990), « The core competence of the corporation », Harvard Business Review, vol.68, n°3, pp.79-91. JENNY J. (1997/98), « Un nouveau paradigme pour penser le changement : Le processus d’individuation transductive, selon Gilbert Simondon », in Les Cahiers de l’implication, n°1, pp. 31-44. LE MOIGNE Jean-Louis (1990), La théorie du système général : Théorie de la modélisation, Editions PUF, 3° édition, 1° édition 1977, 330 p. MORIN E. (1986), La méthode 3. La connaissance de la connaissance, Editions Du Seuil, 250 p. PIAGET J. (2004), Le structuralisme, Editions PUF, Collection Que-Sais-je ?, 12° édition, 125 p. PIAGET J. (2005), Epistémologie génétique, Editions PUF, Collection Que-sais-je ?, 6° édition, 127 p. SAVALL H. (1977), « Compatibilité de l’efficience économique et du développement du potentiel humain », VII° Colloque International au Collège de France, organisé par François Perroux et Jean Piaget - Revue d’Economie Appliquée, Archives de l’ISMEA, Tome XXXI°, n° 3-4, « Equilibre et Régulation, Droz, Genève, 1978, pp.561-593. SAVALL H. (1989), Enrichir le Travail Humain : L’évaluation économique, Préface de Jacques Delors, avant-propos du Pr. Alain Bienaymé, 1° édition Dunod 1975, 2° édition Dunod 1978, Economica, 3° édition, 275 p. SAVALL H. et ZARDET V. (1995a), Maîtriser les Coûts et les Performances Cachés : Le Contrat d’Activité Périodiquement Négociable, Prix de Management Stratégique HarvardL’Expansion, Préface de M.A Lanselle, Avant-Propos de J.M Doublet, 3° édition, Economica, 405 p. SAVALL H. et ZARDET V. (1995b), Ingénierie Stratégique du Roseau, Préface de S.Pasquier, Economica, 517 pages. En direct des laboratoires 295 SAVALL H. et ZARDET V. (2004), Recherche en Sciences de Gestion : Approche qualimétrique, Observer l’objet complexe, Préface du Pr.D.Boje (Usa), Editions Economica, 432 p. SAVALL H. et ZARDET V (2005), Tétranormalisation : Défis et dynamiques, Editions Economica, 195 p. SCHÖN D. (1994). Le praticien réflexif. À la recherche du savoir caché dans l’agir professionnel. Montréal : Editions Logiques, 418 p. SCHÖN D. (1996). À la recherche d’une nouvelle épistémologie de la pratique et de ce qu’elle implique pour l’éducation des adultes. In Barbier, J. –M. (dir.) Savoirs théoriques et savoirs d’action. Paris : PUF, pp. 201-222. SIMONDON G. (1989), Du mode d’existence des objets techniques, Préface de J.Hart et de Y.Deforge, Editions Aubier-Paris, 336 p. SIMONDON G. (2005), L’individuation à la lumière des notions de formes et d’information, Editions Million, Préface de J.Garelli, 571 p. STIEGLER B. (2006), « Chute et élévation : L’apolitique de Simondon », in Revue philosophique n°3, Juillet 2006, Editions PUF, pp.324-341 ZARIFIAN Ph. (1999), Objectif Compétence : Pour une nouvelle logique, Edition Liaisons, 229 p. ANNEXE 01 : GRILLE DE COMPETENCES (© ISEOR) Source : Cas 03, Coopérative viti-vinicole 296 Management des Technologies Organisationnelles : Journées d’Etude 2009 En direct des laboratoires 297 Evaluation de l’interopérabilité organisationnelle et managériale des systèmes industriels : le projet CARIONER Nicolas DACLIN et Vincent CHAPURLAT Laboratoire de Génie Informatique et d’Ingénierie de Production Ecole des Mines d’Alès / Nîmes INTRODUCTION Le phénomène de mondialisation auquel font face les entreprises depuis les deux dernières décades, se traduit par un accroissement permanent de la concurrence. Afin de répondre à cette intensification et d’assurer leur avenir, les entreprises doivent être capables de réagir rapidement aux besoins spécifiques des clients, ainsi que de se positionner et de s’imposer sur de nouveaux marchés. Dans ce contexte, les entreprises se focalisent sur leurs métiers de base plutôt que de couvrir l’ensemble des activités de production et elles cherchent à développer des partenariats afin de réduire les coûts et le temps de mise à disposition sur les marchés. La compétitivité d’une entreprise ne dépend donc plus seulement de ses performances et de sa productivité propre, mais aussi de sa capacité à mettre en œuvre et à réaliser ces partenariats avec d’autres entreprises. Ainsi, si la réussite de ces partenariats est liée à l’atteinte des objectifs des entreprises (satisfaction du client, prise de nouveaux marchés) qui travaillent ensemble, il convient de ne pas perdre de vue que cette réussite est également intimement liée à une bonne qualité de communication et une bonne capacité d’interaction entre les parties. Les solutions qui existaient jusqu’à présent et qui permettaient principalement de réaliser l’intégration d’entreprises ne sont plus totalement en adéquation avec le contexte actuel. En effet, l’évolution rapide des marchés conduit à une faible pérennité des partenariats. Les entreprises désirent donc avoir la possibilité de créer et de dissoudre 298 Management des Technologies Organisationnelles : Journées d’Etude 2009 aisément ces partenariats en limitant leur dépendance vis-à-vis des autres partenaires ainsi qu’en évitant de profonds changements internes en terme d’outils et de méthodes de travail. Nous assistons ainsi à la prise de conscience d’un concept, l’interopérabilité, qui doit permettre de supporter la communication et l’interaction de ces partenariats, tout en répondant aux contraintes de ce nouveau contexte. L’INTEROPERABILITE : DEFINITION ET PROBLEMATIQUE Définition Historiquement, le concept d’interopérabilité est clarifié au début des années 90 dans le domaine de l’informatique, où il est défini comme le fait de développer « l’habilité pour deux (ou plus) systèmes à échanger des informations et à utiliser les informations qu’ils ont échangées » (IEEE, 1990). Plus généralement, la littérature définit à présent l’interopérabilité comme la « compatibilité des équipements, des procédures ou des organisations permettant à plusieurs systèmes d’agir ensemble » (Larousse, 2003). Ce concept s’est depuis étendu. Le développement de l’interopérabilité est, de nos jours, lié à de nombreux domaines (militaire, médical, transport, progiciel…) (DoD, 2001) (ISO 16100, 2002) (APFA, 2004). A titre d’exemple, citons la définition relative au domaine industriel (IDEAS, 2003) : « l’interopérabilité est la capacité d’interaction entre les applications d’entreprises. L’interopérabilité est considérée comme acquise si cette interaction peut, au moins, se réaliser à trois niveaux : donnée, application et organisation. Le niveau « organisation » est décomposé en trois sous-niveaux : modèle d’affaire, modèle décisionnel et processus industriel ». Nous pouvons également citer la définition proposée dans (Vernadat, 1996) qui définit l’interopérabilité comme « l’habilité pour un système à communiquer avec un autre système et à utiliser les fonctionnalités de celuici ». Les problèmes liés au développement de l’interopérabilité Une étude récente a montré que « 40 % des coûts d’un projet TIC dans la majeure partie des industries sont attribués à la résolution des problèmes d’interopérabilité » (ATHENA, 2003). Cette valeur accentue encore un peu plus l’enjeu mais aussi l’urgence de donner aux entreprises des outils efficaces pour la résolution rapide et moins coûteuse de ces problèmes. Cependant, la nature de ces problèmes est bien trop souvent mal identifiée. En effet, l’interopérabilité est encore considérée aujourd’hui comme un problème informatique. Différents travaux (IDEAS, 2003) (EIF, 2004) ont clairement mis En direct des laboratoires 299 en avant le fait que l’interopérabilité concernait également les niveaux d’organisation (modèle d’affaire, modèle décisionnel et processus industriels) et des données (acquisition, structuration et représentation des connaissances des entreprises). En d’autres termes, il ne s’agit plus uniquement de mettre en relation des outils informatiques mais également de relier différentes structures organisationnelles ainsi que leurs compétences et connaissances associées. Actuellement, trois catégories de problèmes d’interopérabilité ont été identifiées. On distingue les problèmes conceptuels, les problèmes technologiques et les problèmes organisationnels. • Les problèmes de type conceptuel concernent la syntaxe et la sémantique des informations qui sont échangées. Ces problèmes concernent la modélisation des informations à un haut niveau d’abstraction comme par exemple un modèle d’entreprise, ainsi que la façon de structurer les informations en vue d’un échange (utilisation d’un langage de codage de données comme XML [1]). • Les problèmes d’ordre technologique sont relatifs à l’incompatibilité des technologies de l’information (plateformes et applications informatiques). Ces problèmes concernent les normes pour présenter, stocker, échanger, traiter et communiquer les données via les moyens informatiques. • Les problèmes d’ordre organisationnel sont liés à la définition de la responsabilité et d'autorité qui induisent ou impactent la qualité des conditions de travail. Ce sont donc essentiellement les facteurs humains et les comportements organisationnels qui peuvent être incompatibles avec l'interopérabilité. C’est essentiellement ce type d’interopérabilité appelée organisationnelle qui intéresse le projet CARIONER présenté dans cet article. L’interopérabilité organisationnelle Une entreprise est un système complexe caractérisé par une organisation et des ressources permettant un fonctionnement et répondant à une finalité, une mission et des objectifs. Le « système entreprise » est plongé dans un environnement (économique, social, technique et technologique) avec lequel il doit cohabiter, collaborer ou se retrouver en situation de compétition avec d’autres entreprises. Une entreprise isolée a une capacité de réponse au marché limitée. Aussi, elle fera appel à d’autres compétences et d’autres ressources que les siennes propres : elle se structure alors en une organisation plus vaste, dépassant ses propres limites et incluant d’autres entreprises. Le réseau qui émerge alors peut être considéré comme un système complexe lui-même composé d’autres systèmes restant indépendants les uns des autres mais 300 Management des Technologies Organisationnelles : Journées d’Etude 2009 néanmoins susceptibles et obligés de collaborer, temporairement le temps d’une affaire ou plus longuement sur des projets plus importants. Dans un réseau, chaque entreprise membre peut effectivement trouver des opportunités économiques de travail, développer, mettre en œuvre et partager plus efficacement ses ressources, répondre plus complètement à des exigences client du fait d’une couverture plus large du cycle de vie d’un produit ou d’un processus permis par l’interaction des membres du réseau. Cependant, former un réseau, le maintenir, accueillir de nouveaux membres ou au contraire en extraire, nécessite de disposer d’une méthode et d’outils pour évaluer le niveau d’interopérabilité du nouveau partenaire ou ajuster et améliorer si nécessaire l’interopérabilité de deux partenaires n’ayant pas encore travaillé ensemble. Un réseau n’atteindra son objectif d’attractivité, de performance et de gain que si l’on peut certifier de l’atteinte d’un certain niveau d’interopérabilité de ses membres pour répondre rapidement aux opportunités et aux affaires. La notion de système employée ici reflète des systèmes interagissant, éventuellement non homogènes, autonomes et complexes. Cette interaction se concrétise par des flux de données, d’information et de connaissances, de matière ou encore d’énergie. Elle est nécessaire pour que chaque système concerné ou mis en jeu par cette interaction puisse remplir une mission donnée, dans le cadre d’une finalité donnée et puisse atteindre ses propres objectifs de performance, de stabilité et d’intégrité. Cette interaction est le siège potentiel de plusieurs types de problèmes et de risques (CAS 2003) : perte, non envoi / non réception de flux, mauvaise compréhension, mauvaise utilisation, incompatibilité des flux dans la forme, l’espace ou le temps, oubli pur et simple par le récepteur, désynchronisation entre émetteur et récepteur, etc. Selon (ATHENA, 2004), l’interopérabilité dans l’entreprise (Cabral et al. 2006 ; Chen et al. 2003 ; EICTA 2004) peut se percevoir au travers de quatre niveaux (figure 1) Entreprise 2 Entreprise 1 Interopérabilité des affaires Interopérabilité des processus Interopérabilité des services --------------------------------- ----------- Interopérabilité des données -------------------------------------------- Figure 1. Les quatre niveaux d’interopérabilité (Chen et al., 2006) En direct des laboratoires • • • • 301 L'interopérabilité des données qui se réfère aux différents modèles de données de travail collaboratif et à l’organisation de schémas conceptuels. L'interopérabilité des services : elle permet d'identifier, de composer et de créer des fonctions communes à diverses applications (conçues et mises en application indépendamment) en résolvant les différences syntaxiques et sémantiques ainsi qu'en trouvant les points de raccordements des diverses bases de données hétérogènes. Le terme « service » n'est pas limité aux applications informatiques, il peut être également utilisé pour une entreprise ou des entreprises gérées en réseau. L'interopérabilité des processus qui vise à faire travailler ensemble divers processus selon un besoin spécifique de l'entreprise et notamment à relier des processus internes de deux entreprises pour créer un processus commun. L'interopérabilité des affaires qui se rapporte à l'harmonisation de l'organisation globale des entreprises malgré les différents modes de prise de décision, méthodes de travail, culture d'entreprise, l'approche marketing etc. de sorte qu’une activité conjointe puisse être développée. Dans un souci de couverture globale de l’interopérabilité, il est donc primordial de s’intéresser simultanément à ces quatre notions d’interopérabilité. Des solutions sont développées depuis peu pour résoudre différents types de problèmes d’interopérabilité. Par exemple, au niveau conceptuel, l’utilisation de l’ontologie (tel que l’Ontologie Web Language) doit permettre, à terme, de résoudre le problème de sémantique. Nous pouvons également citer, au niveau technologique, le Model Driven Interoperability (Bourey, 2007) qui se base sur le Model Driven Architecture (OMG, 2003) et dont l’objectif est de générer des applications d’entreprises qui soient interopérables. Néanmoins, l’ensemble des solutions développées jusqu’à présent permet de résoudre principalement des problèmes d’interopérabilité spécifiques aux niveaux conceptuel et technologique. Peu de solutions et d’approches sont actuellement développées pour aider à développer l’interopérabilité au niveau organisationnel. Plus précisément, il n’existe pas d’outils permettant aux entreprises d’évaluer leur capacité à interagir ensemble, que ce soit en terme d’interopérabilité intrinsèque i.e. l’interopérabilité est vue comme une caractéristique propre d’un système, indépendamment de tout autre système ou bien en terme d’interopérabilité extrinsèque i.e. l’interopérabilité est vue comme une caractéristique entre des systèmes définis. 302 Management des Technologies Organisationnelles : Journées d’Etude 2009 Ce niveau revêt pourtant un caractère primordial pour que les interactions entre des entreprises se déroulent ou soit amenées à se dérouler dans de bonnes conditions. Dès lors, il s’agit de donner aux entreprises les moyens d’évaluer leurs capacités à interopérer dans le but (1) de connaître leurs points forts et leurs points faibles en termes d’interopérabilité et, (2) de mettre en œuvre les actions correctives, si nécessaire, pour améliorer celle-ci. LE PROJET CARIONER Le projet CARIONER propose d’étudier deux types d’interopérabilité et tente de prendre en compte les niveaux et de répondre aux besoins résumés cidessus : • L’interopérabilité organisationnelle : liée aux ressources (humaines, applicatives, matérielles), à leurs modes d’organisation et d’interaction avec d’autres ressources (professionnelles, humaines, hiérarchiques, etc.), à leurs objectifs, savoirs faire et compétences. • L’interopérabilité managériale : liée au mode de pilotage du ou des systèmes en phase d’exploitation (pilotage distribué, centralisé, utilisant des indicateurs de performance ou à vue, etc.), mais aussi au pilotage de son amélioration dans un cadre plus large. Cette généralisation de la notion d’interopérabilité permet d’inscrire clairement le sujet du projet CARIONER dans le thème de l’interopérabilité d’entreprise, sujet majeur actuel relatif à la généralisation de l’activité économique en réseau. Notamment, il s’inscrit dans la continuité des travaux entrepris dans le cadre du Réseau d’Excellence INTEROP (Interoperability Research for Networked Enterprises Applications and Software, 6ème programme cadre, IST 508011) et du Projet Intégré ATHENA (Advanced Technologies for Interoperability of Heterogeneous Enterprise Networks and their Applications, 6ème programme cadre, IST 507849). Le projet CARIONER cherche à développer et à adapter des mécanismes formels de modélisation d’entreprise et d’analyse par preuve de propriétés. Ce projet regroupe les partenaires Laboratoire de Génie Informatique et d’ingénierie de Production (LGI2P), la DRGI de l’Ecole des Mines d’Albi-Carmaux et le laboratoire IMS de Bordeaux. Objectifs du projet Dans un réseau d’entreprises, chaque partenaire doit évidemment interagir (communiquer, collaborer, coopérer, échanger, partager…) avec les autres partenaires par exemple dans la cadre d’une opportunité d’affaire. Il souhaite En direct des laboratoires 303 cependant rester en même temps indépendant de ses partenaires. Ces interactions doivent donc respecter un certain nombre de propriétés i.e. d’exigences, et des contraintes (normatives, légales, sociales, humaines, techniques ou économiques) pour que l’entreprise comme le réseau atteignent leurs objectifs propres. Pour se positionner dans un tel réseau, chaque entreprise doit donc pouvoir évaluer d’une manière globale sa capacité à faire travailler ensemble ses ressources propres, puis ses capacités à travailler en partenariat au sein d’un réseau d’entreprises. Ces capacités reflètent étroitement le niveau d’interopérabilité de chaque entreprise et sont : • La capacité à construire et à entretenir une relation de collaboration durable, de confiance et opérationnelle avec d’autres entreprises en fonction des opportunités d’affaires avec ses clients, • La capacité à communiquer et à utiliser sans perte ni ambiguïté, dans le sens comme dans la forme, et de manière dynamique, des données, des informations et des connaissances nécessaires tant en interne que tout au long d’une collaboration avec d’autres entreprises, • La capacité à piloter, synchroniser et manager des tâches communes et à partager de manière pertinente des ressources (humaines, machines ou applicatives) et des services. Une fois évaluées ces capacités, l’entreprise dispose alors d’informations sur ses faiblesses et peut alors tenter d’y remédier afin de gagner en efficacité tant en interne en utilisant mieux ou différemment ses propres ressources, qu’en externe en améliorant ses interfaces, ses comportements et son fonctionnement global avec ses partenaires. Les résultats attendus du projet CARIONER sont donc : • La définition et formalisation de règles d’interopérabilité organisationnelle et managériale d’une entreprise sous forme de propriétés. • Des enrichissements d’un langage de modélisation d’entreprise à choisir pour rendre compte de la notion d’interopérabilité et rendre possible son analyse. Il s’agira ici, dans un premier temps, d’extensions conceptuelles liées au méta modèle de ce langage. • Un ensemble de mécanismes de représentation et d’analyse des propriétés d’interopérabilité d’une entreprise par preuve formelle et/ou par simulation. Ces propriétés traduisent les exigences et contraintes devant être respectées par l’entreprise, son organisation, son fonctionnement et sa manière d’interagir avec son environnement. Les mécanismes d’analyse permettront d’évaluer le niveau d’interopérabilité d’une entreprise dans un environnement donné en tenant compte de 304 Management des Technologies Organisationnelles : Journées d’Etude 2009 • modèles d’entreprise conçus avec les extensions de langages proposées. Cette analyse aura pour résultat le positionnement clair et précis d’une entreprise dans le profil de maturité. Elle permettra aussi de détecter des situations dans lesquelles il existe des possibilités ou des risques de non interopérabilité, totale ou partielle, permanente ou temporaire, pouvant entraîner des pertes de performance, de stabilité ou d’intégrité de l’entreprise en interne comme en externe. Un démonstrateur intégrant ces mécanismes de modélisation de preuve et qui permettra de valider l’ensemble de la démarche scientifique et méthodologique sur des exemples issus du milieu industriel. Démarche pour développer l’interopérabilité organisationnelle et managériale des entreprises La démarche méthodologique globale qui devra émerger à l’issue du projet CARIONER, et qui est schématisée Figure 2, nécessite de modéliser des cas d’études d’entreprise, puis de traduire les modèles obtenus dans des langages formels permettant enfin de vérifier que les exigences d’interopérabilité sont bien couvertes par l’entreprise. Modélisation de terrain Interprétation Langage Référentiel de propriétés Caractérisation Transformation Réécriture Règles T/R Analyse Mécanismes de preuve Conceptualisation Send order s to fi nan ci al departm ent To f ulf ill or ders to contr ol cr edit Pr oc Pr oc qualit y avail abl e << Pr ocessus>> To co nt rol quanti ty available Pro c Qu antity contr ol led T EL CO P roc Rules quality not avail abl e T o f ulfill o rder sf rom shops and fr anchisees Pr oc 50 Centre de décision et grille GRAI Langage de modélisation de processus Figure 2. Démarche méthodologique résultante du projet CARIONER Phase 1 : Modélisation de terrain Il faut choisir et adapter un langage de modélisation d’entreprise à la définition retenue conjointement par les trois partenaires de l’interopérabilité. Le choix portera sur BPMN [2], GRAI [3] ou UEML [4] pour leurs qualités respectives. Il faut ensuite concevoir des modèles d’entreprise correspondant à des cas d’étude issus du milieu industriel et servant de tests de validation du travail. En direct des laboratoires 305 Phase 2 : Formalisation Il faut ensuite formaliser les exigences d’interopérabilité sous forme de propriétés, les mécanismes de réécriture des modèles d’entreprise résultant de la phase 1 vers des langages formels basé sur l’usage des Graphes Conceptuels et permettant l’analyse et développer ou adapter les mécanismes de vérification des exigences d’interopérabilité sur ces langages formels. Ces travaux monopolisent l’essentiel des moyens demandés dans le projet. Pour cela, il faut : • Etudier les exigences et contraintes d’interopérabilité des systèmes d’entreprises. • Formaliser les exigences d’interopérabilité et les problèmes liés à la non interopérabilité des systèmes sous forme de propriétés (de type propriétés système et propriétés métier). • Etudier et formaliser les mécanismes formels de réécriture des modèles établis avec les langages de modélisation proposés par la phase 1 • Etudier et formaliser le mécanisme de raisonnement et de détection de problèmes de non interopérabilité par l’emploi des Graphes Conceptuels. Cette étape va fournir : • Des règles de traduction (respectant les principes de bases de l’approche MDA) du méta modèle décrivant le ou les langages de modélisation du système entreprise vers des Graphes Conceptuels. Il faut en effet représenter le système (réseau) entreprise par un ou plusieurs graphes cohérents représentant le même système vu sous divers aspects. • Des mécanismes mathématiques (projections, contraintes et règles dynamiques) permettant d’une part de parcourir et d’analyser ces graphes pour y détecter de possibles conflits, manques, limitations, d’autres part de rechercher les causes de non satisfaction des propriétés. Phase 3 : Mise en œuvre Il faut enfin opérationnaliser et valider la démarche scientifique proposée de modélisation et de preuve. Cela consiste tout d’abord à définir des cas d’étude. Cela consiste ensuite à développer une plate forme support de la démarche de modélisation des exigences et de l’entreprise, de ré écriture des modèles d’entreprise et de vérification des exigences. Cette plateforme de démonstration sera donc composée d’outils de modélisation de l’entreprise et des exigences, et d’un outil d’analyse sur lesquels les cas d’étude permettront de valider la démarche méthodologique proposée. Les outils de modélisation peuvent être choisis parmi des outils du marché. 306 Management des Technologies Organisationnelles : Journées d’Etude 2009 CONCLUSION L’objectif du projet CARIONER est de formaliser et de tester in situ une méthodologie permettant de caractériser et d’analyser de manière formelle l’interopérabilité organisationnelle et managériale d’une entreprise voulant évoluer dans le cadre d’un réseau d’entreprises. En effet, une entreprise doit pouvoir évaluer sa capacité ou ses réticences à travailler avec des partenaires, puis définir et éventuellement mettre en œuvre des changements nécessaires dans son organisation (en termes de processus, de ressources, d’outils et de moyens) et dans son comportement pour améliorer cette capacité à communiquer, à collaborer, à coopérer ou simplement à mieux se coordonner avec ses partenaires. Cette capacité, liée au niveau d’interopérabilité de l’entreprise, doit donc être analysée afin de trouver des pistes d’amélioration potentielle. Les résultats suivants sont attendus : • Définition et formalisation de règles d’interopérabilité organisationnelle et managériale d’une entreprise sous forme de propriétés • Proposition d’enrichissements conceptuels d’un langage de modélisation d’entreprise nécessaires pour décrire les conditions de ce type d’interopérabilité • Définition et adaptation des mécanismes formels d’analyse par preuve de propriétés. • Validation de la méthodologie globale de mise en œuvre avec un démonstrateur NOTES [1] XML signifie eXtended Markup Language. XML est un langage de codage de données utilisé pour les échanges. http://www.w3.org/XML/. [2] Business Process Model Notation. [3] Graphe à Résultats et Activités Interreliés. [4] Unified Enterprise Modelling Language. REFERENCES BIBLIOGRAPHIQUES (APFA, 2004) Association pour francophone.org, 2004. Promouvoir le Français des Affaires, www.presse- (ATHENA, 2003) ATHENA Integrated Project, « Advanced Technologies for Interoperability of Heterogeneous Enterprises Networks and their Applications », Integrated Project description of work, 2003. (ATHENA, 2004) ATHENA Integrated Project, « Requirement for interoperability framework, product-based and process-based interoperability infrastructures, interoperability life-cycle services », ATHENA deliverable A4.1, 2004. En direct des laboratoires 307 (Bourey, 2007) Bourey, J-P., Grangel, R., Doumeingts, G., Berre, A.J., « Report on Model Driven Interoperability », INTEROP Deliverable DTG 2.3, 2007, disponible en ligne à l’adresse : http://interop-vlab.eu/ (Cabral et al. 2006) R. Cabral, G. Doumeingts, M.S. Li, K. Popplewell, Enterprise Interoperability: Research Roadmap, Working document, Version 2.0, 2006. (CAS 2003) Casualty Actuarial Society (CAS), “Overview on Enterprise Risk Management”, ERM Committee, 2003. (Chen et al. 2003) D. Chen, F. Vernadat, “Enterprise interoperability: a standardization view”, Handbook on architectures of information systems, Springer, 2003. (Chen et al., 2006) D. Chen, et al., “Enterprise Interoperability – Framework and knowledge corpus – Advanced report”, INTEROP Deliverable DI.2 (Domain Interoperability), 2006, disponible en ligne à l’adresse : http://interop-vlab.eu/ (DoD, 2001) Department of Defense, « Department of defense Dictionary of Military and Associated Terms », United States of America Department of Defense, 2001. (EICTA 2004) EICTA Interoperability white paper, 2004, disponible en ligne à l’adresse : www.eicta.org/web/news/telecharger.php?iddoc=367 (EIF, 2004) European Commission, « European Interoperability Framework For Pan-European eGovernment Services », version 1.0, European Communities Ed., 2004. (IDEAS, 2003) IDEAS Project Deliverables, WP1-WP7, public reports, 2003. (IEEE, 1990) « A compilation of IEEE standard computer glossaries », standard computer dictionnary, 1990. (ISO 16100, 2002) ISO, « ISO 16100, 1 - Industrial automation systems and integration – Manufacturing software capability profiling for interoperability – Part 1 : Framework », ISO/TC 184/SC 5/WG 4, 2002. (Larousse, 2003) « Le petit Larousse illustré », dictionnaire de la langue française, 2003. (OMG, 2003) Open Management Group, « MDA Guide Version 1.0.1 », omg/2003-06-01, disponible en ligne à l’adresse : www.omg.org, 2003. (Vernadat, 1996) Vernadat, F.B., « Enterprise Integration Modeling and Integration : Principles and Applications », Capman & Hall, London, 1996. 308 Management des Technologies Organisationnelles : Journées d’Etude 2009 En direct des laboratoires 309 Les paiements, un nouveau challenge pour l’entreprise Philippe COIFFARD Consultant en organisation et système d’information Expert en relations interbancaires PhC Consulting / Montpellier RESUME Les évolutions opérationnelles (SEPA), fonctionnelles (ISO 20022, BIC/IBAN,…), organisationnelles (Monétique 3 coins, …) ou technologiques (arrêt de l’X25, IP,…) conduisent l’industrie des paiements vers l’émergence de nouveaux services (Payment factory, PSP,…) et de nouvelles conditions financières. Quelle politique ? Quelle stratégie ? Quelle organisation ? Les entreprises ont jusqu’à 2011 pour répondre à ce triple challenge. SITUATION : PERSPECTIVES DES PAIEMENTS Introduction L’industrie des paiements procède à une gigantesque conduite du changement dont la mise en œuvre effective se situe à l’horizon 2011 – 2012 : c’est déjà demain ! Cette évolution revêt tous les aspects traditionnels de toute conduite du changement, à savoir : opérationnel, fonctionnel, organisationnel, technologiques. Ainsi, le SEPA propose une migration de la domesticité des paiements d’un contexte résolument national vers un périmètre paneuropéen. Les échanges de flux de paiement s’effectueront sur une norme internationale ISO 20022, ce qui oblige tout un chacun à l’abandon de son RIB traditionnel vers un identifiant bancaire international et normé, l’IBAN, pour International Bank Account Number. 310 Management des Technologies Organisationnelles : Journées d’Etude 2009 La redéfinition des acteurs et des processus de la monétique, notamment, ceux liés à l’acquisition des flux commerçant par la banque acquéreur, dessine une architecture « 3 coins » permettant des économies substantielles de ces mêmes processus. Enfin, le développement des protocoles sous IP conduit au remplacement, à plus ou moins long terme, des technologies et des protocoles liés à l’X25 ; ce développement sera d’autant plus avéré que les protocoles actuels, ETEBAC 3, … ne supportent pas la norme ISO 20022. D’ici à 2012, les entreprises vont être sollicitées par nombre de leurs partenaires habituels – banques, éditeurs de logiciels, SSII, … - qui vont leur décliner nombre de services et/ou de solutions à valeur ajoutée afin de rationaliser l’appréhension globale de ces évolutions. Notre propos est de permette à ces mêmes entreprises d’apprécier les enjeux à leur juste mesure et d’y répondre de la manière la plus pragmatique qui soit. Le SEPA La mise en œuvre du Single Euro Payment Area ou « Espace unique des paiements en euros » est un enjeu majeur pour toutes les entreprises et pour plus de 300 millions de consommateurs ! Son objectif est de permettre à tout acteur économique - corporate, PME/PMI, TPE, administration, particulier, commerçant, artisan - d’effectuer des paiements scripturaux dans l'ensemble de la zone euro à partir d'un même compte dans l’un des 31 pays de l’espace en utilisant une gamme unique d'instruments de paiements avec autant de facilité, d'efficacité et de sécurité qu'il le fait aujourd'hui lors des paiements domestiques, et au même coût. La domesticité des opérations se transpose, ainsi, d’un contexte strictement national vers un contexte ouvert paneuropéen. Cette gamme décline trois opérations de base : • Le SEPA Credit Transfer, virement • Le SEPA Direct Débit, prélèvement • Le SEPA Card Framework, cadre régissant les cartes. Il est vital que les entreprises s'approprient sans tarder ce dossier et le gèrent comme un véritable projet d'entreprise. Il faut le faire dès à présent afin de réduire, autant que faire se peut, les incertitudes juridiques et techniques liées à l'ampleur et à la complexité de ce grand chantier européen. Au sein de cet espace, la concurrence sera accrue et plus présente qu’aujourd’hui ; ce qui nécessite que l'entreprise évalue les risques et les opportunités, qu’elle définisse une stratégie pour ne pas rencontrer des difficultés dans ses relations avec ses clients et ses fournisseurs, lorsque l’espace sera définitivement ouvert et opérationnel. En direct des laboratoires 311 Ignorer ce nouveau cadre, c’est courir le risque de perdre à terme des parts de marché. Se projeter et maîtriser ce nouvel espace européen, c’est assurer le développement des entreprises. L’ISO 20022, Le BIC/IBAN La norme ISO 20022 utilise les formats XML. Tous les fichiers actuels, dit « à plat » de liaison entre l’entreprise et la banque, en émission comme en réception, vont être remplacés par leur équivalent XML. Certes, il sera toujours possible de conserver son référentiel aux normes et aux formats actuels et d’échanger avec ses partenaires en transposant les données, uniquement lors de leur émission ou de leur réception. Quelle est la pérennité d’une telle solution ? Au sein de l’espace unique de paiement en euros, les échanges de flux interbancaires, mais aussi clients / Banques et Banques / Clients utilisent la norme ISO 20022 et, par conséquent, les formats XML. Les titulaires de compte bancaire disposent, aujourd’hui, d’un relevé d’identité bancaire (RIB) qui se compose d’un code établissement, d’un code agence, d’un numéro de compte et d’une clé RIB, contrôlant la cohérence des 3 premiers composants. Au sein du SEPA, adieu le RIB ! Bonjour, l’IBAN… qui consiste en une transposition de l’identifiant actuel, appelé BBAN dans la norme internationale, spécifique à chaque pays « ibanisé ». Seul, l’IBAN ne sert à rien, il faut lui associer un Bank Identifier Code (BIC) afin de router les flux vers le bon établissement destinataire. L’architecture « 3 coins » Aujourd’hui, la monétique s’organise autour d’un modèle dit à « 4 coins » qui sont respectivement : • Le porteur de la carte, l’acheteur qui souhaite régler ses achats au moyen d’une carte de paiement. • L’accepteur, le commerçant qui accepte les cartes de paiement de ses clients. • L’acquéreur, la banque du commerçant qui collecte les flux de ses commerçants et les adresse aux banques confrères en vue d’être réglée des achats effectués par leurs porteurs auprès de ses commerçants. • L’émetteur, la banque du porteur qui émet une carte de paiement et en confie l’usage à ses clients. Les relations interbancaires entre l’acquéreur et l’émetteur font l’objet de commissions d’interchange, que la Commission Européenne, au travers du programme SEPA, souhaite clairement abolir. 312 Management des Technologies Organisationnelles : Journées d’Etude 2009 Le modèle à « 3 coins » répond en principe à ce vœu puisque qu’il met en relation directe l’accepteur avec l’émetteur, et supprime, de fait, les services réalisés par l’acquéreur. L’arrêt de X25 et des protocoles existants Aujourd’hui, le protocole d’échange le plus utilisé dans les relations Clients/Banques, quel que soit le sens de la relation C/B ou B/C, est ETEBAC 3. Ce protocole permet l’échange de fichiers selon la norme AFB160 dans le sens C/B, et AFB240 ou AFB120 en retour, dans le sens B/C. Ces normes et leur format associé vont devenir obsolètes à l’aune du SEPA, car ils ne répondent pas à la norme ISO 20022 et sont incompatibles avec le format XML. Par ailleurs, l’opérateur historique a annoncé, le 14 décembre 2007, la fermeture commerciale partielle du service X25 dès le 1er juillet 2008, date à partir de laquelle « il ne sera plus possible de souscrire à un nouvel accès de ce type ou de modifier les accès existants. La fermeture technique de ces accès, identifiants et modems ID interviendra ultérieurement dans le respect des délais prévus dans votre contrat X25 ». PROBLEMATIQUE : QUELLE COMMUNICATION AUTOUR DU SEPA ? La communication autour du SEPA est réduite à sa plus simple expression et se confine actuellement au sein du microcosme interbancaire national, auquel s’est ajouté quelques grands corporates, soit directement, soit par le biais d’associations, telle l’Association Française des Trésoriers d’Entreprises (AFTE). MERCATEL, organisme représentant des entreprises du commerce et de la distribution, a rédigé le « Guide SEPA, Guide de gestion de projet en entreprise » avec le concours et la contribution d’expert en moyens et systèmes de paiements. Ce manuel a été largement diffusé, via les réseaux participatifs et/ou associatifs, tel le MEDEF, la CGPME à leurs adhérents respectifs. Les éditeurs de solutions pour les entreprises ont été invités par le Comité Français d’Organisation et de Normalisation Bancaires (CFONB). Cette réunion avait deux objectifs : • Présenter le SEPA, les normes, les formats, les opérations, les règlementations et les guides d’implémentation • Etudier un calendrier de mise en place des évolutions afférentes au SEPA au sein des solutions proposées. Là encore, force est de constater l’absence de communication sur la mise à disposition de solutions intégrant les évolutions nécessaires à l’appréhension des composantes du programme SEPA. En direct des laboratoires 313 RESOLUTION : QUELS SERVICES ? La directive des services de paiement est résolument ouverte à l’apparition de nouveaux acteurs dans le monde, actuellement fermé, des moyens et des systèmes de paiements, domaine réservé du monde bancaire. Elle invite notamment à la mise en œuvre de Payment Services Provider (PSP), fournisseurs de services de paiement, fortement contesté par la profession bancaire, qui y voit la mise en œuvre d’une concurrence déloyale en regard des engagements qui leur sont imposés et pour lesquels les PSP verraient leurs conditions d’application sensiblement aménagées. Les établissements bancaires et financiers ont tout intérêt à garder « captive » leur clientèle, notamment, celle des grands remettants et à leur proposer une offre de service adaptée et répondant aux évolutions précitées. Ces mêmes offres seront vraisemblablement déclinées pour les autres types de clientèle, accompagnées le cas échéant de mesures fortement incitatives à accepter les conditions proposées. Ainsi, certaines banques ont, d’ores et déjà, adressé à leur clientèle de particuliers un courrier leur précisant que tout ordre de virement effectué sur un RIB ferait l’objet d’un tarif supérieur au même ordre de virement effectué via le couple BIC/IBAN. Il en ira de même avec les entreprises qui, soit ne pourront pas fournir le fameux couple BIC/IBAN, soit ne pourront pas fournir leurs ordres de paiements selon le format XML. Les services proposés par les banques vont être : • Une conversion « Ancien format / Format XML » avec transposition des RIB en BIC/IBAN, systématique à chaque ordre de paiements • Une transposition RIB en BIC/IBAN « one shoot » • Une transposition RIB en BIC/IBAN ponctuelle à la demande • … Ces services seront naturellement facturés ; d’où l’intérêt de voir apparaître de nouveaux acteurs, qui jouant sur un plus grand nombre d’opérations à traiter, pourraient proposer des conditions tarifaires plus avantageuses. INFORMATIONS Le bout en bout La directive de services de paiements, s’appuyant sur la résolution No 1781/2006, insiste sur la transmission intégrale des informations remises par le donneur d’ordre d’un bout à l’autre des systèmes des paiements. Ainsi, une référence, un libellé, etc. devront être acheminés de bout en bout jusqu’à leur destinataire. 314 Management des Technologies Organisationnelles : Journées d’Etude 2009 Les formats XML proposent des contenances de données plus larges, que les formats actuels (une référence XML peut contenir 35 caractères contre de 10 à 16 caractères actuellement, un libellé passe de 30 caractères à 140). C’est toute la chaîne de paiement – banque émettrice, réseau d’échange et intermédiaires, banque réceptrice – qui doit être en mesure d’assurer l’exigence de bout en bout. En effet, si un donneur d’ordre transmet à sa banque des ordres de paiement au format XML, celle-ci doit les acheminer vers les réseaux d’échanges qui relaient l’information vers les banques bénéficiaires. Ces dernières ont l’obligation de recevoir ces opérations et d’informer leurs clients, bénéficiaires de ces paiements, de leur arrivée. Si elles ou leurs clients ont conservé les formats actuels dans la relation B/C, la transposition, effectuée à partir des formats XML, tronquera inévitablement certaines données. Le SDD : la gestion des mandats Le SEPA Direct Debit (SDD), le prélèvement SEPA, modifie la gestion des autorisations, telle que pratiquée actuellement en France. Le mandat résulte d’un contrat entre un créancier et son client ; il est à l’initiative du créancier de fournir les éléments nécessaires conformes à la demande de prélèvement. Le créancier doit informer son client de chaque échéance, au minimum 14 jours avant le terme. Le SDD transporte les informations relatives au mandat, a priori accepté par le client. La banque du débiteur, client du créancier, doit informer son client de l’arrivée sur son compte d’un prélèvement 2 jours avant son échéance. Le client peut signaler, avant le terme et pour quel que motif que ce soit, le refus de ce prélèvement. Ce refus n’a valeur que pour l’échéance en cours et la banque du débiteur se doit de l’accepter, de retourner le prélèvement à la banque du créancier, et de ne pas imputer le montant du prélèvement sur le compte du débiteur. Ce refus n’est pas une opposition systématique à tout prélèvement présenté par le créancier, mais relève uniquement d’une contestation ponctuelle, mais reconductible, sur une opération déterminée. La documentation SEPA Il est impossible de réunir l’intégralité de la documentation autour du SEPA en un seul document : elle représente plus de 1 Giga octet. En revanche, les liens ci-dessous peuvent vous orienter vers l’essentiel des documents nécessaires à l’appréhension de ce programme : • Le site d’European Payments Council (EPC) : • http://www.europeanpaymentscouncil.eu/index.cfm • Le site du Comité National SEPA Français : • http://www.sepafrance.fr/ En direct des laboratoires 315 Glossaire EPC European Payment Council - Conseil européen des Paiements PSD Payment Services Directive - Directive des services de paiement SEPA Single Euro Payment Area - Espace Unique de Paiement en Euro SCT SEPA Credit Transfer - Virement SEPA SDD SEPA Direct Debit - Prélèvement SEPA SCF SEPA Card Framework - Cadre général des cartes SEPA PSP Payment Services Provider - Fournisseur de services de paiements RB, IG Réglementation et guide d’implémentation des opérations SEPA REFERENCES BIBLIOGRAPHIQUES [1] DIRECTIVE 2007/64/CE DU PARLEMENT EUROPÉEN ET DU CONSEIL du 13 novembre 2007 concernant les services de paiement dans le marché intérieur, modifiant les directives 97/7/CE, 2002/65/CE, 2005/60/CE ainsi que 2006/48/CE et abrogeant la directive 97/5/CE (Texte présentant de l'intérêt pour l'EEE) (Version anglaise et française) [2] RÈGLEMENT (CE) No 1781/2006 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 15 novembre 2006, relatif aux informations concernant le donneur d’ordre accompagnant les virements de fonds [3] RÈGLEMENT (CE) No 2560/2001 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 19 décembre 2001 concernant les paiements transfrontaliers en euros [4] Rapport 196, fait devant le SENAT, le 31 janvier 2007, par le Sénateur M. Philippe MARINI, sur la proposition de directive concernant les services de paiement dans le marché intérieur. [5] World Payment Report 2006, document collégial entre ABN AMRO, CAPGEMINI et l’European Financial Management and Marketing Association (EFMA) [6] L’espace unique de paiements en euro (SEPA), Un marché intégré des paiements de détail, Banque Centrale Européenne [7] Annonce presse, faite par l’European Payment Council (EPC), sur le lancement du SEPA CREDIT TRANSFER (SCT), le 28 janvier 2008 [8] Le Guide du SEPA, Guide gestion de projet en Entreprise, document collégial, édité par MERCATEL [9] Impact des règlements européens sur les modalités d'utilisation de l'IBAN et du BIC, Fédération Bancaire Française [10] Migration vers les paiements SEPA : Recommandations à l'intention des donneurs d'ordres pour la migration de leurs fichiers de RIB vers les couples IBAN + BIC correspondants, Fédération Bancaire Française [11] Document de l'EPC intitulé "SEPA countries and SEPA transactions, Fédération Bancaire Française [12] Register of European Account Number, European Committee for Banking Standards 316 Management des Technologies Organisationnelles : Journées d’Etude 2009 En direct des laboratoires 317 Les conditions de réussite d’un Projet PGI / ERP Marie-Françoise COMBAZ Consultante MFC Consultant / Clapiers RESUME Un projet ERP intervient dans la mise en œuvre d’une stratégie d’entreprise : il s’agit de passer des objectifs de la direction, fil conducteur du projet tout au long de son déroulement, à des objectifs opérationnels clairs, si possible quantifiables. Les enjeux pour l’entreprise sont multiples : gestion de l’information, efficacité et qualité dans l’exercice du métier, responsabilité des personnels, relation avec les partenaires, etc. L’élaboration des scenarii envisageables doit ainsi prendre en compte la réalité de l’entreprise dans toute sa complexité. Le choix final implique donc non seulement celui d’un outil, mais également des décisions dans de nombreux domaines (technologies, finances, RH, management, …) dont l’impact sur la vie de l’entreprise est crucial, voire vital. INTRODUCTION Qu’est-ce qu’un ERP ? Deux sigles : ERP = Enterprise Resource Planning, PGI = Progiciel de Gestion Intégré. Définition : Outil permettant la gestion informatisée des grandes fonctions de gestion de l’entreprise, en s’appuyant sur une base de données unique. Vue la couverture croissante des fonctions, et la multiplicité des traitements qu’il propose, l’ERP est au cœur du système d’information (SI) de l’entreprise. 318 Management des Technologies Organisationnelles : Journées d’Etude 2009 L’intérêt majeur d’un ERP est lié au fait qu’il s’appuie sur une base de données unique : les informations saisies une fois sont potentiellement disponibles pour toute autre opération s’y référant. Les conséquences : • Gain de temps de saisie, • Qualité des informations, • Disponibilité des informations pour traitements ultérieurs (transformation d’un devis en commande par exemple) • Possibilités de croisements, de rapprochements, d’extraction pour un contrôle de gestion affiné ou une aide à la prise de décision. L’ERP, progiciel* paramétrable pour être adapté aux besoins de diverses entreprises, est aujourd’hui la solution de référence. Quelques caractéristiques d’un projet ERP : • Un coût élevé, demandant un investissement financier important, et justifiant donc l’attente d’un retour sur investissement ; • La modification des procédures et ses conséquences : réorganisation, formation du personnel, • Il est gourmand en temps, et risque de détourner le personnel de ses tâches habituelles. Le projet ERP en soi affecte donc profondément le fonctionnement de l’entreprise. Des échecs Les échecs complets d’un projet ERP sont rares, mais existent. Les principaux risques : • Un risque juridique, • Le risque fonctionnel lié au choix de la solution, • Le risque fonctionnel lié à un défaut de paramétrage, • Une sous-utilisation par rapport aux prévisions, • Un dérapage des délais et de la charge de travail, • Un dérapage financier. Les 4 derniers risques sont principalement liés à la méthode utilisée pour mener le projet. Le diagnostic des causes suite à des années d’expertises judiciaires, d’expertises pour le compte des DRIRE, ou d’OSEO, et de conseil : • Une étude des besoins mal orientée, ou biaisée par des idées a priori, et donc des solutions inadaptées au contexte général de l’entreprise, • Une sous-évaluation de la charge de travail interne. En direct des laboratoires 319 Quelle méthode appliquer ? L’objet du propos est donc d’étudier en quoi l’alignement stratégique du projet ERP est une condition indispensable pour piloter un projet ERP. Les exemples donnés ont été rencontrés lors d’accompagnements de projets ERP dans des PME. DE L’ALIGNEMENT STRATEGIQUE … L'alignement stratégique du système d'information est le fait de mettre en cohérence la stratégie du système d'information avec la stratégie d'entreprise et de la planifier dans une perspective pluriannuelle (Définition donnée par le CIGREF dans son étude de 2002). La stratégie de l’entreprise va donner une vision à moyen et long terme de l’entreprise : elle définit des objectifs (chiffrés ou non) et des moyens qui donnent des orientations pour l’activité de l’entreprise. Elle est ancrée dans le métier de l’entreprise. Il s’agit donc de traduire les objectifs stratégiques liés au métier de l’entreprise en objectifs pour le SI. Des objectifs Des orientations fortes Les objectifs stratégiques vont donner des contraintes qui vont définir un premier niveau d’orientations des caractéristiques générales du SI à construire : Ex : Une croissance de x M€ par une implantation dans tels pays, par création d’antennes locales : • le mode web peut être intéressant, peu coûteux … • les outils doivent être multilingues, et même complètement régionalisés ou localisés (adaptation à la culture des pays, en particulier aux comptabilités et règles financières locales), • … Ex : S’imposer sur un marché en rachetant certains concurrents : pose la question de l’interopérabilité* des SI des différentes structures. Des objectifs opérationnels Les objectifs stratégiques seront traduits en objectifs opérationnels, si possible quantifiés par des indicateurs de performance : 320 Management des Technologies Organisationnelles : Journées d’Etude 2009 Premier exemple : « Améliorer de 15% la rentabilité de l’entreprise sur 2 ans » Sera traduit par : • Améliorer le taux de réussite des devis : passer de 30% à 45% • Diminuer les coûts de revient de 5% par an, • Réduire le volume des stocks de 5% la 1ère année, puis de 15 % l’année suivante, • … Le point commun : on attend du SI qu’il donne les informations les plus pertinentes pour la prise de décision. Un ERP a capacité à donner quasiment toute information. Tous proposent des tableaux de bord multiples. Mais chaque entreprise, en fonction de son métier, de ses méthodes de gestion interne, et de ses objectifs, devra définir quelle est l’information pertinente pour chacun des postes de décision. Un des axes essentiels de la préparation d’un projet ERP est donc de : • Définir les informations pertinentes, les analyses nécessaires, leur fréquence, … • Définir les règles de gestion nécessaires à l’élaboration des informations pertinentes • Définir les données nécessaires au calcul, et leur origine, • Rendre ces données disponibles et fiables : question de la saisie, du traitement, … • Calculer les valeurs initiales et préciser des valeurs objectifs raisonnables Dans les PME, on constate que le chef d’entreprise qui annonce comme objectif premier la baisse des coûts de revient ne sait pas toujours comment les calculer si ce n’est via la comptabilité analytique (quand elle est en place). Or cette vision financière de l’entreprise ne permet pas de diagnostiquer les sources possibles de gains de productivité par exemple, de connaître la rotation des articles en stock, … Un ERP, par la gestion de production, la gestion des stocks, … le permettra. Parallèlement au projet ERP, un travail doit donc être réalisé en interne pour analyser la structure des coûts de revient, construire les règles de gestion à partir des méthodes classiques (ABC, …). Ce n’est pas la société de service qui arrivera pour implanter l’ERP qui y répondra … Décliner les objectifs stratégiques permet de définir les informations à traiter, et les règles de gestion associées : saisie, traitements, calculs, validité, … En direct des laboratoires 321 Un projet ERP entraîne l’ouverture de projets parallèles. Deuxième exemple : « Faire face à une augmentation de l’activité de 15% par an, sans augmenter la charge en personnel ». Cet objectif sera traduit par : • Avoir recours à la sous-traitance pour les taches à faible valeur ajoutée, • … • Améliorer les processus, • Optimiser les traitements. Là s’ouvre tout un champ de réflexion, au cœur de tout projet ERP : la cartographie des processus est une des étapes classiques, quasi incontournable. Mais décrire les processus est une chose, les optimiser en est une autre. Le travail à mener est important. On peut alors se poser la question des processus les plus porteurs de valeur : c’est cette question qui permettra de concentrer l’étude sur les processus les plus sensibles, souvent les plus spécifiques au métier de l’entreprise. De la même manière, un travail approfondi d’analyse des pratiques, tenant compte de tous les cas particuliers, pourra déboucher à une réelle optimisation des traitements, et à la rédaction des procédures. Décliner les objectifs ouvre le champ de la réingénierie des process, de l’organisation, et de manière plus large de la gestion du personnel sur le poste de travail. Décliner les objectifs stratégiques permet de concentrer l’étude sur les questions les plus pertinentes pour la création de valeur. Le cahier des charges pourra se concentrer sur les processus les plus spécifiques au métier et à la culture d’entreprise. Des contraintes techniques sous influence S’ajouteront des objectifs qu’on peut considérer a priori comme strictement liés au SI, mais ils découlent en fait eux aussi de la stratégie générale de l’entreprise. En matière de qualité et de sécurité du SI par exemple : Les normes américaines Food and Drug Administration imposent aux entreprises d’apporter la preuve de la justesse des données à tout moment. D’où 322 Management des Technologies Organisationnelles : Journées d’Etude 2009 la mise en place de procédures de vérification régulière des données, d’analyse des règles de calcul, … qui visiblement n’avaient jamais été demandées à l’éditeur de l’ERP installé. On est loin des procédures habituelles de recette. Et des moyens Financiers Le financement est le moteur indispensable à la mise en œuvre d’une stratégie. Et pourtant, dans les PME : • il y a rarement une évaluation prévisionnelle d’un budget pour un projet ERP ; • Les budgets n’intègrent pas toujours la charge interne de l’entreprise ; • Les budgets évaluent rarement le retour sur investissement, les gains à venir ; • Le financement n’est pas intégré comme une charge revenant à l’entreprise, comme celui d’un investissement dont on attend un vrai retour. Toutes étapes indispensables dans la préparation d’un projet ERP. Humains La mise en œuvre d’un ERP demande en général de la formation, du paramétrage, du travail pour effectuer la recette, les reprises de données et saisies pour l’initialisation de la base de données. De manière générale, on considère qu’il y a un rapport de 1 à 3 ou 4 entre les interventions des sociétés externes et la charge interne de l’entreprise. Par ailleurs, on a vu que l’étude révélait des champs complets de réflexion qui généraient des sous-projets qui devront être menés en parallèle avec le projet ERP. Ceux-là sont rarement pris en compte. Techniques Les technologies évoluent très rapidement, et cette évolution même permet d’intégrer dans le projet une vision prospective de l’entreprise : comment imagine-t-on l’entreprise, son fonctionnement interne, ses communications avec les tiers ? S’il est indispensable d’élaborer une stratégie de SI à partir des acquis de l’entreprise, en matière de technologies et de savoirs-faires dans ce domaine, il est tout aussi indispensable d’oser imaginer des solutions nouvelles qui seront certainement banalisées d’ici quelques années. En direct des laboratoires 323 … A LA CONSTRUCTION D’UN SCENARIO ADAPTE Le scénario élaboré à l’issue de l’étude de faisabilité présente un plan d’actions permettant la mise en production du projet, la mise en œuvre de l’ERP choisi : les étapes, les méthodes, les moyens pour arriver au but. Ce dernier a été défini par un Schéma Directeur Informatique et de Communication qui décrit le SI objectif, et toutes les règles d’urbanisation*. Face à la multiplicité des questions abordées par un scénario, nous retenons 3 règles complémentaires à celles qui président à la construction d’un scénario. Un scénario global et évolutif La conception du scénario est souvent pilotée par des « informaticiens » qui privilégieront l’aspect technique. Notre réflexion sur l’alignement stratégique et son impact sur un projet ERP amène à 2 conclusions : • Le scénario doit intégrer les sous-projets répondant aux divers problèmes soulevés lors de l’analyse des objectifs ; • Certains de ces sous-projets demandent des mises en tests, entraînent des retours sur les objectifs, … et sont menés autant pendant l’étude de faisabilité que pendant la mise en œuvre. Cela signifie qu’un premier scénario doit être écrit en amont du projet, intégrant les sous-projets induits par le projet ERP, suite à un premier diagnostic sur les objectifs stratégiques et leur déclinaison. Le scénario final devra intégrer les aspects non techniques que l’entreprise est la seule à pouvoir maîtriser. Il devra également rester ouvert à des modifications sensibles qui apparaîtront au fur et à mesure de l’avancement des diverses parties du projet. La gestion des priorités Elle doit être réalisée à partir de 2 questions centrales : • Quels sont les objectifs prioritaires retenus, à partir de l’analyse des objectifs stratégiques, et de leur décomposition en objectifs opérationnels ? Quels sont les délais qu’ils imposent ? • Quelles sont les étapes ou fonctions à traiter qui permettront de faire gagner du temps au plus vite, afin de dégager du temps pour le personnel appelé à travailler sur des étapes ou fonctions plus sensibles et plus gourmandes ? 324 Management des Technologies Organisationnelles : Journées d’Etude 2009 Les réflexions sur les objectifs prioritaires et sur l’urgence de dégager du temps piloteront la construction du planning, en complément des questions habituelles sur les étapes et leur durée. Gérer les ressources et accompagner le changement Le projet pose de multiples questions : • Le partage de l‘information ne risque-t-il pas de déstabiliser certains acteurs précédemment détenteurs d’un savoir-faire, ou qui constituent un point de passage obligé ? • Les nouveaux outils modifient les habitudes, et il y a toujours des freins au changement, • … On a constaté qu’un projet ERP est central, mobilisateur de ressources importantes, qu’il aura une influence sur l’ensemble de la vie de l’entreprise. Où trouver ces ressources ? Comment mobiliser du personnel sans détourner l’entreprise de son métier, et altérer ses résultats ? Les solutions sont diverses, liées à chaque entreprise, mais doivent intégrer quelques principes : • Le projet a besoin de personnes clefs, des experts de chaque fonction de l’entreprise ; ce sont donc des responsables qui devront être déchargés d’une partie de leurs tâches quotidiennes ; • Il y a un vrai danger de trop s’appuyer sur le consultant, qui ne doit pas être le seul à maîtriser les questions clefs qui donneront lieu à des décisions sensibles pour l’entreprise. La seule solution est donc d’en faire un projet d’entreprise à part entière, et de ne jamais sous-estimer l’impact qu’il aura pendant la phase de mise en œuvre, et après la mise en exploitation. CONCLUSION Nous constatons une tendance de la part des chefs d’entreprise de traiter un projet ERP comme une entité indépendante de la vie de l’entreprise, un problème technique. Or, nous l’avons vu, au minimum un projet ERP est l’occasion de dérouler les orientations stratégiques, d’en préciser toutes les exigences et toutes les conséquences. L’alignement stratégique de l’ERP, et plus largement du SI, est une condition indispensable pour pérenniser l’investissement que représente le projet, et le transformer en véritable outil au service de la stratégie. En direct des laboratoires 325 Ajoutons enfin que les résultats obtenus en cours de projet et en phase d’exploitation vont souvent au-delà des attentes … jusqu’à infléchir certaines orientations initiales. Il semble donc logique d’avoir une démarche alternant les phases descendantes et ascendantes entre stratégie d’entreprise et stratégie du SI, et d’intégrer le SI dans la stratégie d’entreprise. LEXIQUE Progiciel : « Un progiciel est un logiciel commercial vendu par un éditeur sous forme d'un produit complet, plus ou moins clés en main. Le terme résulte de la contraction des mots produit et logiciel (mot-valise). Plus récemment sont apparus des progiciels libres, développés par des communautés d'utilisateurs. ». Définition donnée dans Wikipedia, ainsi que l’origine du mot créé par Jean-Erick Forge, fondateur du CXP (Centre d'eXpertise des Progiciels - http://www.cxp.fr). http://fr.wikipedia.org/wiki/Progiciel Interopérabilité : « Capacité à rendre compatibles deux systèmes quelconques. L'interopérabilité nécessite que les informations nécessaires à sa mise en œuvre soient disponibles sous la forme de standards ouverts. ». Définition donnée dans Wikipedia http://fr.wikipedia.org/wiki/Interop%C3%A9rabilit%C3%A9_en_informatique Urbanisation : C’est le fait d’ « organiser la transformation progressive et continue du système d’information visant à le simplifier, à optimiser sa valeur ajoutée et à le rendre plus réactif et flexible vis à vis des évolutions stratégiques de l'entreprise, tout en s'appuyant sur les opportunités technologiques du marché. » Définition donnée dans Wikipedia, par le Club Urba-EA. L’urbanisation « définit des règles ainsi qu'un cadre cohérent, stable et modulaire, auquel les différentes parties prenantes se réfèrent pour toute décision d'investissement dans le système d’information. » http://fr.wikipedia.org/wiki/Urbanisation_du_syst%C3%A8me_d'information REFERENCES BIBLIOGRAPHIQUES Publications du CIGREF (Club Informatique des GRandes Entreprises Françaises) : 2002 : Alignement stratégique du SI 2007 : Plan stratégique du SI 326 Management des Technologies Organisationnelles : Journées d’Etude 2009 2008 : Dynamiques de création de valeur par les Systèmes d’Information (en collaboration avec et McKinsey et Company) http://cigref.typepad.fr/cigref_publications/ Hugues Jean, Grimal Michel et Leblanc Bernard – 1990 - Merise, vers la conduite de projet Dunod Informatique – 165 p. Collectif Harvard Business School Press – 2000 - Harvard Business Review : La chaîne de valeur – Editions d’Organisation - 328 p. En direct des laboratoires 327 Une étude sur des effets de la technologie informationnelle dans le secteur hospitalier Irène GEORGESCU ERFI-ISEM / Université de Montpellier GSCM / Montpellier Business School RÉSUMÉ Le plan hôpital 2007 prévoit la mise en place de la tarification à l'activité fondée sur une technologie existante, le e-PMSI, et exigeant la réorganisation de la structure par pôles d'activités dont la rentabilité est mesurée par le PMSI. L'objectif est d'accroître le bénéfice de chaque pôle en tarifiant au plus juste les actes pratiqués. Inspiré du modèle anglo-saxon, cet outil informationnel s'accompagne de nombreux effets comme le maintien d’un slack budgétaire, ou encore de la création de nouvelles fonctions pour le médecin. La contribution proposée aura pour objet de proposer une analyse des effets de cette technologie organisationnelle au travers d'une note de recherche. INTRODUCTION La technologie fait l’objet de nombreuses recherches suite à l’identification de son impact sur la structure de l’organisation par Woodward (1958, 1965). Depuis les années 1970, la technologie joue un rôle actif à la fois dans le management de l’organisation, la prise de décision, l’appréhension de l’environnement mais aussi dans la performance de la structure (Gillepsie et Mileti, 1977). Bien qu’un grand nombre d’études se concentrent sur le secteur privé afin de comprendre les effets de la technologie organisationnelle (Daft, 2001), il n’en 328 Management des Technologies Organisationnelles : Journées d’Etude 2009 demeure pas moins que le secteur public est également concerné par ces dernières. Les organisations publiques doivent aujourd’hui être pilotées en tenant compte de contraintes budgétaires imposées par l’Union Européenne. En effet, dans un contexte de régulation des déficits budgétaires, le Pacte de Stabilité et de Croissance a conduit naturellement les gouvernements à établir de nouvelles règles visant à diminuer les dépenses publiques. L’introduction de la loi organique relative aux lois de finances (LOLF), dès le budget 2006, instaure plus de transparence et de flexibilité permettant de moderniser la gestion publique dans une logique de performance. Ces nouvelles exigences se combinent, dans le milieu hospitalier, à des contraintes spécifiques au secteur d’activité. Un certain nombre de constats financiers comme les coûts croissants des soins liés aux innovations technologiques, et sociaux -vieillissements de la population, apparition de nouveaux pauvres, importance de l’hôpital public pour les personnes en état de précarité- montrent la nécessité de mettre en place de nouvelles réformes au sein des structures hospitalières afin de contrôler les dépenses et d’améliorer la rentabilité de l’organisation. De plus, les objectifs in fine sont non seulement de responsabiliser les acteurs de santé à l’hôpital, mais également de permettre à l’organisation hospitalière de bénéficier d’une autonomie de gestion, où la centralisation cède la place à la décentralisation du pouvoir grâce à la création d’unités indépendantes au sein de l’hôpital appelées pôle d’activité. L’hôpital doit devenir une entité autonome tant dans son organisation de service que dans son volume d’activité en se rapprochant du modèle de gestion du secteur privé (Abernethy et Chua, 1996). Aussi, de nombreuses interrogations ont motivé ces réformes : comment optimiser l’allocation des ressources de santé, comment permettre aux médecins de devenir des managers, comment concilier les exigences contradictoires, celle du soin et de l’économie de ressources, quel outil introduire pour assurer une lisibilité des dépenses de santé et permettre un remboursement par les organismes sociaux ? S’inspirant du modèle anglo-saxons, la France va procéder à une refonte de la logique hospitalière afin d’entrer dans le cadre du nouveau management public (Ferlié, Ashburner, Pettigrew et Filtzgerald, 1996). Dès les années 1980, la majorité des pays anglo-saxons, ont tenté d’améliorer la lisibilité, l’efficacité et la performance de la gestion des établissements de santé grâce à la mise en place de Diagnosis Related Groups (DRG). Elaboré par Pfeffer (1980), cet outil d’information permet de coder un type de diagnostic et fixe ainsi un mode de remboursement par patient hospitalisé. Une classification s’effectue par groupes réputés « médicalement cohérents » et « isoressources » consommées afin d’identifier au plus juste le En direct des laboratoires 329 coût de l’acte médical pratiqué. L’introduction de cette technologie de l’information permet à l’établissement de santé d’identifier clairement le coût des prestations médicales, de quantifier l’utilisation des ressources de l’hôpital, de fournir une base pour évaluer les services de soins (Fetter et al, 1991) et de ce fait de permettre un pilotage du centre de santé. C’est pourquoi, la France transpose les DRG en Programme de Médicalisation des Systèmes d’Informations (PMSI) et crée les départements d’informations médicales (DIM) par la circulaire n° 303 du 24/07/1989. Initialement maîtrisé et utilisé par le DIM comme instrument médicoéconomique, le PMSI permet de décrire l’activité des établissements, de comparer dans le temps et l’espace les établissements, de confronter l’activité aux ressources en rapprochant les données comptables et médicales. Toutefois, la généralisation du e-PMSI en 2004 et le transfert de la cotation du DIM aux médecins afin de les sensibiliser aux coûts des actes, sont les prémices de nouvelles logiques. Associé à la réforme de la tarification à l’activité (T2A) effective depuis 2007, le support informationnel PMSI devient primordial. En effet, l’introduction de ce nouveau mode de financement de l’hôpital alloue des ressources aux établissements de santé en fonction de la nature et du volume de l’activité qu’ils réalisent. L’activité est mesurée sur la base du PMSI permettant le codage des diagnostics et actes pratiqués. De plus, la T2A assure le passage d’une logique financière et comptable fondée sur la dotation globale à une logique de projets liés aux besoins de l’établissement. Il ne s’agit plus, avec le PMSI, de moduler le taux d’évolution de la dotation globale mais bien d’en faire un pilier de financement de l’hôpital et de développement de projets ou secteurs. L’intérêt pratique de l’impact de cette technologie prend ainsi tout son sens pour cette organisation. De nombreux travaux sont menés afin de déterminer les contours du terme technologie organisationnelle. En effet, les chercheurs montrent que ses effets sur la structure sont fonction de la manière dont on définit le concept (Rainey, 2003 ; Tehnari, Montanari et Carson 1990). Scott (1998, p 228) propose de comprendre ce concept comme le travail réalisé par l’organisation « work performed by an organization », concept multidimensionnel (Gillepsie et Miletti, 1977). Le terme technologie organisationnelle regroupe ainsi un ensemble d’outils, technologies, démarches intellectuelles et connaissances (Hulin et Roznowski, 1985 : p 47) nécessaires à la compétitivité et la performance de l’organisation. Concept flou, la performance comprend quatre axes (Sicotte et al, 1998) : l’accomplissement des objectifs (production de services), les relations humaines 330 Management des Technologies Organisationnelles : Journées d’Etude 2009 (climat social et personnel), un système ouvert sur l’environnement (patient et familles) et une orientation vers le processus interne (qualité des soins). Le PMSI s’intègre à la technologie organisationnelle car il est à la fois un outil informatique mobilisant les acteurs de santé mais aussi un système d’information à partir duquel les ressources futures de l’hôpital sont allouées. Une interrogation peut alors être soulevée : est ce que la mise en place de cet outil dans une logique de valorisation de l’activité, permet d’améliorer la performance de l’hôpital ? Bien que son application, en sens, soit récente en France (2007), de nombreux effets sont mis en lumière dans les pays anglo-saxons. Aussi nous tenterons, dans cette contribution, d’évoquer les effets de cette technologie organisationnelle au travers des travaux réalisés aux Etats –Unis, Australie, Norvège et Hollande dans lesquels un système identique est en place. DES AVANCEES NOTABLES Une traçabilité des coûts et un pilotage améliorés Jusqu’à la mise en œuvre du plan « Hôpital 2007 », l’hôpital participant à une mission de service public est financé par une enveloppe globale annuelle rendant opaque la mesure de la rentabilité de chaque service. Le budget global faiblement lié à l’activité et systématiquement reconduit permet aux structures les moins actives de maintenir le même niveau de ressources. Aussi, aucune structure n’a intérêt à développer son activité : l’enveloppe demeure la même, les coûts augmentent, créent des déficits et diminuent de ce fait le slack organisationnel (Cyert et March, 1963). Afin de pallier aux effets pervers de ce système, un nouveau mode pilotage est tourné vers l’activité mesurée sur la base de données du PMSI. Le PMSI contient des groupes homogènes de malades (GHM) constitués de groupes homogènes de séjours (GHS) auxquels sont associés un tarif. L’élaboration de ce tarif nécessite l’identification de tous les coûts concourant à la production de service. Basé sur la technique des coûts complets, le PMSI, identifie comme charges directes l’ensemble des charges relatives aux médicaments, services médico-techniques (unités d’hospitalisation, radiologie, laboratoire..) et comme charges indirectes celles concernant les services administratifs (direction générale, service du personnel…). Ainsi, le GHS est un forfait qui regroupe les prestations hôtelières (prix de la journée, admissions) ; les prestations d’environnement technique (forfait de salle d’opération, anesthésie). Le mode de calcul des DRG est similaire, il est basé sur les ressources consommées, les heures de travail des infirmières, médecins, les tests En direct des laboratoires 331 laboratoires et médicaments. Cette quantification des ressources de l’hôpital fournit une base d’évaluation des services de soins (Fetter et al, 1991). Elle permet par la suite d’avoir une vision des coûts - recettes de chaque service, de prendre des mesures correctives pour pallier aux déficits. Une nouvelle politique de l’organisation ciblée sur l’approche volumique, quantitative des soins se développe. L’idéologie du secteur de la santé se modifie, la régulation par le marché devient prédominante. Le climat compétitif entre établissements de soins à buts lucratifs s’accentue et rend nécessaire l’adaptation des hôpitaux à buts non lucratifs. Les hôpitaux à buts non lucratifs optent pour des stratégies d’isomorphisme (Di Maggio et Powell, 1983) en suivant les modèles pratiqués par les centres de soins à buts lucratifs ce qui intensifie le climat de compétition régnant dans le marché de la santé (Takagi, 2006). Alexander et al (1988) montrent que les structures à buts non lucratifs sont davantage orientées commercialement dans leur structure. Il ne s’agit plus de soigner sans compter mais prendre conscience qu’il faut être rentable, et proposer des soins performants. La culture de l’organisation de santé se transforme (Mick 1990). Le secteur non lucratif devient même un terrain d’expérimentation pour les organisations lucratives. Ainsi, Schlesinger et al (1987) lors une étude comparative entre centres de soins lucratifs et non lucratifs, découvrent que les structures publiques hébergent des services ou pratiques non lucratives jusqu’au moment où leur rentabilité est avérée. Une organisation à but lucratif apparaît alors pour développer les techniques innovantes mises en place dans la structure à but non lucratif. L’hôpital public est un terrain de contribution pour l’amélioration des coûts des soins dispensés et de ce fait un terrain d’apprentissage des technologies organisationnelles. La création d’un nouveau rôle pour le médecin La mise en place de technologies organisationnelles passe nécessairement par une nouvelle coordination du travail, une adaptation des ressources humaines et le développement de nouvelles compétences. Dans le milieu hospitalier, les fortes dépenses et un budget médical mal contrôlé justifient la montée en puissance de l’administration, le passage d’une dominance professionnelle à une ère managériale (Takagi, 2006). L’émergence de cette nouvelle logique accentue l’incompatibilité des intérêts entre médecins et managers (Leicht et Fennell, 1997) « mettant parfois à mal le serment d’Hippocrate » (Takagi, 2006). Le médecin a pour mission d’apporter au 332 Management des Technologies Organisationnelles : Journées d’Etude 2009 patient la meilleure qualité des soins, l’administratif aspire à réduire les dépenses en utilisant par exemple, les moyens de soins les moins chers ou en augmentant le taux de rotation des patients pour bénéficier d’un remboursement maximal. En ce sens, une étude HCFA de 2001 démontre qu’avant la mise en place de la tarification à l’acte, le délai de moyen d’hospitalisation est de 10 jours, contre 7,1 jours, une fois la tarification instaurée. Le médecin est également un acteur particulier car il appartient à une profession dont les valeurs sont fortes (Hall, 1973). Les attributs de sa fonction sont : • l’appartenance et la reconnaissance d’un ordre professionnel comme société savante, référence majeure ; • la croyance en un service orienté vers le patient quelque soit son statut social ou économique ; • l’acceptation de l’évaluation du travail par ses pairs qui sont les seuls à disposer d’une expertise et légitimité; • la vocation pour cette profession ; le sentiment d’avoir choisir ce domaine d’activité. Aussi, le médecin a deux implications (Hafferty et Light 1995): une implication professionnelle, « attachement qu’a l’individu envers sa profession » (Lee et al, 2000) qui est liée à sa fonction mais aussi une implication organisationnelle « interaction entre l’individu et son organisation » (Thévenet, 1992) comme tout membre d’une organisation. Quelques travaux ont été réalisés afin de déterminer, en fonction du type de structure quels étaient leurs niveaux et type d’implications chez le médecin. Dans le cas où le médecin travaille dans une structure à but non lucratif son l’implication organisationnelle est plus forte que dans le cas où son exercice s’effectue dans une structure cherchant à maximiser son profit. Ce résultat est motivé par la convergence des valeurs existants entre structure de soins à but non lucratif et valeurs médicales (Lawrence,Mattingly, Ludden, 1997 ; Kuttner, 1998). La financiarisation de cette l’activité s’accompagne d’une implication organisationnelle calculée, fondée sur un système de contribution- rétribution, plus forte et d’une implication affective plus faible envers l’organisation. De plus, l’avènement du PMSI et de la tarification à l’activité accentuent la logique comptable dans les hôpitaux et conduit à des conflits de rôles chez le médecin entre sa fonction de soignant et sa responsabilité économique dans la prescription médicale. Cependant il semble que ce conflit, notamment dans le cadre budgétaire ne soit pas inévitable (Comerford et Abernethy, 1999). En effet, pour Vladek (1984), la mise en place d’un nouveau système de pilotage hospitalier vise non En direct des laboratoires 333 seulement à changer le mode management de l’institution mais aussi à changer la relation entre médecin et managers. Dans la logique de décloisonnement des activités, la T2A appelle une réflexion commune entre gestionnaires et praticiens. La finalité est d’associer le médecin à la gestion de l’établissement pour permettre une meilleure allocation des ressources (Cauvin et Coyaud, 1990, p 193) et de mettre en place des outils de pilotage médico- économiques afin d’assurer au centre hospitalier un bénéfice. De nombreuses recherches (Scott, 1966 ; Hall ,1967 ; Copur 1990) exposent l’existence de conflits lorsque les spécialistes sont engagés dans un processus de contrôle budgétaire. Une solution émerge : afin d’éviter les tensions, il suffit d’éviter la confrontation entre spécialistes et système de contrôle administratif, ce qui restreint leurs champs d’action (Abernethy et Stoelwinder 1990). Pourtant, les travaux d’Abernethy et Stoelwinder (1995) montrent qu’aujourd’hui la performance de l’hôpital passe par l’intégration des professionnels de santé dans le management de l’organisation en les impliquant au processus budgétaire. Ils ont une capacité à endosser les responsabilités de managers d’unités opérationnelles (Abernethy et Vagnoni, 2004). Les médecins managers sont appréciés car ils ont un potentiel pour poser les piliers de l’ère managériale à l’hôpital (Schneller et al, 1997): ils possèdent à la fois la compétence du monde médical dans le sens où ils maîtrisent ce langage, appartiennent à l’ordre des médecins, mais ils sont également sensibilisés aux exigences de pilotage associées aux contraintes de coûts (Dunham, Kindig et Schultz 1994). Leur crédibilité est fondée sur leur expertise professionnelle mais aussi sur leur fonction de liaison entre médecin et organisation ; ils bénéficient ainsi d’une double légitimité, l’une associée au monde professionnel, l’autre associée au monde administratif (Hafferty et Light 1995, Hoff 1999). Cette double légitimité permet au médecin manager de devenir le lien, l’interface entre le monde médical et le monde administratif. C’est en ce sens que le découpage de l’organisation en pôle trouve son intérêt et la création d’une nouvelle compétence est nécessaire, celle du médecin manager, chef de pôle. Pour les médecins endossant ces nouvelles responsabilités, le passage du statut de soignant à celui de manager engendre des difficultés, des doutes sur soi (Hoff, 1999). Il semble que cela soit contingent à divers facteurs. On peut citer tout d’abord le climat positif de travail (Mathieu et Zajac, 1990). Le climat de travail est primordial, il va déterminer la réussite ou l’échec de l’hybridation de la fonction de médecin. En effet, l’endossement de nouvelles responsabilités peut s’accompagner de réaction négative de la part des collègues (Hoff, 1999). Egalement, l’âge du médecin est un facteur important. Pour les hospitaliers plus anciens, le management est un cap ou un complément dans leur carrière 334 Management des Technologies Organisationnelles : Journées d’Etude 2009 (Hoff, 1988, 1999). Leur implication organisationnelle liée à cette nouvelle attribution s’accroît (Comeford et Abernethy, 1999). Montgomery (1992) démontre que leur implication professionnelle se transforme en implication organisationnelle. Cette évolution les conduit à adapter leur loyauté en fonction des nouvelles sources de récompenses qui sont données par l’organisation, les éloignant de leur profession (Wallace, 1995). Enfin, le type et l’objet de l’organisation a un impact sur l’implication du médecins manager. L’implication professionnelle et organisationnelle peuvent être fortement compatible (Wallace, 1993).Dans les structures à but non lucratif, les médecins managers ne sont pas considérés comme étant en conflit avec les valeurs de la profession (Lawrence, Mattingly, Ludden, 1997 ; Kuttner, 1998). Ils peuvent cumuler implication professionnelle avec implication organisationnelle (Hoff, 2001) si l’organisation propose des opportunités de développement et si les valeurs de l’organisation de sont pas en conflits avec celles de la profession. En conséquence, les valeurs de l’organisation associées à une réorganisation des rôles et du pouvoir influencent l’implication de l’acteur de soins (Hackman et Oldman, 1980). Bien que l’introduction de la technologie organisationnelle ait des impacts favorables tant sur le plan du contrôle, du pilotage et des ressources humaines, certaines nuances sont à apporter : des problèmes demeurent non résolus, de nouveaux enjeux se profilent. DES AVANCEES A NUANCER L’existence de slack budgétaire La lisibilité dans le mode de financement de l’hôpital permet d’assurer une transparence dans l’attribution des ressources à chaque pôle. Cependant de nombreuses limites au PMSI existent : • l’exhaustivité de la cotation des actes n’est pas assurée, toutes les activités ne sont pas couvertes, • le mode de cotation n’est pas toujours adapté aux caractéristiques de la structure hospitalière, • l’outil de tarification est parfois douteux, les groupes homogènes de séjours sont inhomogènes en terme de coûts. De nombreuses études ont montré que l’on ne peut exclure un détournement de la tarification, de l’utilisation de l’outil, pour obtenir des ressources supplémentaires dans les hôpitaux publics et les hôpitaux privés. Sur ce point, le département des soins américains estime qu’en 1996, le mauvais codage des actes médicaux représente 14% des remboursements. En direct des laboratoires 335 Silverman et Skinner (2001) précisent que le surcodage des activités intervient dans 25% des hôpitaux publics et 32% des hôpitaux privés. Ce détournement du système d’information génère un surcodage, une pratique de mauvais codage et classification de données du patient pour recevoir de plus forts remboursements (Lorence et Richards, 2002), générant un biais budgétaire, voire un slack budgétaire dans le sens de montant alloué à une division au delà de ce qui lui est nécessaire (Merchant, 1985). Le « surcodage » est défini par Simborg (1981) comme un décalage volontaire et systématique dans les casemix reportés de l’hôpital, pour augmenter le remboursement. Les motifs de décalages proviennent soit de « caprices médicaux » soit de l’incertitude dans certains diagnostics. Toute nuance mineure de diagnostic ou d’imprécision dans le libellé, peuvent avoir des effets financiers majeurs sur le remboursement des DRG. En conséquence, il y a un maintien de l’asymétrie d’information dans le cadre de la théorie de l’agence (Fama et Jensen, 1976) entre l’hôpital, le médecin et la compagnie d’assurance maladie ou l’organisation gouvernementale responsable des remboursements. D’autres variables influençant le surcodage sont mises en lumière. Tout d’abord, les caractéristiques du marché des soins montrent que lorsqu’il est fortement dominé par des structures à but lucratif, le surcodage des actes survient plus fréquemment que dans les marchés marqués par des structures à buts non lucratif (Silverman et Skinner, 2004). On comprend aisément que le contexte de compétition entre les établissements est à la source de ce dysfonctionnement Ensuite, la situation financière ainsi que la taille de l’hôpital ont également un impact sur le surcodage : le surcodage est fortement corrélé par le partage de profit. Les hôpitaux qui sont en situation financière favorable sont plus motivés au surcodage (Silverman et Skinner, 2001). Toutefois on peut s’interroger dans ce cas si la relation n’est pas plus complexe : le surcodage est-il une conséquence d’une bonne santé financière de l’organisation ou est-il facteur d’amélioration de la situation financière ? De plus certains acteurs de l’organisation ont un impact sur le processus de surcodage. Dafny (2003) montrent que les grands hôpitaux financent des formations pointues aux administratifs chargés du codage des actes leur permettant d’anticiper les opportunités du système. La cotation n’est pas confiée aux médecins mais à des professionnels disposant d’une expertise dans le jeu de la cotation, d’une connaissance dans la manipulation des codes. Enfin, la complexité du système de codage s’accompagne d’une ambiguïté des critères de classification. Dans une étude comparative Steinbush et al (2007) montrent que les systèmes américain et australien peuvent être plus aisément biaisés que le système hollandais. Trois critères distinguent les deux systèmes. 336 Management des Technologies Organisationnelles : Journées d’Etude 2009 Le premier concerne l’exhaustivité : les systèmes de codage américain ou australien sont moins exhaustifs que le système hollandais (559 codes pour les USA, 665 pour l’Australie, 29 000 pour la Hollande). Plus le système de cotation est exhaustif, plus il est difficile de mal coder. Le second critère est temporel : le codage intervient après la sortie du patient aux Etats-Unis ou Australie rendant plus aisé de saisir les opportunités de surcodage alors qu’en Hollande, le processus de codification débute dès la première visite avec un spécialiste, permettant de suivre le patient dans tous les services de soins qui sont intervenus au cours du traitement. Dans le premier système, le changement de code est plus difficile qu’en Hollande qui attribue aux médecins une plus grande latitude dans les choix et décisions. Toutefois, un troisième critère, celui de la récompense, peut modérer cette proposition. Les spécialistes hollandais sont responsables du codage effectué, leur salaire dépend de leur activité, ils seraient ainsi plus enclins à pratiquer le surcodage qu’aux Etats-Unis et Australie où les médecins sont des salariés de l’hôpital. Un nouvel enjeu : la qualité des soins Dans une volonté de transparence et de performance tournée vers le patient, une procédure d’accréditation est imposée en France par l’ordonnance du 24 avril 1996. Cette procédure a pour objet d’évaluer la qualité d’un établissement hospitalier ou médico-social sur un ou plusieurs services ou activités. Trois grands axes sont privilégiés : le patient et sa prise en charge, le management et la gestion au service du patient, la qualité et la prévention. Issue du secteur de l’industrie, cette démarche qualité est une « variable discriminante sur le marché des soins hospitaliers » (Tanti-Hardouin, 2005), accentuant la concurrence entre les établissements hospitaliers. Mais on peut s’interroger sur sa portée pratique. En effet, les nouvelles logiques de management par les résultats et l’augmentation des contraintes budgétaires ne permettent pas d’exclure un impact sur la qualité des soins. Les études déjà menées aux Etats-Unis donnent des résultats contradictoires laissant penser soit que d’autres facteurs interviennent dans l’évaluation de la qualité, soit que la qualité doit être définie de manière plus large. Pour Manton et al (1993), la qualité des soins se reflète dans l’augmentation du taux de mortalité ou de réadmission à l’hôpital. Leurs travaux ne constatent pas de changement après l’introduction des DRG. Dans le même sens, Desharnais et al (1987) examinent le nombre de décharges signées depuis l’introduction du nouveau mode de financement de l’hôpital et confirment ces résultats sur les courts séjours malgré une augmentation observée des soins à En direct des laboratoires 337 domicile. Aussi l’introduction des DRG n’a a priori pas d’impact sur la qualité des soins. Néanmoins, une nouvelle stratégie apparaît pour certains hôpitaux. Certains établissements se spécialisent dans des DRG pour diminuer leurs coûts (Farley et Hogen, 1990) ce qui réduit l’offre de soins de ces organisations et leur permet d’être plus compétitif sur le marché de la santé. De même, pour diminuer les coûts afférents aux pratiques, des spécialisations et routines peuvent se développer afin d’augmenter la marge bénéficiaire (Guterman et al 1988, Farley et Hogen, 1990). On est face à une sélection indirecte de patients sur certaines pathologies jugées plus rentables pour la structure. De part leur mission de service public et d’accueil de tout profil de patient, les hôpitaux universitaires sont confrontés à un fort de taux de complications (Desharnais et al 1987). Cela peut se justifier par le fait que certains établissements cherchent à sélectionner les patients dont le coût du soin est inférieur au forfait, ou traiter certaines pathologies et ainsi à renvoyer les patients à l’hôpital public si la traitement est jugé non rentable ou en cas de complication. De manière plus globale, dans un contexte où la qualité risque de devenir un enjeu stratégique, un arbitrage entre coûts et qualité est à faire. Bien que l’objectif de l’ère managériale soit la réduction des coûts, William (1985) montre que la procédure qui coûte initialement le moins cher n’est pas nécessairement celle qui va fournir des résultats sur le long terme. Aussi un arbitrage doit être fait entre court terme et long terme : est ce que la prise en charge du patient aujourd’hui est optimale ou risque-t-elle de s’accompagner de complications prévisibles qui engendrent plus de dépenses ? En conséquence les effets de cette technologie organisationnelle demeurent discutables au regard de la qualité et de la prise en charge du patient. CONCLUSION Cette étude a tenté de démontrer que les effets des les technologies organisationnelles sont multiples. Dans le secteur français de la santé, où de nombreuses réformes voient le jour, le manque de recul ne permet pas d’analyser les conséquences du PMSI dans une logique de T2A et de performance. En revanche, appliquée aux Etats-Unis depuis les années 1980, cette technologie organisationnelle a donné lieu à des nombreuses analyses. Certains effets sont associés à une meilleure connaissance de l’organisation, une identification du processus de la production du service et de la consommation des ressources, de nouvelles stratégies pour les établissements de soins. 338 Management des Technologies Organisationnelles : Journées d’Etude 2009 L’émergence de nouvelles compétences et l’implication des acteurs accompagnent le développement du système d’information. D’autres effets plus préoccupant sont à soulever : maintien du slack budgétaire ne permettant pas un pilotage financier au plus juste, une qualité de la prestation discutable face aux contraintes financières pesantes, un risque de sélection indirecte des patients. Les limites de cette contribution sont nombreuses et peuvent faire l’objet de nouvelles recherches. On peut tout d’abord soulever le fait qu’il s’agisse d’une étude sur les effets constatés aux Etats- Unis, Australie et Hollande. Il sera donc intéressant, de se demander si les effets seront identiques en France ou s’ils sont modérés par la variable culturelle. De plus, nous avons souligné que la mise en place des systèmes de tarification a donné des résultats contradictoires dans le domaine du surcodage. Ces résultats ont été justifiés par un mode de contrôle différent entre les Etats – Unis, Australie et Hollande. Le système français permet-il de surcoter, est ce que les modes de contrôles sont suffisamment contraignants pour limiter ce biais budgétaire ? De même, nous avons tenté de présenter les conséquences de la mise en œuvre de ces nouvelles logiques au regard du concept de performance de Sicotte et al (1998). La difficulté réside dans la mesure de ce concept. Peut-on dire que les objectifs initialement fixés sont atteints ? En effet, il semble que d’un coté, l’implication des acteurs se soit accentuée notamment par le développement de nouvelles compétences, celle du médecin manager. D’un autre coté, le patient, au cœur du système de soins, risque de ne pas bénéficier de la qualité des soins. En effet, les structures qui sont soucieuses de faire face aux contraintes financières peuvent prendre des décisions, comme le raccourcissement de la durée de séjour, contraires au bien être du patient. Enfin, l’intensification du climat de compétitivité peut conduire l’hôpital public à des stratégies d’isomorphismes. Comme le souligne Gimaldi (Le Monde, 22 avril 2004) « Cette vision gestionnaire s’accompagne volontiers d’une représentation purement technique de la médecine où le médecin est un ingénieur et un producteur de soins et le malade un « porteur d’organes », et un consommateur de soins ». Est-ce que cette nouvelle idéologie est compatible avec la mission de service public de l’hôpital ? En direct des laboratoires 339 REFERENCES BIBLIOGRAPHIQUES Abernethy, M. A. and Chua,W. F. 1996. A field study of control systems ‘redesign’: the impact of institutional processes on strategic choice, Contemporary Accounting Research, vol 13, p.569–606. Abernethy, M.S. and Lillis, A.M. 2001. Interdependencies in organization design: a test in hospital, Journal of management accounting research , vol.13, p.107-129. Abernethy, M.S, and Stoelwinder, J.U. 1995. The role of Professional Control in the Management of Complex Organizations, Accounting, Organizations and Society, vol. 20, p.1-17 Abernethy, M.S, and Stoelwinder, J.U. 1990. The relationship between organizational structure and management control system in hospital, Accounting, Auditing and Accountibility journal,18-34. Abernethy, M. A. and Vagnoni, E. 2004. Power, organization design and managerial behaviour, Accounting, Organizations and Society , vol. 29 , p. 207-225. Comerford S.E., Abernethy M.A.1999. Budgeting and the management of role conflict in Hospital, Behavorial research in accounting, vol. 11, p.93-110. Copur, H.1990, Academic professionals: A study of conflict and satisfaction in professiorate, Human Relations: 113-127. Cyert, R. M., and March, J. G. 1963. A behavioural theory of the firm. Englewood Cliffs, NJ: Prentice-Hall. Dafny, S. How do Hospitals respend to price changes? NBER Working paper n° 9972, 2003. Desharnais, S., Kobrinski, E., Chesney, J., Long, M., Ament, R., and Fleming, S. 1987. The Early Effects on the Prospective Payment System on Inpatient Utilization and the Quality of Care, Inquiry, vol. 24, p.7-16. Daft, R. L. 2001. Organization theory and design. 8th ed. St. Paul, MI: West. DiMaggio, P. J. and Powell, W. W. 1983. The iron cage revisited: institutional isomorphism in organizational fields, American Sociological Review, vol. 48, p.147–160. Dunham, N.C, Kindig, D.A, and Schultz,R. 1994. The value of the Physician Executive Role to Organizational Effectiveness and Performance, Journal of Applied Psychology, vol. 81, p. 358-368. Farley, D., and Hogan, C. 1990. Specialization in the Market for Hospital Services, Health Services Research, vol. 25, p. 757-781. Ferlie E, Asburner L, Fitzgerald L, Pettigrew A. A nova administração pública em ação. Brasília, Universidade de Brasília:ENAP,1999. Fetter, R., Brand, D., Gamache, D. 1991. DRGs: Their Design and Development. Ann Harbor, MI: Health Administration Press. Gillespie, D. F., and Mileti, D. S. 1977. Technology and the study of organization: An overview and appraisal,. Academy of Management Review, vol. 2, p. 7-16. Gutterman, S., Eggers, P., Riley, G., Greene, T.,and Terell, S. 1988. The First 3 Years on Medicare Porspective Payment: An Overview, Health Care Financing Review, vol. 9, p. 67-77. Hackman, J.R., and Oldham, G.R.1980. Work Redesign, Massachusetts: AdissonWesley Publishing Company. 340 Management des Technologies Organisationnelles : Journées d’Etude 2009 Hafferty, F.W, and Light D.W 1995. Professional Dynamics and The Changing Nature of Medical Work, Journal of Health and Social Behavior, vol.36, p.132-153. Hall, R.H., Intraorganizational Strcutural Variation: Application of the Bureaucratic Model, Readings in Organizational Behavior and Human Performance, Scott Jr.W.E; and Cummings L.L (Eds), Homewood III., Richard D.Irvin, 1973. Hall, R.H. 1967. Some organizational considerations in the professional organizational relationship, Administrative Science Quaterly, 461-478. Hoff, T.J.1998. Physician Executives in Managed Care: Characteristics and Job Involvement Across Two Carrers Stages, Jourbal of Health Management, vol. 23, p. 481-497. Hoff, T.J. 1999. The Social Organization of Physicians Managers in a Changing HMO, Work and Occupations, vol. 26, p.324-351. Hoff, T.J. 1999. The Paradox of Legitimacy: Physician Executives and the Practice of Medicine, Health Care Management Review, vol. 24, p. 54-64. Hoff, T.J. 2001. Exploring Dual Commitment Among Physicians Executives in Managed Care, Journal of Healthcare Management, vol. 46, p. 91-111. Hulin, C. L., and Roznowski M. 1985. Organizational technologies: effects on organizations’ characteristics and individual’s responses, Research in organizational behavior, vol. 7, p.39-85. Kuttner, R. 1998. Must Good HMOs Go Bad?, New England Journal of Medicine, vol. 338, p. 1558-1563. Lawrence, D.M., Mattingly, P.H., and Ludden, J.M.1997, Trusting in the Future: The District Advantage of Nonprofit HMOs, The Milbank Quaterly, vol. 75, p.5-10. Leicht, K.T., Fennell M.L.1997. The Changing Organizational Context of Professional Work, Annual Review of Sociology, vol. 23, p.215-231. Lorence, P., Richards, M. 2002. Variation in coding influence across the USA: risk and reward in reimbursement optimization. Journal of Management in Medicine, vol. 166, p. 422435. Manton, K., Woodbury, M., Vertrees, J., and Stallard, E. 1993. Use of Medicare Services before and after Introduction of the Prospective Payment System, Health Services Reseach, vol. 28, p. 269-292. Mathieu, J.E., and Zajac, D.M. 1990. A review and Meta analysis of the Antecedents, Correlates, and Consequences of Organizational Commitment, Psychological Bulletin, vol. 108, p. 171-194. Merchant K.A.1985. Budgeting and the Propensity to create budgetary slack, Accounting, Organizations and Society ,vol. 10 201-210. Mick, S.S., Innovation in Health Care delivery: Insights for Organization Theory, San Francisco, Jossey-Bass, 1990. Montgomery, K.1992, Professional Dominance and the Threat of Corporatization, In Current Research on Occupations and Professions, vol. 7, edited by H.Z.Lopata. Greenwich, JAI Press. Rainey, H. G. 2003. Understanding and managing public organizations. San Francisco, JosseyBass. Schneller, E.S., Greenwald, H.P., Richardson, M.L., and Ott, J. 1997. The Physician Executive: Role in the Adaptation of American Medicine, Health Care Management Review, vol. 22, p. 90-96. En direct des laboratoires 341 Scott, W.R.1966, Professionals in bureaucracies -Areas of Conflicts. In Professionalization, ed by H.M. Volmer, and D.L.Mills. Englewood Cliffs, NJ: Practive Hall. Scott, J.E.1998. Decision Support Systems, ed.Elsevier. Sicotte, C., Champagne F., Contandriopoulos A.P., Barnsley J., Béland F., Leggat S.G., Denis J.L., Bilodeau H., Langley A., Brémond M., Baker G.R. 1998. A conceptual framework for the analysis of healthcare organizations’, Health Services Management Research, vol. 11, p. 24-41. Silverman, E., and Skinner, J. 2004. Upcoding across hospital ownership. Journal of Health Economics, vol. 23, p. 369-389. Silverman, E., and Skinner, J. 2001. Are for-profit hospitals really different? Medicare upcoding and market structure.NBER working paper n° 8133; 2001. Simborg, D. 1981. DRG creep: A new hospital- acquired disease, The New England Journal of Medecine. Steinbush, P.J.M, Oostenbrick J.B, Zuurbier J.J, Schaepkens F.J.M. 2007. The risk of upcoding in casemix systems : A comparative study, Health Policy, vol. 81, p. 289-299. Takagi, J. 2006. L’évolution du management des médecins américains, Revue française de gestion, vol.168-169, p. 55-81. Tanti-Hardouin, N. 2005. La recomposition de l’offre hospitalière, Cahiers Français, vol. 324, p.60-65. Tehrani, M., Montanari, J. R., and Carson, K. R. 1990. Technology as determinant of organizational structure: a meta-analytic review, Proceedings of the annual meeting of the Academy of Management. Thévenet, M. 1992. L’implication des salariés dans l’entreprise. éd.Liaisons. Paris. Vladek, B. 1985. Medicare Hospital Payment by Diagnosis Related Groups, Annals of Internal Medecine, vol. 100, p. 576-591. Wallace, J. 1995. Organizational and Professional Commitment in Professional and Noprofessional Organizations, Administrative Science Quaterly, vol. 40, p.228-255. Williams, S. 1985. The Impact of DRG- Based Prospectiv Payment System on Clinical Decision Making, Medical Decision Making, vol. 5, p. 23-29. Woodward, J. 1958. Management and Technology, HMSO.London. Woodward, J. 1965. Industrial organization: theory and practice. Oxford, Oxford University Press. 342 Management des Technologies Organisationnelles : Journées d’Etude 2009 En direct des laboratoires 343 Qui sont les entrepreneurs hightech : le cas du secteur des TIC en France Frank ROBERT, Frank LASCH Groupe Sup de Co Montpellier Frédéric LE ROY Université de Montpellier RESUME Malgré la forte croissance du secteur des TIC en France, peu de recherches apportent des connaissances sur l’entrepreneur high-tech. De plus, les entrepreneurs dans ce secteur hétérogène ne constituent pas une entité homogène. Cette recherche cherche donc à déterminer si les entrepreneurs TIC sont similaires à ceux des autres secteurs et si ceux-ci ont ou pas des profils différenciés. Un échantillon composé de 469 entreprises nous a permis d’identifier quatre profils d’entrepreneurs TIC dénommés respectivement « cadres d’expérience », « jeunes diplômés sans expérience », « prévoyants » et « kamikazes ». INTRODUCTION Les Technologies de l’Information et de la Communication (TIC) sont, depuis le début des années 1990, un secteur en forte croissance dans de nombreux pays européens. Après les controverses initiales aboutissant au paradoxe de Solow, il est aujourd’hui communément admis que les TIC sont des facteurs stratégiques améliorant la compétitivité d’un pays (Souter, 2004). Même l’explosion de « la bulle internet » en 2000 n’a pas affecté cette tendance générale. En 2004, l’INSEE a constaté un nombre toujours croissant d’entreprises dans le secteur des TIC (Rieg, 2004) et la contribution des TIC au PIB de la 344 Management des Technologies Organisationnelles : Journées d’Etude 2009 France a été évaluée à 5% (Idate, 2004). Selon une étude de l'Eurostat (Meri, 2007), la France reste particulièrement dynamique, puisque le secteur des TIC figure parmi les secteurs les plus entrepreneuriaux en termes de nombre de création d’entreprises. Malgré cette importance croissante des TIC, les recherches sur les spécificités des firmes et des entrepreneurs TIC restent peu nombreuses. Le profil de l’entrepreneur TIC reste ainsi mal connu. FONDEMENTS THEORIQUES L’entrepreneur TIC : homo incognitus ? Rares sont les travaux qui traitent des entrepreneurs dans les TIC. Parmi ces quelques travaux, Marvel et al. (2007) ont étudié l’expérience, l’éducation et les connaissances originales en matière de technologie des entrepreneurs TIC. Ces auteurs considèrent que le capital humain et le capital spécifique, notamment l’éducation et la connaissance de la technologie, sont deux atouts cruciaux concernant l’innovation. Marvel et al. (2007) concluent que le capital humain des « technology entrepreneurs » leur confère des avantages uniques. De la même façon, Wright et al. (2007) montrent l’influence positive des caractéristiques du capital humain sur la réussite de l’entrepreneuriat technologique. Plusieurs facteurs expliquent le fait qu’il y ait si peu de recherches sur l’entrepreneuriat TIC. Un premier facteur réside dans le fait que définir le secteur et identifier les entreprises et, donc, les entrepreneurs, qui le composent constitue déjà un grand défi. Les différentes études chiffrent le nombre d’entreprises et employés dans ce secteur avec des très grandes amplitudes qui varient de 56.000 à 99.800 entreprises pour 705.000 a presque 1 million d’employés (Cases, Favre & François, 1999 ; Heitzmann & Rouquette, 1999 ; INSEE, 2000 ; 2001 ; Lombard & Roussel, 2001). Le problème des différences fondamentales dans la définition du secteur des TIC et indiquent que le secteur est constitué de trois grandes « filières » (haute technologie industrielle, télécommunications et services informatiques) est ainsi soulevé. Les différences ne se limitent pas aux découpages d’activités, mais aussi aux grosses différences de taille entre entreprises d’un même secteur. La taille moyenne des firmes travaillant sur les systèmes d’informations informatiques est de sept salariés tant que les sociétés de haute technologie sont en moyenne composées de plus de quarante salariés. Un autre obstacle est la faible disponibilité de données et statistiques (Chandler & Lyon, 2001). Cette difficulté peut alors expliquer l’hétérogénéité des recherches et des résultats constatés dans la littérature. Cet état de fait aboutit En direct des laboratoires 345 alors à une connaissance insuffisante du secteur des TIC et des spécificités des entrepreneurs dans ce secteur émergent. Plusieurs variables caractérisant l’entrepreneur indépendant du secteur d’activité de apparaissent le plus régulièrement dans la littérature : le capital humain général, l’expérience de l’entrepreneur, les activités préparatrices à la création, la motivation de l’entrepreneur et l’implantation. Ces cinq variables seront en conséquence utilisées pour notre étude. Le capital humain général est composé de variables comme l’âge, le sexe, la nationalité et la situation professionnelle du créateur avant de débuter son activité. De même, le genre et la nationalité sont aujourd’hui au cœur des développements les plus récents qui analysent, par exemple, le rôle de l’entrepreneuriat féminin ou, encore, les caractéristiques des entrepreneurs d’un même pays. L’expérience de l’entrepreneur est également une variable très fréquemment retenue (Filion, 1997). Elle regroupe la qualification de l’entrepreneur, ses expériences professionnelles antérieures, et la connaissance du secteur. Savoir si un entrepreneur expérimenté a plus de chance de réussite que les autres est une question cruciale, notamment pour financeurs et les pouvoirs publics. Les activités préparatrices à la création sont également déterminantes. Elles concernent toutes les démarches entreprises par le créateur afin de se lancer dans son projet. Le fait de se préparer semble être une des étapes nécessaires, voire indispensables, à sa réussite. La motivation de l’entrepreneur apparaît comme une variable majeure dans la littérature entrepreneuriale. Enfin, l’implantation territoriale apparaît aujourd’hui comme une variable incontournable pour appréhender l’entrepreneur. Celui-ci, souvent fortement ancré à son territoire, semble réellement lié à la dynamique de création d’entreprise de la zone dans laquelle il s’implante. Dans cette perspective, identifier les zones les plus efficaces en la matière permet de comparer les politiques locales en matière d’entrepreneuriat. Le cas échéant, les zones les plus efficientes servent d’exemple pour celles désirant redynamiser leur comportement en matière d’accompagnement. METHODE La base de données L’étude empirique est fondée sur l’utilisation d’une base de données administrée par l’INSEE nommée « Enquête SINE ». Les données utilisées correspondent à des cohortes de firmes nouvellement créées depuis 1994 afin d’observer les caractéristiques principales des entrepreneurs lors de la phase 346 Management des Technologies Organisationnelles : Journées d’Etude 2009 d’émergence du secteur TIC. En d’autres termes quelles sont les caractéristiques principales des entrepreneurs se lançant dans le secteur TIC ? Nous focaliserons notre analyse sur le secteur TIC, 469 entreprises constituent notre échantillon dans cette branche. Définition du secteur TIC La définition du secteur TIC est fondée sur la NAF700. La définition que nous utilisons est similaire à celle qui est majoritairement utilisée dans les publications les plus récentes en France (Lasch, 2003 ; Lasch et al., 2004). Elle exclut le secteur national des télécommunications (France Télécom), les industries aéronautiques et spatiales, ainsi que les industries pharmaceutiques. Conformément à cette définition, le secteur TIC est composé de trois branches principales : les industries high tech (première catégorie de la définition de l’OCDE), les services TIC (services informatique/logiciels et télécommunications, R&D non universitaire), et les autres services à forte intensité de connaissances (études techniques, analyses, tests et inspections). Cette délimitation couvre 20 sous-secteurs de la NAF700 avec 87.200 entreprises et plus de 710.000 employés en France en 2002 (Lasch, 2003). Leur part dans l’économie globale est de 3,2% (5,0% de tous les emplois). Mesures des variables et analyse Afin de répondre aux questions posées, nous utiliserons les variables de la base SINE qui correspondent aux caractéristiques les plus fréquemment observé dans la littérature (Capital humain général, expérience, activités préparatrices à la création, implantation). Dans une première étape, l’objectif sera de regrouper les entrepreneurs en classes ou « groupes » afin d’identifier similitudes et différences. A la suite de cette analyse descriptive nous réalisons, dans une deuxième étape, une analyse typologique afin de répondre à la question suivante « qui sont les entrepreneurs high-tech ? ». RESULTATS Caractéristiques des entrepreneurs TIC Capital humain Les entrepreneurs créent leur entreprise à 8,7% dans la haute technologie industrielle, à 48,5% dans les services informatiques et de télécommunications et à 42,8% dans les autres services à forte intensité de connaissances. Cette population est majoritairement masculine (82,7%), comprise dans une tranche En direct des laboratoires 347 d’âge de 30 à 49 ans (70% des entrepreneurs). Les entrepreneurs de moins de 25 ans et de plus de 50 ans représentent seulement respectivement 3,6% et 10,9% de la population étudiée. Qualification Une part importante des créateurs fait apparaître un niveau de qualification élevé, un peu moins de 60% d’entre eux ont un niveau d’étude de minimum bac plus deux. Quelques différences au niveau sous-secteur sont néanmoins à constater : dans la haute technologie industrielle, 19% d’entrepreneurs possédant un niveau de formation de minimum Bac +3 ou un diplôme d’ingénieur. Le niveau de qualification est inférieur dans les deux autres sous secteurs (services informatiques et télécommunications, services à fortes connaissances : les entrepreneurs hautement diplômés sont deux fois plus nombreux). L’expérience professionnelle diverse et spécifique L’expérience diverse du créateur peut être obtenue généralement durant ses activités précédentes. De nombreux créateurs ont eu une expérience d’encadrement (68%) préalable. Cette expérience de management provient dans un emploi dans d’autres secteurs autres. Les entrepreneurs puisent leur expérience professionnelle dans leurs activités précédentes mais également dans leur entourage entrepreneurial (30% dans leur entourage proche et familiale) et dans le nombre de création déjà réalisée (25%). Néanmoins, seul un quart des entrepreneurs a eu une expérience entrepreneuriale avant la création de l’entreprise en question. L’expérience spécifique réalisée au sein du même secteur est mesurée par l’expérience professionnelle antérieure dans un secteur en rapport avec l’activité, la durée de cette expérience et la taille de l’entreprise où elle a été acquise. Les entrepreneurs TIC ont principalement une expérience antérieure dans le même secteur ou un secteur proche. La durée de cette expérience est pour un tiers des entrepreneurs de trois à dix ans et pour deux tiers plus de dix ans. Activités préparatrices à la création La littérature distingue différents types d’activités préparatrices : les études de la concurrence, les études techniques et financières, les formations spécifiques à la création, le conseil auprès de consultants, etc. Les activités préparatrices sont souvent mises en relation avec le succès de l’entreprise pour leur importance, mais seulement 45,5% des entrepreneurs effectuent une réelle étude technique pour préparer leur démarrage. Les entrepreneurs TIC semblent plus préoccupés par l’aspect financier de leur projet que par l’étude à 348 Management des Technologies Organisationnelles : Journées d’Etude 2009 proprement parler de la concurrence (70% d’entre eux ont réalisé une étude technique contre seulement 37,5% ayant effectué une analyse des futurs concurrents, du marché). Concernant le conseil auprès des professionnels, une part importante des entrepreneurs TIC utilise ce service, mais le temps investi est souvent limité (trois jours pour 36% ; seulement 13,9% des entrepreneurs affichent une durée plus importante). Les entrepreneurs ont recours au conseil, mais étonnement 77,6% d’entre eux ne suivent aucune formation spécifique à la création. Quels sont les types d’entrepreneurs dans le secteur TIC Déterminer le nombre de groupes En accord avec l’analyse descriptive, lors de la classification hiérarchique des entrepreneurs TIC les trois variables suivantes sont conservées : le capital humain (sans la nationalité), l’expérience, et les activités préparatrices à la création. L’utilisation dans un premier temps de l’algorithme de classification hiérarchique permet de définir le nombre de sous groupes éventuels d’entrepreneurs. Pour cela la méthode de partition optimale est mise en œuvre, la lecture de la chaîne d’agrégation, du diagramme en stalactite verticale et du dendrogramme nous laisse envisager quatre sous groupes : 175 entrepreneurs pour le premier, 40 pour le second, 95 pour le troisième, et 159 pour le quatrième. Déterminer les discrimantes de chaque groupe Pour chaque variable la comparaison des fréquences avec celle de la population affecte un nom aux quatre groupes. L’écart positif signifie que le groupe a une proportion d’entrepreneur supérieure pour une variable à la fréquence de la population totale des entrepreneurs de notre échantillon. Groupe 1 : « Les cadres expérimentés » Ce groupe est caractérisé par les entrepreneurs de moins de 39 ans. On constate qu’il existe une proportion plus importante de jeunes entrepreneurs 2529 ans que dans la population totale des entrepreneurs TIC (21,4% de plus). Ces entrepreneurs affichent un niveau de formation élevée avec une part importante de bac +3 et plus. Autres caractéristiques sont l’expérience dans le secteur TIC, une durée d’expérience supérieure à 10 ans, majoritairement obtenu dans le cadre d’un emploi dans une grande entreprise (de plus de 500 employés), peu de formation à la création d’entreprise suivi. En direct des laboratoires 349 Groupe 2 : « Les jeunes diplômés » Le deuxième groupe se caractérise par d’entrepreneurs (moins de 25 ans) plus jeunes comparé à la population globale, un entourage familial entrepreneurial très présent, une faible expérience professionnelle dans le secteur TIC et très peu d’expérience de cadre et de manager. La durée de leur expérience et la taille de l’entreprise du dernier emploi montre un écart important entre ces jeunes entrepreneurs et les entrepreneurs TIC dans l’ensemble. Groupe 3 : « Les biens préparés » Ce groupe est composé d’entrepreneurs ayant eu une fonction d’agent de Maîtrise (expérience professionnelle préalable), mais avec comparativement peu d’expérience entrepreneuriale. Ce manque d’expérience entrepreneuriale semble être compensé par des formations spécifiques à la création. Fortement demandeur de ce type de formation, leur niveau de préparation (étude de marché, de la concurrence, financière, etc.) à la création est le plus important que celui des autres entrepreneurs du secteur. Groupe 4 : « Les kamikazes » Ce type d’entrepreneurs affiche un faible niveau d’éducation (dernier diplôme) et de qualification passée (expérience professionnelle). Principalement des employés et des ouvriers sans expérience de création, ce type d’entrepreneur tient son expérience dans des emplois en petite entreprise. La durée de leur expérience est inférieure à celle constatée pour le secteur. En revanche, la durée de l’expérience acquise dans des secteurs différents est supérieure à celle constatée dans le secteur TIC. Ces entrepreneurs sont donc mal préparés à la création d’entreprises dans le secteur TIC et ne suivent que très peu les formations en ce sens. CONCLUSION Nos résultats permettent de rendre justice à une représentation parfois caricaturale du profil des entrepreneurs dans le secteur TIC. L’image simpliste de la start-up technologique fondée par un jeune ingénieur visionnaire s’efface devant des résultats beaucoup plus contrastés. Si, dans l’ensemble, l’entrepreneur TIC a un haut niveau de formation, une bonne connaissance du secteur et de l’expérience, différents types d’entrepreneurs très contrastés apparaissent. Il y a finalement peu de lien entre les entrepreneurs du groupe 1 et les entrepreneurs du groupe 4. L’entrepreneuriat TIC, pour ses particularités et de sa diversité, mérite des recherches qui lui soient spécifiques. 350 Management des Technologies Organisationnelles : Journées d’Etude 2009 Dans l’ensemble, les résultats montrent que l’entrepreneuriat TIC est différent de l’entrepreneuriat classique, notamment du fait d’un niveau de formation supérieur. Quatre groupes différents d’entrepreneurs dans le secteur TIC sont identifiés, que nous avons nommés « les experts », « les jeunes diplômés », « les bien préparés » et « les kamikazes ». Ces résultats ne peuvent être compris que relativement aux limites de l’étude. Il serait alors intéressant de tester la portée des résultats obtenus en utilisant d’autres données sur la création d’entreprises dans le secteur TIC français, notamment en utilisant des données issues d’une période plus récente. Cette nouvelle analyse permettrait, d’une part, de confirmer ou non les résultats obtenus, et, d’autre part, de mettre en évidence une éventuelle évolution des catégories d’entrepreneurs après l’explosion de la bulle internet en 2000. Enfin, une des voies de recherche futures parmi les plus prometteuses serait de croiser le type d’entrepreneur (groupe 1 à 4) avec la performance (survie, succès). A priori, le groupe 1, composé des « experts » devrait connaître de bien meilleures performances que le groupe 4, composé des « kamikazes ». Seules de nouvelles recherches permettront de valider ou de réfuter cette hypothèse, alors qu’elle peut être fondamentale pour des investisseurs publics ou privés. REFERENCES BIBLIOGRAPHIQUES Cases C., Favre F., François J. P. (1999), « L’innovation technologique dans les services aux entreprises », Le 4 pages des statistiques industrielles. Collin J., Moore D. (1970), The Organization Makers, Appleton-Century-Crofts. Chandler G. N., Lyon, D. W. (2001), « Methodological Issues in Entrepreneurship Research: The Past Decade », Entrepreneurship Theory & Practice, vol. 25, n°4, p. 101-113. Filion L. J. (1997), « Le champ de l’entrepreneuriat : historique, évolution, tendances », Revue Internationale PME. vol. 10, n°2, p. 129-172. Fritsch M., Niese M. (2000), « Der Einfluss der Branchenstruktur auf das Gründungsgeschehen eine Analyse für die westdeutschen Raumordnungsregionen 1983-1997 », Geographische Zeitschrift, vol. 88, p. 234-250. Heitzmann R., Rouquette C. (1999), « Les technologies de l’information et la communication : 5% du PIB » in INSEE Première, vol. 648, n°1. Institut de l’Audiovisuel des Télécommunications en Europe (IDATE) (2004), « Compétitivité du secteur TIC en France ». Etude réalisée pour le Ministère de l’Economie, des Finances et de l’Industrie http://www.energie.minefi.gouv.fr/biblioth/docu/dossiers/ntic/pdf/4pagescompet.pd f. INSEE (2000), L’Economie française. Edition 2000-2001, Livre de Poche En direct des laboratoires 351 Jaouen A. (2008), « Dirigeants de TPE et construction des alliances stratégiques : une analyse par les liens », in Gundolf K. & Jaouen A. (éds), Les relations interorganisationnelles de PME, Hermès Publishing, Lavoisier. Julien P-A., Marchesnay M. (1988), La petite entreprise : principes d’économie et de gestion, Vuibert. Julien P-A., Marchesnay M. (1992), « Des procédures aux processus stratégiques dans les PME. », Picola Empressa, n°2. Julien P-A., Marchesnay M. (1996), L’entrepreneuriat, Economica Gestion Poche. Hauknes J., 1999, « Knowledge Intensive Services – What is their Role? », in OECD Business and Industry Policy Forum on Realising the Potential of the Service Economy: Facilitating Growth, Innovation and Competition, Paris. Lafuente A., Salas V. (1989), « Types of entrepreneurs and firms: the case of new Spanish firms », Strategic Management Journal, vol. 10, n°1, p. 17-30. Lasch F. (2003), « Innovations- und technologieorientierte Neugründungen in Frankreich. Eine Untersuchung von Einflussfaktoren auf regionale Disparitäten im Gründungsgeschehen in Informations- und Kommunikationstechnologien (1993 bis 2001) – La création d’entreprises dans le secteur des technologies de l’information et de la communication (TIC) en France. Une analyse des facteurs déterminants de la création régionale et une étude des déterminants de la survie et du succès des jeunes entreprises (1993 à 2001) ». Regensburg: Beiträge zur Wirtschaftsgeographie Regensburg, Vol. IV. Lasch, F., Le Roy, F. et Yami, S. (2004), « New firm formation in ICT sectors in France (19932001) », in M. Dowling, J. Schmude, D. Zu Knyphausen-Aufsess (éds.), Advances in Interdisciplinary European Entrepreneurship Research, vol. 2, p.199-230. Lasch F., Le Roy F. et Yami S. (2005a), « Les déterminants de la survie et de la croissance des start-up TIC », Revue Française de gestion. vol. 31, p. 37-56. Lasch. F., Le Roy F. et Yami S. (2005b), « L’influence de l’environnement socio-économique sur la création d’entreprises TIC : le cas de la France », Revue Finance-ContrôleStratégie. vol. 8, n°1, p. 73-108. Laufer J. (1975), « Comment on devient entrepreneur », Revue Française de Gestion. vol. 2, p. 11-23. Lombard D., Roussel P. (2001), « Rapport du groupe de travail sur l’observation statistique du développement des technologies de l’information et de la communication et de leur impact sur l’économie », Conseil National de l’Information Statistique, Paris Marchesnay M. (1998), « Une vision renouvelée du risque entrepreneurial » in Actes du colloque de l’AIRE-PME, Metz-Nancy. Marvel M.R., Griffin A., Hebda J., Vojak B. (2007), « Examining the Technical Corporate Entrepreneurs’ Motivation: Voices from the Field », Entrepreneurship Theory and Practice, vol. 31, n°5, p. 753-768. MEFI, SESSI, (2001), « L’industrie française des technologies de l’information et de la communication », SESSI Chiffres clés, Hors Série Production Industrielle. Meri T. (2007), « L’emploi régional dans les secteurs de la haute technologie. L’Ile-de-France en tête», Eurostat - Science et Technologie, Statistiques en Bref, n° 102, p. 1-8. Miles R.E., Snow C.C., Meyer A. D., Coleman H. J. (1978), « Organisational Strategy, Structure and Process », The Academy of Management Review, vol. 3, n°3, p. 546-562 352 Management des Technologies Organisationnelles : Journées d’Etude 2009 Miner J. B., (1990), « Entrepreneurs, High Growth Entrepreneurs, and Managers: Contrasting and Overlapping Motivational Patterns », Journal of Business Venturing, vol. 5, n°4, p. 221-234. Miner J. B. (1997), « A psychological typology and its relationship to entrepreneurial success », Entrepreneurship and Regional Development, vol. 9, n°4, p. 319-334. Rieg C. (2004), Forte hausse des créations d’entreprises en 2003 in INSEE Première, n°944. Smith N. R. (1967), « The Entrepreneur and His Firm : The Relationship Between Type of man and Type of company », East Lansing. Souter D. (2004), « ICTs and economic growth in developing countries », The Dac Journal, n°5(4), p.11-40. Ucbasaran D., Westhead P., Wright M. (2001), « The focus of entrepreneurial research: contextual and process issues », Entrepreneurship Theory and Practice, vol. 24, n°4, p. 25-80 Vega G., Kidwell R. E. (2007), « Toward a Typology of New Venture Creators: Similarities and Contrasts Between Business and Social Entrepreneurs », New England Journal of Entrepreneurship, vol.10, n°2, p. 15-28. Wright M., Hmeleski K. M., Siegel D. S., Ensley M. D. (2007), « The Role of Human Capital in Technological Entrepreneurship », Entrepreneurship Theory and Practice, vol. 31, n°6, p. 791-806.