management des technologies organisationnelles

publicité
MANAGEMENT DES TECHNOLOGIES
ORGANISATIONNELLES
Collection Économie et Gestion
Dans la même collection
L’ÉVALUATION DES CHERCHEURS
Daniel Fixari, Jean-Claude Moisdon, Frédérique
Pallez
SÛRETÉ NUCLÉAIRE ET FACTEURS HUMAINS:
la fabrique française de l’expertise
Grégory Rolina
PROCEEDINGS OF THE THIRD RESILIENCE
ENGINEERING SYMPOSIUM
Erik Hollnagel, François Pieri, Eric Rigaud (editors)
PROCEEDINGS OF THE SECOND RESILIENCE
ENGINEERING SYMPOSIUM
Erik Hollnagel, Eric Rigaud (editors)
MODEM LE MAUDIT
Economie de la distribution numérique des
contenus
Olivier Bomsel, Anne-Gaëlle Geffroy, Gilles Le Blanc
ÉVALUATION DES COÛTS
Claude Riveline
LE LEADERSHIP DANS LES ORGANISATIONS
James G. March, Thierry Weil
DERNIER TANGO ARGENTIQUE
Olivier Bomsel, Gilles Le Blanc
LES NOUVEAUX CIRCUITS DU COMMERCE
MONDIAL
Dialogue Etat-Entreprises
François Huwart, Bertrand Collomb
INVITATION À LA LECTURE DE JAMES MARCH
Réflexion sur les processus de décisions,
d'apprentissage et de changement dans les
organisations
Thierry Weil
NEW NEIGHBOURS IN EASTERN EUROPE
Economic and Industrial Reform in Lithuania,
Latvia and Estonia
Christian von Hirschhausen
© Presses des Mines, 2009
60, boulevard Saint-Michel - 75272 Paris Cedex 06 - France
email : [email protected]
http://www.mines-paristech.fr/Presses
ISBN : 978-2-911256-12-7
Dépôt légal : 2009
Achevé d’imprimer en 2009 (Paris). Tous droits de reproduction, de traduction, d’adaptation et d’exécution
réservés pour tous les pays.
Journées d’étude MTO’2009
Management des technologies organisationnelles
Montpellier, 15-16 octobre 2009
Groupe Sup de Co Montpellier
Dans le prolongement des journées d’étude MTO’2008, les journées d’étude
MTO’2009 ont été organisées à Montpellier par la Chambre Professionnelle du
Conseil Languedoc-Roussillon, le Groupe Sup de Co Montpellier et le centre de
recherche LGI2P de l’Ecole des Mines d’Alès.
MTO a pour objectif de promouvoir le Management des Technologies
Organisationnelles, et à ce titre de valoriser les travaux de chercheurs, de
consultants, d’experts et de professionnels sur ce thème.
Comité scientifique : Serge AGOSTINELLI, Nassim BELBALY, Marc BIGRET,
Jean-Pierre BOISSIN, Daniel BONNET, Vincent CHAPURLAT, Marie-Françoise
COMBAZ, Monique COMMANDRÉ, Nicolas DACLIN, Calin GURAU, Frank LASCH,
Frédéric LE ROY, Anne LICHTENBERGER, Jacky MONTMAIN, Céline PASCUALESPUNY, Yvon PESQUEUX, Hervé PINGAUD, Pierre-Michel RICCIO, Véronique
RICHARD, Guy SAINT-LEGER, Henri SAVALL, Patrick SENTIS, Emmanuel
SOUCHIER, Michel VASQUEZ.
Comité d’organisation : Daniel BONNET, Maud BOUVARD, Marie-Françoise
COMBAZ, Calin GURAU, Frank LASCH, Pierre-Michel RICCIO.
Comité de rédaction : Pierre-Michel RICCIO, Daniel BONNET, Silvia
DEKORSY.
2
Management des Technologies Organisationnelles : Journées d’Etude 2009
La question du lien entre organisation et technologies ouvre une perspective
nouvelle qui explore l’articulation entre champs disciplinaires spécialisés. Le
Management des Technologies Organisationnelles vient considérer l’importance
de l’organisation et de la technologie dans la même unité d’analyse. L’une ne se
trouve plus contingente de l’autre, selon le point de vue du gestionnaire ou de
l’ingénieur, mais les points de vue doivent se recomposer dans une perspective
tierce qui est celle de sa finalité : la meilleure « compatibilité » possible pour
l’utilisateur final. Aussi, le Management des Technologies Organisationnelles viset-il la coopération des acteurs dans toute la chaine de valeur ajoutée, dès le
stade de la conception technologique ou organisationnelle.
L’enjeu est aussi de mieux comprendre comment les termes de performance
et de compétitivité se déterminent dans cette articulation, qui est celle de la
genèse du couplage structurel et fonctionnel de la technologie et de
l’organisation, et par conséquent de l’application dans son environnement. La
compatibilité sera d’autant plus améliorée que la technologie proposera des
solutions techniques conceptuellement adaptables dans des configurations
organisationnelles qui pourront aisément être reconfigurées : l’organisationnel et
le technologique doivent se penser dans un point d’équilibre isodynamique, dans
le processus d’appropriation par les utilisateurs finaux.
Cet ouvrage rend compte des travaux proposés au cours des journées
d’étude MTO en 2008 et 2009, par des chercheurs et des experts. La première
partie donne carte blanche à des membres du comité scientifique pour initier le
débat. La deuxième partie présente une sélection des meilleurs textes de
MTO’2009. Elle rend compte de la diversité des sujets de recherche ou
d’investigation dans le domaine du Management des Technologies
Organisationnelles. Enfin la troisième et dernière partie, plus exploratoire,
propose des textes directement issus de travaux conduits en laboratoires ou
d’expériences de terrain ayant émergés lors de la première édition des journées
d’étude MTO’2008.
Pierre-Michel Riccio et Daniel Bonnet
Coordonnateurs de l’ouvrage
MANAGEMENT DES TECHNOLOGIES
ORGANISATIONNELLES
Journées d’étude 2009
Ouvrage coordonné par Pierre-Michel RICCIO et Daniel BONNET
SOMMAIRE
I – Cartes blanches au comité scientifique
Yvon PESQUEUX
Technologie, technique et outils de gestion ...........................................................
7
Hervé PINGAUD
Rationalité du développement de l’interopérabilité dans les organisations ............. 19
Véronique RICHARD
Pour une éthique relationnelle dans les organisations contemporaines ? .............. 31
Guy SAINT-LEGER
Les projets d’intégration à base de progiciels intégrés ........................................... 39
II – Communications MTO’2009
Daniel BONNET
Le pilotage d’un processus de transformation de la connaissance : application en
Management des Technologies Organisationnelles ............................................... 53
Guy SAINT-LEGER et Daniel BONNET
Impacts des dysfonctionnements d’usages avec les systèmes intégrés de type
ERP/PGI ................................................................................................................. 69
Eric LACOMBE
Liens, flux et réseaux : indicateurs et repères pour le management des
technologies organisationnelles .............................................................................. 87
Corinne BAUJARD
Technologies organisationnelles : quel alignement stratégique des usages ? ..... 103
Vincent CHAPURLAT, Didier CRESTANI et Yousra BEN ZAÏDA
Une démarche pour la conduite du changement en entreprise manufacturière ... 117
4
Management des Technologies Organisationnelles : Journées d’Etude 2009
Mélanie BURLET, Romain CHEVALLET et Thierry PRADERE
Hyper rationalisation organisationnelle et technique : le cas du Voice Picking ..... 131
Marie-Françoise COMBAZ
Comment aligner l’outil de gestion d’une PME sur sa stratégie ? ......................... 145
Marc BIGRET
Analyse des conditions permettant qu’une innovation trouve son usage dans le
cadre de la création d’entreprise........................................................................... 159
André DELAFORGE et Nicolas MOINET
L'apport de la notion de réseau et de modèle économique aux problématiques de
mise sur le marché d’une innovation .................................................................... 171
Frédéric ELY et Marielle METGE
L’intelligence communicationnelle interne, pour le management d’une
communication interne innovante au sein de l’organisation................................ 181
Denis ZANDVLIET et Yann XOUAL
Désordres organisationnels induits par l’abus des tableurs .................................. 199
Sihem MALLEK, Nicolas DACLIN, Vincent CHAPURLAT
Pilotage de processus collaboratifs : amélioration de l’interopérabilité ................. 217
Afef DENGUIR-REFIK, Gilles MAURIS, Jacky MONTMAIN et Abdelhak
IMOUSSATEN
On the use of possibility distribution summary indicators in multi-criteria decision
based on the Choquet integral: application to marketing of e-commerce
organizations ........................................................................................................ 229
Monique COMMANDRÉ et Pierre-Michel RICCIO
Vers de nouveaux agencements opur l’accès à l’information scientifique ............ 253
III – En direct des laboratoires
Daniel BONNET
Promouvoir le Management des Technologies Organisationnelles : lignes
directrices fondamentales d’une politique de management des technologies
organisationnelles ................................................................................................. 265
Daniel BONNET
Transformation des compétences et création de potentiel humain pour le
management des technologies organisationnelles ............................................... 283
Nicolas DACLIN et Vincent CHAPURLAT
Evaluation de l’interopérabilité organisationnelle et managériale des systèmes
industriels : le projet CARIONER .......................................................................... 297
Philippe COIFFARD
Les paiements, un nouveau challenge pour l’entreprise ....................................... 309
Marie-Françoise COMBAZ
Les conditions de réussite d’un projet PGI / ERP ................................................. 317
Irène GEORGESCU
Une étude sur des effets de la technologie informationnelle dans le secteur
hospitalier ............................................................................................................. 327
Frank ROBERT, Frank LASCH et Frédéric LE ROY
Qui sont les entrepreneurs high-tech : le cas du secteur des TIC en France ....... 343
I - Cartes blanches
Yvon PESQUEUX
Hervé PINGAUD
Véronique RICHARD
Guy SAINT-LEGER
6
Management des Technologies Organisationnelles : Journées d’Etude 2009
Cartes blanches au comité scientifique
7
Technologie, technique et outils de
gestion
Yvon PESQUEUX
Professeur
Titulaire de la Chaire « Développement des Systèmes d’Organisation »
CNAM / Paris
INTRODUCTION
La question des outils de gestion pose le dilemme de leur définition comme
technologie et / ou comme technique. Ce n’est qu’après un examen du contenu
des deux notions qu’il est possible de commencer à statuer. C’est pourquoi ce
texte comprendra d’abord un examen de la similitude et des différences entre les
deux notions avant d’aborder la question du lien entre « technologie » et
« savoir actionnable ».
TECHNOLOGIE ET TECHNIQUE
Il faut d’abord souligner la confusion qui est généralement faite dans
l’assimilation du concept de technologie avec une forme technique avancée
(l’informatique par exemple). Dans ce cas, on passe directement à la technologie
« à épithète », la haute étant bien sûr à considérer comme préférable à la
« basse ». Or, si l’on y regarde de plus près, technologie « haute » ou « basse »
est d’abord avant tout technologie.
La technologie est un fait spécifique, une pratique consciente d’elle-même. La
technologie se distingue de la science par son objet, la « réalité technique »,
mais elle est également redevable à la science par son esprit (la science est vue
ici comme une manière méthodique de poser les problèmes). Le concept de
technologie vient interférer avec celui de science et concerne l’étude des
procédés techniques dans ce qu'ils ont de général et dans leur rapport avec le
développement de la civilisation. A ce titre, la technologie est ce qui permet de
8
Management des Technologies Organisationnelles : Journées d’Etude 2009
comprendre les techniques au-delà des considérations seulement utilitaires. Elle
les examinera aussi dans leurs rapports sociaux.
Rappelons-en les éléments : l’étude des outils, des machines, des procédés,
des méthodes employées dans les diverses branches de l'industrie, des outils et
des matériels utilisés dans l'artisanat et dans l'industrie, un ensemble cohérent
de savoirs et de pratiques dans un certain domaine technique, fondé sur des
principes scientifiques, une théorie générale des techniques. La technologie
comprend donc trois sortes de problèmes suivant l’angle sous lequel les
techniques peuvent être envisagées : comme description analytique des
manières de faire, comme recherche des conditions dans lesquelles chaque
technique entre en jeu, comme étude du devenir des techniques. Le mot
technologie (ce qui est fréquent dans l’usage des termes en –logie) est employé
pour prendre en considération un ensemble de techniques. Mais, comme le
signale L. Magne [1], « c’est aussi un répertoire professionnel (…) pensée
comme une encyclopédie des métiers, que l’ambition (…) voudrait pousser dans
la direction de la modélisation, de la découverte, mais de « lois de la
technique » ».
Pour sa part, la technique réalise ce que la nature est dans l’impossibilité
d’accomplir. C’est donc la totalité des outils que les Hommes fabriquent et
emploient pour fabriquer et faire des choses au moyen d’eux. Une technique est
un ensemble de procédés et de moyens pratiques liés à une activité. Elle
comprend aussi l’idée de savoir-faire, habileté de quelqu'un dans la pratique
d'une activité. Elle est également relative au fonctionnement du matériel, d’un
appareil, d’une installation. Il y a donc l’idée de l’usage de la raison.
Pour illustrer cette dualité « technologie – technique » dans une perspective
« gestionnaire », reprenons les définitions qu’en donne B. Colasse [2] quand il
indique que la technologie comptable est constituée par « l’étude de la
comptabilité comme objet technique en quête de vérité et de légitimité avec,
notamment, des dimensions historiques, culturelles, institutionnelles et socioéconomiques » et que la technique comptable concerne « l’ensemble des
notions, méthodes et procédés, fondés sur des connaissances empiriques ou
théoriques, mis en œuvre par le comptable ».
Le phénomène technologique comporte la double référence à la science
comme modèle rationnel et à la technique comme forme et comme moyen. La
technologie trouve aujourd’hui une compréhension morale et politique au travers
du concept de « technoscience » (avec H. Jonas [3], par exemple). La
technologie possède donc aussi contenu très profondément politique. Elle
s’inscrit dans une lecture parallèle qu’il est possible d’établir avec le capitalisme
comme « ordre » politique. Technologie et capitalisme moderne se développent
Cartes blanches au comité scientifique
9
corrélativement et débouchent sur l’idéologie technologique, dans la mesure où
nous sommes aujourd’hui immergés dans les sociétés technoscientifiques.
Comme le souligne L. Sfez [4], c’est avec le recours au concept de
technologie qu’à des problèmes indésirables sont apportées des réponses
idéologiques et matérielles puisque c’est le « progrès technique » qui vient les
résoudre. La technologie naît, vit et renaît autour de « personnages
conceptuels » nouant des intrigues entre eux (Internet d’une part, la révolution
technique de l’autre, par exemple). Avec le terme de « révolution technique », L.
Sfez [5] parle de « solution passerelle » entre un monde alors décrété « ancien »
et un autre alors décrété « nouveau », construisant un scénario de « succession
– substitution » au regard d’une « réalité » pourtant toujours « hybride ». Il va
ainsi parler de récit fondateur du techno-politique comprenant des
« marqueurs » de la technique qui naissent de la dissociation « technique »
(avec des référents tels que « métier », « ingénieur ») et « science » (avec des
référents tels que « savant »). Le premier « marqueur » est, pour lui, celui de
l’acquisition et de la transmission du savoir technique sur la base de protocoles
qui fondent la distinction concepteur (ingénieur) – réalisateur (technicien) à
partir d’un langage de signes communs à la technique et à la science. Ne seraitce pas là ce qui se noue avec la notion de « savoir actionnable » ? Un autre
« marqueur » est l’aspect systématique des techniques qui, en interrelations,
font « système », d’où la référence au concept de « macro-systèmes
techniques ». Cette vision de la technologie en « système technique » est
courante en histoire des techniques et tend à donner un « sens » chronologique
à ces travaux qui fondent ainsi l’idée que l’on passe de système en système par
filiation plus ou moins prononcée, chacun d’entre eux pouvant être décrit et situé
dans le temps. Technique et politique construisent donc de « belles » histoires
où il est question de progrès comme dans l’idéologie progressiste de l’action
managériale. Réduite à son versant « protocole », la technique est donc manière
de faire les choses, in fine organisation.
Il est important de souligner l’usage extensif de la notion de technologie en
sciences des organisations, allant même jusqu’à en faire un synonyme de
« processus de production » (throughput). A ce moment-là, pour qu’il y ait
technologie, il faut qu’il y ait organisation, cette organisation pouvant être
spécifiée au regard de ce qu’elle « produit ». La technologie est alors en quelque
sorte « industrie » au sens littéral du terme (dans le sens « d’activité » en
quelque sorte).
C’est pourquoi P. Dussauge & B. Ramanantsoa [6] distinguent :
• Les approches « allusives » c’est-à-dire celles qui ne définissent pas la
notion en laissant le contexte managérial lui donner une signification
10
Management des Technologies Organisationnelles : Journées d’Etude 2009
comme cela est souvent le cas au sein des cabinets de conseil en
stratégie.
• Les définitions « englobantes » qui visent tous les domaines d’expertise
de l’entreprise. On en retrouve peu ou prou le même contenu avec la
notion stratégique de compétence, ce qui lui adjoint une dimension
organisationnelle ou sociale (au niveau « macro » alors). Si tout savoirfaire tend à être qualifiable de technologie, cet usage du terme permet
de le lier et de le distinguer de science et de technique.
• Les définitions « spécifiques » qui relient le terme à celui de science et
de technique et part de l’idée de qualifier de chercher à qualifier
l’avantage spécifique de l’organisation. Les technologies possèdent alors
deux caractéristiques : elles sont transversales aux secteurs
économiques et combinatoires avec des produits d’autres techniques
(ou d’autres technologies).
Au sens politique et économique du terme, il y a donc « enjeu »
technologique et « réponse » rationnelle possible, en particulier en termes de
« stratégies ». Dans ce cas, il y a donc bien fondement possible d’une
organisation à la fois de façon génétique, la technologique étant facteur
génétique de l’organisation, mais aussi de façon rationnelle, l’organisation étant
alors une réponse d’ordre sociotechnique. Il faut en effet alors en souligner la
dimension culturelle et l’on parlera curieusement de culture technique et non de
culture technologique. La dimension technique de la culture en fera un facteur
d’identité, d’image et d’imaginaire, de production discursive, symbolique et
rituelle dans une perspective de construction consensuelle.
TECHNOLOGIE ET « SAVOIR ACTIONNABLE »
En fait, la technologie opère par accumulation des techniques et référence
aux lois scientifiques liées à ces techniques. Il existe en quelque sorte un effet
« zoom » qui va des techniques aux sciences via la technologie d’où l’aspect
confus dans l’utilisation de tel ou tel terme. Prenons un exemple rapide. La
chimie est une des disciplines constitutives des sciences « exactes ». A cette
discipline sont associées des lois qui se caractérisent par la permanence
constatée dans la combinaison d’éléments dans des conditions données. Sur le
plan des techniques, cette permanence a été constatée empiriquement comme
dans la métallurgie du bronze. La technologie apparaît quand l’accumulation des
techniques autorise une conceptualisation sur celles-ci, au-delà de la référence à
un savoir-faire spécifique. Mais à l’inverse, la technologie peut aussi naître d’une
évolution scientifique comme le montre P. Ndiaye [7] à propos de la mise en
Cartes blanches au comité scientifique
11
fabrication des explosifs (à l’origine du « génie chimique ») puis de la bombe
atomique.
La technologie, avec son suffixe logos, correspond à une rationalisation. C’est
un discours sur la logique des techniques. C’est le « discours sur » qui vient donc
rendre intelligible la « logique de ». A ce titre, l’organisation est également
élément de cette « logique de », car sans organisation et sans son lieu privilégié
d’expression, l’entreprise, pas de réalisation au concret des techniques dans les
catégories de la production de masse. L’organisation est alors ce qui, dans
l’ordre technoscientifique qui est le nôtre, vient relier technologie et technique.
Mais la technologie a conduit au remplacement de l’apprentissage du savoir
pratique par celui de connaissances théoriques (comme chez l’ingénieur). C’est
donc une vision de l’homme au travail dans un monde qui n’est plus celui de
l’artisan. La technologie permet de fonder le monde sur la rationalité scientifique.
La technologie oriente et contraint l’action. Mais elle pose aussi le problème du
sens de l’action. L’activité technologique est inhérente au travail de l’ingénieur
pour dépasser le stade de l’invention en lui substituant une démarche de
conception moins contextuelle (donc plus généralement « déclinable » quelles
que soient les circonstances).
La technologie indique la référence à des « objets techniques » susceptibles
de la matérialiser. L’objet technique est donc porteur d’un modèle qui structure
l’ensemble des pratiques dont il peut faire l’objet. La machine a présenté la
caractéristique d’être à la fois un objet « plein », général et un objet particulier
(une machine particulière) car « penser » un système technologique n’implique
pas d’envisager toutes ses manifestations. Certaines sont plus importantes que
d’autres. Ce sont les objets les plus importants qui incarnent la technologie et
qui pèsent sur les représentations (par exemple la machine à vapeur et le métier
à tisser par rapport à la manufacture de la révolution industrielle). Comme le
souligne G. Simondon [8], c’est parce qu’il y a une finalité qui a présidé à la
réalisation de l’objet technique que l’on va pouvoir en retrouver les « bonnes
raisons ».
L’ambiguïté du terme « technologie » vient aussi de son acception américaine
(traduction est aussi réinterprétation !), de la même manière, les techniques (en
américain) indiquent les « plats » protocoles de procédures. Or on utilise
aujourd’hui Outre-Atlantique le terme de technologie pour celui de forme
technique « avancée ». Et pourtant, tout comme pour l’Ecole Polytechnique, le
projet du MIT (Massachusetts Institute of Technology) est d’assurer
l’enseignement et le développement des techniques de type « ingéniérique »
(être capable de concevoir et de modéliser) et, de façon transversale, de
contribuer à la genèse et à l’enrichissement de la technologie (au sens où L. Sfez
emploie ce terme). Mais, pour ce qui concerne la mise en œuvre, les Américains
12
Management des Technologies Organisationnelles : Journées d’Etude 2009
ont plutôt tendance à utiliser le terme « génie » (engineering) qu’ils nous ont
emprunté en le réinterprétant. L’idée de « génie » indique que, pour obtenir une
réalisation, il ne s’agit pas seulement d’appliquer une technique dans la mesure
où l’effet d’échelle nécessite de recourir à une méthodologie et des méthodes.
En d’autres termes, et toujours en poursuivant cet exemple, produire de
l’aspirine (ou des explosifs) en masse est aussi s’organiser pour les produire.
C’est donc bien ainsi que l’organisation entre en ligne de compte.
Pas étonnant donc que F. W. Taylor, ingénieur, ait fait œuvre d’organisation
avec le concept (technologique) d’organisation scientifique du travail dont les
méthodes servent de référence à la genèse d’un « génie industriel ».
L’ingénierie est une activité : elle ne s’identifie pas uniquement à un savoir, à un
domaine technique, à une fonction, à un attribut de la catégorie sociologique des
ingénieurs, lié à leur adaptabilité, à leur mobilité ou à toute autre caractéristique.
Elle est une activité précise et identifiée. Le terme de « sciences de l’ingénieur »
ouvre donc le champ conceptuel des sciences à l’idée de science appliquée, où
modèle scientifique et champ d’application interagissent. Les phases et activités
de l’ingénierie sont définies dans les différentes méthodologies de
développement des produits (européennes et américaines) et recouvrent les
activités suivantes : spécification qui est l’activité consistant à définir les
exigences et les caractéristiques attendues du produit, conception qui est
l’élaboration des solutions visant à satisfaire les exigences spécifiées,
développement qui est la mise en œuvre des solutions, validation qui est la
qualification de la réalisation et la vérification que la solution fournit les résultats
conformes aux exigences. De nombreuses définitions figurant dans les
dictionnaires spécialisés, ainsi que différentes communications ministérielles
décrivant les fonctions communément attribuées aux ingénieurs, mettent
l’accent, par ailleurs, sur les activités de gestion, (conduite de projet,
coordination, etc.), et privilégient même parfois cet aspect.
Donc, en ce qui concerne le domaine de l’organisation, la conception et la
réalisation de systèmes est une activité ancienne. C’est cependant F. W. Taylor
qui a accompli une avancée décisive lorsqu’il formalisa l’OST (organisation
scientifique du travail), qui repose sur trois principes : l’utilisation maximale de
l’outil, la suppression des mouvements inutiles, la séparation des tâches de
conception, de préparation et d’exécution. En revanche, il n’est pas inutile de
rappeler que l’OST n’est pas seulement un ensemble de principes, une simple
méthode ou un mode d’organisation mais qu’elle est un système technique et
opérationnel et même un projet de société (donc une « doctrine » en quelque
sorte). L’organisation taylorienne est un système complet qui utilise non
seulement des outils et des techniques (feuilles d’instruction, gammes
opératoires, etc.), mais aussi des méthodes (pour l’ordonnancement, la
Cartes blanches au comité scientifique
13
planification, etc.), ainsi qu’une structure organisationnelle séparant le support
fonctionnel, la maîtrise et les agents d’exécution. De nombreuses générations de
chercheurs, universitaires et ingénieurs ont participé, pendant plusieurs
décennies, à l’élaboration et à l’amélioration du système taylorien, suscitant
d’innombrables travaux et publications et créant de nouveaux métiers. Le
système taylorien est complet, reproductible et transposable au point qu’il a
équipé la plupart des entreprises. Il a créé une demande immense en nouveaux
systèmes et a ouvert la voie à une palette variée de spécialités en ingénierie
d’entreprise : la gestion de production, l’automatisation, la sécurité, la logistique,
la maintenance, etc.
Cette perspective des relations « technologie – organisation » pose la
question des déterminismes associés aux fondements possibles des descripteurs
de l’organisation et trois écoles s’affrontent à ce sujet :
• Celle du déterminisme technologique pour qui les problèmes de
technologie sont la composante essentielle.
• Celle du déterminisme organisationnel pour qui les problèmes de
technologie s’ajusteront aux « besoins structurels » des organisations.
• Celle du non-déterminisme pour qui l’évolution des organisations est un
phénomène émergent dans lequel la technologie n’a pas de place
privilégiée.
Les représentants de la première école, celle du déterminisme technologique
sont, par exemple, M. L. Tushman et N. A. Nadler [9] qui tentent d’expliquer plus
complètement le concept de convergence « traitement de l’information structure organisationnelle ». Ceci les amène à proposer une approche
contingente des structures organisationnelles. Des propositions découlant de
cette perspective ont été définies par G. P. Huber [10] afin de développer une
théorie de l'impact des technologies de l'information sur les organisations et sur
les processus de décisions. Ce déterminisme peut encore être qualifié de
perspective ingénierique puisqu’elle soutient que la structure organisationnelle
est le résultat d’une stratégie voulue et librement décidée en fonction des
intentions de ses concepteurs, sur la base d’un argument technique. Elle repose
sur l’idée que le déterminisme technique se traduirait, au regard de l’usage d’une
« nouvelle » technologie, par une modification de la rationalité sur laquelle
viennent reposer les représentations du fonctionnement organisationnel. Cette
perspective émane de l’approche cybernétique de l’organisation, mais c’est aussi
une approche normative de la conception des organisations, la volonté
managériale étant vue comme le principal élément explicatif de la conception des
organisations. Dans ce déterminisme, c’est aussi le couple « connaissance –
communication » qui est mis en exergue.
14
Management des Technologies Organisationnelles : Journées d’Etude 2009
Le déterminisme organisationnel se caractérise par la posture inverse.
Suivant ce point de vue, la demande organisationnelle serait susceptible d’être
satisfaite en allant puiser les moyens requis dans un portefeuille de technologies.
Les tenants du déterminisme organisationnel sont, par exemple, J. Galbraith [11]
et R. L. Daft & R. Lengel [12]. L’efficacité de l’organisation découlerait d’un
équilibre entre ses « besoins » et ses capacités techniques de l’autre. Les
besoins dépendraient essentiellement de trois facteurs : les caractéristiques des
activités de l’organisation, la nature de l’environnement, l’interdépendance des
unités. Pour faire face à ses besoins, l’organisation développerait une capacité
technique grâce à deux séries de choix : des choix de nature technologique et de
nature structurelle. Cette perspective possède deux conséquences : d’une part le
développement des technologies n’est pas la seule réponse possible aux besoins
de l’organisation et, d’autre part, les choix relatifs à l’adoption et à l’usage des
technologies ne peuvent être envisagés de manière indépendante des choix
relatifs à la conception de l’organisation.
La perspective de l’émergence est principalement représentée par R. Kling
[13]. Dans ce cadre, les usages et les conséquences des technologies émergent
de manière imprévisible d’interactions sociales. En effet, les objectifs annoncés
lors de l’adoption des technologies le sont en termes de productivité et
d’efficience, leur mise en place s’effectue dans une organisation déjà constituée
et leur usage n’est pas totalement prédéterminé. C’est pourquoi J. Pfeffer [14] a
proposé une perspective émergente de la diffusion de la technique, perspective
qui reconnaît la nature conflictuelle de l’introduction de la technique dans le
social et la symbolique particulière qu’y attache chaque individu ou groupe. Le
corps social ne serait pas aussi uniformément réceptif qu’on le laisse entendre.
Par ailleurs, la communication dans l’organisation est aussi de nature
symbolique, le contenu étant alors moins important que l’acte lui-même,
symbolique venant s’intégrer dans le système de valeurs déjà existant. Cette
perspective implique donc une conceptualisation plus élaborée du contexte
social.
Le cadre de la sociologie interactionniste d’A. Giddens [15] est souvent
convoqué, de même que celui de la théorie des « genres de communication » de
W. J. Orlikowski [16] ou encore celui de Poole & DeSanctis [17] avec leur théorie
adaptative de la technologie. Pour ces derniers, les technologies fournissent des
structures sociales décrites en termes de dispositifs structurels et d’esprit de la
technologie. Ces deux éléments déterminent ensemble, selon leurs différentes
modalités, le type et la nature des interactions sociales déclenchées et rendues
possibles par ces technologies. Pour W. J. Orlikowski, un genre est une action
(de communication par exemple) invoquée en réponse à une situation récurrente
qui intègre, au sein de l’organisation, l’histoire et la nature des pratiques
Cartes blanches au comité scientifique
15
établies, les relations sociales et les modes de communication. Pour sa part, la
théorie de la structuration d’A. Giddens est mobilisée afin d’expliquer la
dynamique des genres. Les entités sociales, c’est-à-dire les organisations, les
groupes ou les technologies sont considérées comme ayant des propriétés
structurelles vues comme un ensemble de règles et de ressources de trois
types : de signification, de domination et de légitimation. Les propriétés de
signification correspondent aux connaissances mutuellement partagées. Les
propriétés de domination correspondent à la répartition de l’autorité. Enfin, les
propriétés de légitimation correspondent aux règles et aux normes. La place des
routines communicationnelles (les genres) se retrouve dans le dernier type.
Ces trois perspectives dépendent néanmoins d’une définition de la
technologie qui est à la fois un objet social, le fruit d’interactions humaines, mais
aussi un artefact matériel. Mais elles comportent des limites. Les deux premières
sont limitées par leur perspective déterministe. Pour la perspective émergente,
sa limite est liée au rejet de l’existence de régularités du fait de différents
contextes sociaux. Par ailleurs, l’assimilation de la technologie au structurel pose
problème car la technologie n’est pas abstraite mais bien matérielle et, malgré la
tentative de W. J. Orlikowski de la présenter comme « flexible », la technologie
n’est sans doute pas si flexible que cela car ses manifestations matérielles ne
sont pas modifiables comme cela !
Pour sortir de ces limites, il est également possible de considérer
l’organisation à partir de la technologie vue comme un ensemble d’outils de
gestion. Dans une première définition apportée par J.-C. Moisdon [18] et reprise
par A. David [19], on peut considérer l’outil de gestion comme « toute
formalisation de l’activité organisée, (…), tout schéma de raisonnement reliant
de façon formelle un certain nombre de variables issues de l’organisation et
destiné à instruire les divers actes de la gestion ». Il y a donc, comme le
souligne l’auteur, l’idée d’amplification des activités humaines. Comme tous les
outils de gestion, les organisations reposent sur le postulat implicite de répondre
à des « besoins ». En ce sens, l’organisation, tout comme l’outil de gestion sont
construits à partir de théories et de modèles propres qui pourraient alors être
considérés comme un substrat technique, une « philosophie » de l’action
gestionnaire et une vision simplifiée des relations.
Il est alors possible de reprendre la typologie des rôles des outils de gestion
de A. Hatchuel & B. Weil [20] pour les appliquer aux organisations :
• C’est une instrumentalisation qui a pour but de stabiliser le
fonctionnement en limitant les biais cognitifs et en normant les
comportements des agents.
• C’est un mode d’investigation des déterminants essentiels de l’activité
dans la mesure où l’outil (ou l’organisation) ne capture pas la
16
Management des Technologies Organisationnelles : Journées d’Etude 2009
« réalité », mais constitue un cadre de référence. Il représente, de
façon plus ou moins éloignée, les processus de coordination, la
segmentation et des procédures d’évaluation et joue un rôle de
révélateur des représentations considérées comme déterminantes de
l’activité organisée.
• C’est un accompagnement du changement car le maintien de
« l’ancien » outil (ou de « l’ancienne » organisation) permet de révéler
l’incohérence de la structure organisationnelle et la nécessité d’adopter
de nouveaux outils (ou une « nouvelle » organisation) qui peuvent être
le support d’une dynamique collective. Il peut être le support d’une
construction collective à travers le phénomène d’apprentissage qu’il
permet. Avec le changement induit par l’implantation et l’articulation des
agents autour de l’outil (ou de l’organisation), on se retrouve au-delà
des règles du jeu initial pour produire de nouveaux savoirs facteurs de
la métamorphose des agents et de l’organisation.
• C’est un élément de renouveau car l’outil peut conduire à transformer
des savoirs techniques de base propres à l’organisation.
Les agents recomposent leurs comportements pour effectuer les activités à
partir des outils qui peuvent donc intervenir pour permettre la construction d’une
représentation collective des enjeux et problèmes. L’outil peut enfin, être le lieu
de mise en commun des différents savoirs avec des boucles de rétroaction entre
les résultats et pratiques pour permettre le fonctionnement organisationnel.
Mais les outils ont aussi leur vie conceptuelle propre : dans un contexte,
l’organisation ici, l’outil a tendance à créer d’autres outils affiliés tandis que la
sortie d’un contexte conduit l’outil à contribuer à la genèse de principes pouvant
eux-mêmes servir à créer d’autres outils mais de filiation plus éloignée alors. Il
s’agit d’ailleurs ici d’une production non finalisée parce que résultant de multiples
compromis venant faire « dérive » [21] ou encore de « machines de gestion »
[22].
Au regard des outils de gestion dont il est question avec l’organisation, on
peut donc bien affirmer qu’il s’agit alors de technologie s’inscrivant dans une
perspective ingénierique de l’organisation sur la base d’une filiation « sciences –
sciences de l’ingénieur – techniques de l’ingénieur – outils & instruments
d’« organisation et de gestion » pouvant alors conduire à remonter vers des
méthodes d’organisation voire une méthodologie.
CONCLUSION
Ne dispose-t-on pas, avec ces trois postures et leur élargissement vers la
perspective des outils de gestion, de la « matrice » d’un « savoir actionnable » ?
Cartes blanches au comité scientifique
17
Il est donc question, avec le « savoir actionnable » vu comme technologie, de
lier un objet (l’organisation), rendu visible au travers de ses manifestations
technico-économiques avec un concept (la technologie) visible au travers
d’objets techniques et débouchant sur la production d’un discours au sens
foucaldien du terme venant ouvrir le champ des concrétisations allant dans le
sens de ce discours par le recours à des métaphores créatives telles
qu’innovation, entrepreneur, etc.
Beaucoup des concrétisations d’un « savoir actionnable » en sciences des
organisations sont récursivement objet de connaissance et objet d’action. C’est
donc sans doute, comme on vient de le voir, le concept de technologie qui est le
mieux à même d’en rendre compte, que l’on se situe sur le plan de la
connaissance (sciences des organisations) ou sur celui de l’action qui lui est liée
(« savoir actionnable »), les deux étant, comme on vient de le voir, intimement
liés.
NOTES ET REFERENCES BIBLIOGRAPHIQUES
[1]
L. Magne, Le concept de « sciences de gestion » a-t-il un sens ?, Mémoire de DEA,
Université de Paris IX-Dauphine, Paris, (2004)
[2]
B. Colasse, Comptabilité Générale – PCG 1999, IAS, ENRON, Economica, collection
« Gestion », 8° édition, Paris, (2003), 8-9
[3]
H. Jonas, Le principe responsabilité, Cerf, Paris, (1989)
[4]
L. Sfez, op. cit.
[5]
L. Sfez, op. cit.
[6]
P. Dussauge & B. Ramanantsoa, Technologie et stratégie d’entreprise, McGraw-Hill,
collection « stratégie et management », Paris, (1987)
[7]
P. Ndiaye, Du nylon et des bombes – Du Pont de Nemours, le marché et l’Etat
américain, 1940-1970, Belin, Paris, (2001)
[8]
G. Simondon, Du mode d’existence des objets techniques, Aubier, Paris, (1958 2001)
[9)]
M. L. Tushman et N. A. Nadler, “Information Processing as an Integrating Concept”,
in Organizational Design, The Academy of Management Review, 3.3, (1978)
[10]
G. P. Huber, “A Theory of the Effects of Advanced Information Technologies on
Organizational Design”, Intelligence and Decision-making, Academy of Management
Review, 15, 1 (1990)
[11]
J. Galbraith, Organizational Design, Addison-Wesley, Readings, (1977)
[12]
R. L. Daft & R. Lengel R., “Organizational Information Requirements, Media
Richness and Structural Design”, Management Science, 32, 5 (1986)
[13]
R. Kling, “Defining the Boundaries of Computing across Complex Organizations”, in
R. Roland & R. Hirscheim, Critical Issue in Information System Research, J. Wiley,
London, (1987)
18
Management des Technologies Organisationnelles : Journées d’Etude 2009
[14]
J. Pfeffer, Organization and Organization Theory, Ballinger Publishing Company,
Cambridge, Massachusetts, (1982)
[15]
A. Giddens, La constitution de la société, P.U.F., Paris, (1984)
[16]
W. J. Orlikowski, “The Duality of Technology: Rethinking the Concept of Technology
in Organizations”, Organization Science, 3, 3 (1992)
[17]
Poole & DeSanctis, “Capturing the Complexity in Advanced Technology Use:
Adaptative Structuration Theory”, Organization Science, (1994)
[18]
J.-C. Moisdon, Du mode d’existence des objets techniques, SeliArlan, Paris, (1997)
[19]
A. David, « Outils de gestion et dynamique du changement », revue Française de
Gestion, septembre - octobre (1998)
[20]
A. Hatchuel & B. Weil, L’expert et le système, Economica, Paris, (1992)
[21]
Y. Pesqueux & B. Triboulois, La « dérive » organisationnelle, L’Harmattan, Paris,
(2004)
[22]
J. Girin, « Les règlements de sécurité », Annales des Mines, 7-8, juillet/août (1981)
66-82
Cartes blanches au comité scientifique
19
Rationalité du développement de
l’interopérabilité dans les
organisations
Hervé PINGAUD
Professeur
Directeur du Centre de Génie Industriel
Ecole des Mines d’Albi-Carmaux
Cet article est extrait du contenu d’une conférence plénière que j’ai réalisée
en Juin 2009 dans le cadre du congrès international de Génie Industriel [1], qui
se déroulait au pied de nos magnifiques Pyrénées, dans la ville de Bagnères de
Bigorre. Les thèmes principaux de ce congrès étaient l’interopérabilité et
l’intégration. Les organisateurs m’ont fait l’honneur de présider au lancement des
débats par la conférence introductive sur l’interopérabilité que j’ai intitulé :
« Prospective de recherches en interopérabilité : vers un art de la médiation ? ».
L’interopérabilité est un concept encore jeune dans les sciences de l’ingénieur, et
son ancrage dans le génie industriel est très récent. Il m’appartenait donc de
débuter cet exposé par une vision de l’intérêt du sujet en procédant par la
pratique pour ne pas déstabiliser mon auditoire. J’ai donc construit la première
partie de cette conférence sur une définition du concept, et me suis empressé de
fournir une perception de son intérêt et de sa portée pour l’avenir de nos
organisations de production de biens et de services. C’est donc ce contenu que
je vous livre ici.
Il ne serait pas élégant de m’approprier seul la teneur de cet article. Et je
tiens à citer, d’emblée, les groupes de travail où, depuis maintenant plus de 7
ans, cette connaissance a été travaillée et s’est construite. Ils sont au nombre de
trois :
• Deux groupements de recherche du CNRS (« Modélisation, Analyse et
Conduite des Systèmes » et « Information-Interaction-Intelligence »,
20
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
•
[2]) ont porté en commun un groupe « Entreprise Communicante et
Interopérabilité » de 2002 à 2008, que j’ai eu le plaisir de co-animer
avec S. Nurcan, K. Benali et M. Schneider,
Plus récemment, faisant suite à des actions incitatives fortes de la
commission européenne, via sa direction générale « Information Society
Technologies », dans son 6ème programme-cadre de recherches et sur
le thème « Enterprise Interoperability », un laboratoire virtuel mondial
est né : InterOp VLab [3]. Il forme un réseau de plus de 300 spécialistes
à l’échelle de la planète sur ce sujet spécifique. Ce laboratoire virtuel
est structuré en 7 pôles régionaux. Depuis 2006, nous avons créé le
pôle français rattaché à cette structure. Ce pôle est très actif, et
possède un portefeuille de projets de recherches qui produit des
avancées significatives.
Enfin, et je les garde en dernier par plaisir, l’équipe de recherches du
centre de Génie Industriel de l’Ecole des Mines d’Albi-Carmaux qui se
concentre sur ce sujet depuis 2000 [4]. La collaboration avec les quatre
étudiants en thèse et mon collègue F. Benaben, est un creuset qui se
renouvelle sans cesse, et crée un véritable enthousiasme collectif pour
cette recherche dans une unité dont les travaux portent sur les
organisations.
DEFINITION DE L’INTEROPERABILITE DANS LES ORGANISATIONS
Il existe de nombreuses définitions du terme interopérabilité. Celle que nous
proposons ci dessous inclut la plupart des positions adoptées par les groupes et
les réseaux compétents (comme l’IEEE, par exemple). Nous avançons cette
définition parce qu’elle nous semble accessible et adaptée à ces systèmes
complexes particuliers que sont les organisations.
L’interopérabilité désigne une capacité de systèmes, nativement
étrangers les uns par rapport aux autres, à interagir afin d’établir des
comportements collectifs harmonieux et finalisés, sans avoir à modifier
en profondeur leur structure ou leur comportement individuel.
C’est un constat : il y a souvent de multiples interprétations du terme
interopérabilité dans le discours courant. L’interopérabilité y est décrite parfois
comme un état final, d’autres fois comme une condition ou encore comme une
propriété du système. De prime abord, cette confusion peut apparaître
troublante, elle n’est pas pour autant illégitime. En effet, savoir mobiliser la
capacité et l’exploiter induit des possibilités de faire qui génèrent les états finaux
Cartes blanches au comité scientifique
21
escomptés. Elle est confondue naturellement avec la condition lorsqu’on
s’interroge sur l’existence et le potentiel de la capacité, comme un pré-requis.
Elle est fondamentalement une propriété caractéristique de système.
Figure 1 – L’interopérabilité est une capacité individuelle de système
contributeur qui s’exprime lors de l’interaction avec d’autres systèmes
contributeurs
Cette définition fait référence à des systèmes ce qui lui procure une certaine
universalité.
Définis comme nativement étrangers, ces systèmes contributeurs n’ont donc
pas, au moment de leur conception, inclus dans leur spécification fonctionnelle
des connaissances spécifiques des autres systèmes avec lesquels ils vont
interagir. Empruntant la philosophie de l’ingénierie des systèmes, nous montrons
sur la figure 1 la structure en réseau qui est le lieu d’expression de la capacité.
La définition vient compléter cette figure en indiquant que le comportement
collectif est celui d’une collaboration entre organisations. En effet, les
interactions poursuivent un objectif, le comportement a une finalité et le réseau
remplit une mission. Pour ce faire, il obéit à des règles qui harmonisent les
interactions afin de produire une certaine efficacité. Un dernier trait essentiel de
cette définition est directement en lien avec une analyse de la valeur : ce
comportement collectif et harmonieux se fait à moindre effort pour chaque
système contributeur. C’est de ce trait que naît l’interopérabilité, appréhendée
comme une forme de couplage faible entre les systèmes contributeurs.
Si le concept a certainement évolué au cours des dernières années,
l’interopérabilité est ancrée depuis longtemps dans notre quotidien, lorsque nous
utilisons des objets techniques naturellement impliqués dans, ou ouverts sur,
22
Management des Technologies Organisationnelles : Journées d’Etude 2009
leur environnement. Le concept a été promu par les technologies de
l’information et de la communication. Prenons deux exemples tout à fait simples.
La clé USB est un moyen très répandu de stockage de l’information. Elle a
des capacités d’interopérabilité avec plusieurs autres systèmes, et en premier
lieu avec les ordinateurs personnels, points d’entrée du fonctionnement en
réseau de beaucoup d’organisations. Un acteur peut interagir avec deux
ordinateurs de version, de marque ou ayant des systèmes d’exploitation
différents de manière à transférer des informations par ce moyen de stockage.
La clé est bien nativement étrangère au poste informatique. Elle dispose des
greffons (en anglais : « plugin ») qui lui permettent de gérer les flux à l’interface
du système qu’elle découvre au moment de son branchement dans le port
d’accueil.
Figure 2 – Exemples de composant logiciel intermédiaire embarqué
Très souvent, nous mobilisons la capacité en mobilisant des intermédiaires
comme ces greffons, qui sont devenus progressivement des composantes
naturelles du paysage. Ainsi, il est possible de transférer un contenu d’un fichier
de données d’un logiciel de traitement de texte comme MS-Word
(MonFichier.doc de la figure 2) vers un autre traitement de texte comme Adobe
Acrobate Reader (MonFichier.pdf) en activant dans le premier logiciel un
composant intermédiaire, qui est embarqué dans la fonction d’impression et
prend en charge l’opération de traduction d’un premier format vers un second
format de fichier. Cette opération ne procure aucune valeur ajoutée au contenu
des fichiers qui sont strictement les mêmes.
Enfin, un dernier exemple de facilités ancrées dans notre quotidien que sont
les cartes à puce. Avec une carte bancaire par exemple, vous savez créer une
liaison avec vos comptes en banque en étant éloigné de votre agence bancaire.
Les guichets automatiques sont très répandus, et permettent le fonctionnement
en réseau à partir d’un grand nombre de types de cartes bancaires. De fait, une
Cartes blanches au comité scientifique
23
interopérabilité s’installe entre le client et sa banque, mais également entre
toutes les banques ce qui crée une vraie valeur ajoutée au service client en
démultipliant les points d’accès. Le comportement est harmonieux parce que les
processus bancaires qui guident l’interaction sont bien définis. Ils sont finalisés
parce que l’utilisateur sélectionne un service dès qu’il entre en contact avec le
système. Peu à peu, ces guichets automatiques augmentent leur faculté. On
peut désormais recharger des cartes à puce téléphoniques dans certains de ces
appareils. Notre exemple pourrait se prolonger au cas de la carte de sécurité
sociale (la carte « vitale » en France) qui permet de développer d’autres types
de prestations à moindre effort.
PREMIERE SYNTHESE
On peut s’interroger à travers cette première série d’exemples sur ce qui
fonde un besoin d’interopérabilité.
Quels sont les facteurs de motivation pour développer une telle capacité au
moment de la conception du système ?
Quels sont les bénéfices escomptés en phase d’exploitation ?
Reprenant le prisme de l’ingénierie des systèmes, nous répondrons à la
première question en classant ces facteurs de motivation selon trois natures de
variation dont le réseau de systèmes serait le sujet durant son cycle de vie
global :
• variations dans la mission du réseau
• évolution dans les objectifs
• évolution de l’environnement
• variations dans la structure des systèmes contributeurs
• changement de version
• changement de fonction
• changement d’outil ou de ressource
• variations dans le fonctionnement
• évolution de la nature des échanges
• évolution de la structure
• évolution d la logique des échanges
Il est plus délicat de répondre de manière générale à la seconde question.
Toutefois, nous savons que les impacts des changements cités ci dessus peuvent
nuire à l’obtention de bonnes performances. Ainsi, il peut devenir difficile de
rendre le service attendu dans le cas de système critique. Et les exigences des
24
Management des Technologies Organisationnelles : Journées d’Etude 2009
clients font que les systèmes sont de plus en plus critiques ! Sur un autre plan,
on peut imaginer que les coûts de structure, de transaction et d’exploitation du
réseau sont plus raisonnables lorsque l’interopérabilité est au rendez-vous. Enfin,
l’adaptabilité aux missions procurée au réseau par une faculté de reconfiguration
facilement accessible induit de la qualité de service maintenue dans des
situations évolutives, d’où un lien avec la notion d’agilité.
Nous résumons ce contexte sur la figure 3, sans être exhaustif, par
différentes variations structurelles et comportementales.
Figure 3- Reconfiguration du réseau par variations structurelles (changement
de système sur la partie gauche de la figure) ou comportementales
(modifications des interactions sur la partie droite de la figure)
ETUDE DE CINQ SECTEURS D’APPLICATION EMERGENTS
Si la définition de l’interopérabilité introduite dans cet article a un caractère
universel, cela grève un peu son appropriation sur un plan concret et rationnel.
Nous proposons de combler cette lacune en étudiant quelques secteurs
d’application qui rentrent dans les critères de variation énoncés ci dessus, et ont
publiquement émis, dans ce cadre évolutif, des exigences en matière
d’interopérabilité. Cette déclaration se fait généralement via des organes de
gouvernance qui font autorité dans le secteur concerné.
Secteur 1 : domaine de la formation supérieure
Le développement des échanges internationaux d’étudiants de
l’enseignement supérieur offre une démonstration, si besoin est, du rapport
entre l’interopérabilité d’une part, et la structure et le fonctionnement des
organisations, d’autre part. Comment imaginer que le développement de cursus
Cartes blanches au comité scientifique
25
des étudiants qui leur offrent des possibilités de séjour à l’étranger puisse se
faire sans des règles d’organisation autour de deux processus majeurs :
• l’admission dans l’établissement d’accueil,
• l’évaluation de l’étudiant pendant sa formation distante pour
l’établissement d’origine ?
On connaît ces règles dans les établissements d’enseignement supérieur car
elles ont été à l’origine de réformes récentes. Ce qu’on nomme en Europe les
critères du processus de Bologne (semestrialisation des cursus, passage au
système de crédits ECTS sur un découpage des programmes en unité
d’enseignement, par exemple) font partie du développement des capacités
d’interopérabilité entre établissements pour des flux qui sont des flux contrôlés
d’étudiants.
Secteur 2 : domaine de la santé
Le développement de la télésanté, incluant la télémédecine, est au cœur de
l’actualité de l’année 2009 en France. L’adoption de la loi Hopital, Patients, Santé
et Territoires officialise le remboursement des actes de télémédecine, ce qui
constitue un pas majeur dans la réforme des systèmes de santé. On sait que la
maîtrise des coûts de santé est le principal inducteur de cette réforme. Pour
illustrer cela, on peut citer un chiffre parlant : 17 milliards d’euro sont dépensés
chaque année pour les frais de transport liés aux soins ambulatoires sur un
budget d’environ 400 milliards. La perception des gains potentiels liés aux
développements des technologies de l’information et de la communication pour
un fonctionnement en réseau entre des acteurs distants est immédiate.
Ce développement ne doit pas se faire de manière contraignante, c’est à dire
que le rapport entre des professions libérales et les patients doit rester libre. Il
ne doit pas nuire à la qualité des soins, au contraire, l’accès facilité à des moyens
de contrôle et d’analyses médicales est vu comme une facilité accrue. Enfin, il ne
doit pas déroger aux obligations réglementaires qui régissent l’exercice des
professions de la santé. Le suivi d’un patient à domicile pose de nouveaux
problèmes de coordination des compétences. Le caractère incertain fortement lié
au suivi d’un patient dont l’évolution de la maladie n’est pas totalement
prédictible induit des besoins de reconfiguration du réseau de soins au cas par
cas, et parfois en situation critique. Un formidable domaine de développement
est en train de naître au sein duquel l’interopérabilité est déjà annoncée comme
un maître mot.
Secteur 3 : domaine de l’énergie
Le développement durable porte la question de l’indépendance énergétique
au premier plan des préoccupations gouvernementales. On ressent déjà les
26
Management des Technologies Organisationnelles : Journées d’Etude 2009
effets de ces nouvelles politiques. Nous allons développer le cas de la fourniture
de l’énergie électrique aux usagers. Ce cas a un intérêt particulier car le flux que
crée la distribution d’énergie entre des acteurs a la propriété d’être un flux
strictement tendu, pour la raison qu’il n’existe pas aujourd’hui de moyens de
stocker massivement cette forme d’énergie.
Les réseaux de production-distribution-consommation d’énergie sont de plus
en plus difficiles à piloter. Le fait est que l’actualité pointe fréquemment des
phénomènes locaux de dégradation de service (rupture d’alimentation) dont les
conséquences peuvent être graves. Structurellement, les formes de production
sont très diversifiées, et cette diversification augmente avec l’apparition des
énergies renouvelables. Côté consommation, trois phénomènes apparaissent :
• par la libération des marchés, les prestataires de la production sont plus
nombreux, et la situation monopolistique a disparu, le client peut choisir
son prestataire même si le distributeur reste le même,
• le consommateur peut avoir une diminution de la demande externe
parce qu’il est producteur d’énergie (panneaux solaires et géothermie),
mais si son besoin est inférieur à sa production effective, la distribution
doit assurer le dispatching de cet excès sur le réseau. Les incitations
économiques sont telles que ce cas de figure n’est plus marginal,
• le comportement du consommateur peut devenir une source de
flexibilité. De fait, les distributeurs ont tendance à développer des tarifs
séduisants sur un marché libre. Ainsi, les progrès en domotique
induisant des objets consommateurs intelligents, on peut penser qu’à
terme, il s’établira une négociation entre les agents de la maison et le
compteur d’électricité pour essayer d’effacer les pics de consommation
sur le réseau. Ce qui était hier une incitation économique par tranches
horaires figées peut devenir demain une incitation événementielle au
gré de la politique réactive de contrôle du réseau de distribution.
Une telle somme de variations structurelles et comportementales illustre le
besoin d’interopérabilité sur un cas dominé par des systèmes nativement
étrangers et le besoin de qualité de service.
Secteur 4 : domaine du transport
Voyageant récemment entre l’aéroport de Lyon St Exupéry et le centre ville
par taxi, je me désespérais en examinant la console centrale du véhicule dans
lequel j’étais monté. Oui, ce chauffeur disposait de multiples fonctionnalités pour
obtenir des informations de routage, des informations de plannings ou des
contacts directs avec de futurs clients, pour calculer le coût de mon transport ou
pour réaliser l’édition de la facture, ainsi que réaliser l’encaissement de mon
règlement. Seulement, tous ces moyens étaient non reliés aboutissant à un
Cartes blanches au comité scientifique
27
enchevêtrement incroyable d’appareils et de fils ! Dialoguant avec lui pendant le
temps d’un bouchon sur l’autoroute, il me fit part de la mise sur le marché
prochainement d’une console parfaitement moderne avec le tout intégré à des
prix dépassant ses moyens. Joli affaire qu’un marché rendu ainsi captif. Pourquoi
ces appareils ne deviendraient ils pas interopérables dans leur prochaine
génération en utilisant, de plus, des liaisons sans fils ?
Plus généralement, le transport est aussi, comme pour le cas de l’énergie, un
système fondé sur un marché libre de niveau planétaire, et dominé par la qualité
de service pour aller le plus facilement possible et au coût le moins élevé d’un
point A à un point B. Le trajet peut inclure de multiples moyens de transport
différents, et concevoir son voyage, c’est agencer ces moyens dans une logique
de pertinence. Même si ce secteur a notablement évolué avec l ‘essor des
technologies du Web, il n’en reste pas moins que ce fonctionnement en réseau
a encore de nombreuses lacunes et que la diversité des situations est telle que
ces systèmes de transport multimodaux vont encore faire l’objet de nombreuses
recherches. De par cette diversité native entre l’offre et le besoin, nul doute que
l’interopérabilité sera au rang des challenges principaux.
Secteur 5 : domaine de la gestion de crise
Par nature, la gestion de crise crée des situations critiques. Ce sont des
situations où l’incertitude est pesante, et où la pression sur les prises de décision
est intense. Beaucoup de crises liées à des phénomènes naturels mobilisent des
besoins de transport, d’énergie ou de soins. Par conséquent, le système de
réponse à la crise est un réseau qui se construit sur la base des capacités
d’interopérabilité évoquées dans les secteurs étudiés auparavant.
Une cellule de gestion de crise est un lieu de management qui doit être
correctement informé sur l’évolution de la situation, qui en elle même peut
impliquer de nouveaux acteurs au fil de son développement, mais qui doit aussi
adapter sa réponse en pilotant la structure et le comportement du système de
traitement, soit par anticipation, soit de façon curative.
Des travaux sont en cours dans le cadre d’un projet ANR-CSOSG IsyCri
(2007-2009) [4] pour faire évoluer les méthodes, les moyens et les pratiques en
la matière. Nous invitons le lecteur intéressé à consulter les communications sur
ces travaux pour de plus amples informations.
SECONDE SYNTHESE
Outre le caractère illustratif de toutes ces applications sectorielles émergentes
vis à vis des éléments de notre première synthèse, nous pouvons chercher à
factoriser ces différents cas pour alimenter une seconde synthèse.
28
Management des Technologies Organisationnelles : Journées d’Etude 2009
De nouveau, nous le faisons par affinité avec une évolution récente de
l’ingénierie des systèmes. Elle correspond à l’avènement du concept de système
de systèmes qui ponctue des besoins de mieux comprendre et maîtriser des
fonctionnements de systèmes en réseau. Nous avons repris les critères
discriminants d’un système de systèmes énoncés par Maier en 1998 [5] pour les
faire nôtre. Ils sont au nombre de cinq :
• indépendance opérationnelle des éléments
• indépendance managériale des éléments
• développement évolutif
• comportement émergent
• distribution géographique
Nous invitons aimablement le lecteur à relire les cinq secteurs d’application
émergents en s’interrogeant sur le bien fondé de chacun de ces critères. Nous
pensons que le système des systèmes se conçoit et s’exploite avec beaucoup
d’ingéniosité si la capacité d’interopérabilité est travaillée et mise à profit dans
chacun des systèmes contributeurs. Ce travail ne se cantonne bien évidemment
pas aux seuls systèmes d’information, le pilotage est inclus dans ce dispositif.
Il semble que les écoles de pensée qui se développent outre atlantique
autour de ce concept d’interopérabilité empruntent résolument cette position.
CONCLUSIONS
Nous avons proposé une définition du concept d’interopérabilité qui favorise
une ouverture sur une discussion du potentiel ainsi créé pour les organisations
de production de biens et de services. Nous avons cherché à illustrer le concept
en lui même, mais aussi ce potentiel d’innovation par quelques faits tirés
essentiellement du domaine des services, ce qui les rend assez faciles à
appréhender (ou tout au moins, nous avons la légèreté de le penser).
Notre discours n’a pas abordé les cas plus classiques du Génie Industriel avec
des organisations de production de biens (entreprise étendue, virtuelle, supply
chain…). Mais ces objets ont été le centre de préoccupation des travaux de
recherche supportés par la commission européenne et évoqués en introduction.
Une bibliographie est disponible sur le site Web du laboratoire virtuelle InterOp
VLab sur ce sujet. De mon point de vue, le potentiel d’innovation n’est pas aussi
intense que sur les secteurs évoqués ici.
Ce parcours nous a conduits à élaborer deux synthèses pour essayer de
caractériser des faits saillants des recherches sur ce sujet. Sans aller jusqu’à
Cartes blanches au comité scientifique
29
affirmer qu’il s’agit d’un champ disciplinaire nouveau (avec toutes les
conséquences que cela peut induire de la part de ceux qui sont bien installés
dans le paysage…), nous sommes persuadés que cette connaissance créée
autour de ce concept concret d’interopérabilité est susceptible de promouvoir
une culture nouvelle, sous l’impulsion de l’ingénierie des systèmes et de toutes
les disciplines qui se trouvent sensibilisées par des applications potentielles. De
cette culture devront naître d’autres secteurs émergents.
NOTES ET REFERENCES BIBLIOGRAPHIQUES
[1]
site Web du 8ème congrès
http://www.enit.fr/cigi2009/
[2]
site Web de GdR I3 du CNRS ‘http://www.irit.fr/GDR-I3/), Groupe “Modélisation et
Interopérabilité des Enterprises et des Systèmes d’Information”
[3]
site Web du laboratoire virtuel InterOp Vlab, http://interop-vlab.eu/
[4]
international
de
Génie
Industriel,
CIGI09,
S. Truptil, F. Benaben, P. Couget, M. Lauras, V. Chapurlat, H. Pingaud,
Interoperability of information systems in crisis management : crisis modeling and
metamodeling, I-ESA'08 conference, Ed. Springer, ISBN 9781848002203, (2008),
583-594
[5]
M.W. Maier, Architecting principles for systems of systems, disponible en ligne,
http://www.infoed.com/Open/PAPERS/systems.htm
30
Management des Technologies Organisationnelles : Journées d’Etude 2009
Cartes blanches au comité scientifique
31
Pour une éthique relationnelle dans
les organisations contemporaines ?
Véronique RICHARD
Professeur
Directrice du CELSA
Université Paris-Sorbonne
Les questionnements cherchant à analyser les rapports de l’éthique et de
l’économie ne sont pas récents. Ils ont suscité chez les philosophes de l’Antiquité
comme chez les économistes contemporains nombre d’œuvres majeures [1].
Depuis l’avènement des grandes entreprises au début du vingtième siècle,
dirigeants, syndicalistes, hommes politiques comme économistes, sociologues,
psychosociologues…, se posent la question de la moralisation (de
l’humanisation ?) des rapports sociaux et des relations humaines au sein des
organisations, les uns et les autres portés par des approches et des finalités
souvent différentes et parfois convergentes. Visée utilitariste et visée humaniste
s’entrecroisent et se superposent laissant souvent planer une ambiguïté sur la
posture adoptée : descriptive/explicative, normative/prescriptive ou résultant
d’une combinatoire de ces orientations.
Mon parcours de recherche m’a conduite à m’intéresser tout d’abord aux
« modalités d’amélioration de la communication interne dans les organisations à
structure éclatée » [2] pour me focaliser par la suite sur « les incidences des
changements de l’organisation du travail et du management sur les fondements
et les pratiques de l’éthique relationnelle » [3]. J’entends par éthique
relationnelle l’éthique implicite et explicite qui s’exprime dans les comportements
et sous-tend les relations interpersonnelles hiérarchiques, horizontales et
transversales entre les hommes dans les organisations.
Les résultats obtenus alors et complétés depuis par l’observation de cas
concrets ou la lecture de matériaux composites [4] m’ont convaincue qu’il était
toujours pertinent de se poser cette question de la nécessité/possibilité
d’instaurer une éthique relationnelle dans les organisations. L’analyse cursive
32
Management des Technologies Organisationnelles : Journées d’Etude 2009
faite à la lecture des évènements contemporains [5] et des écrits récents [6]
montre qu’il y a d'une part rémanence d’un socle théorique et méthodologique
stratifié au cours des siècles précédents, correspondant à des imaginaires et à
des mondes vécus variés, et d'autre part renouvèlement de la question,
notamment du fait de la révolution technologique et de la mondialisation et des
évènements à longue portée qu’elles provoquent.
Ce qui sera tenté dans cet article, c’est de pointer la variation mais aussi la
convergence de points de vue interrogeant les rapports au travail en regard de
l’éthique. Comment l’ethos ambiant colore la manière dont les acteurs
s’organisent ? Quelle responsabilité sociale endossent les acteurs [7] lorsqu’ils
interviennent dans une situation organisationnelle ? L’entrelacement des
problématiques environnementale, économique et sociale du fait de leur
complexité induit plusieurs types d’approches et de tentatives d’explication
provenant de systèmes de références différents qui seront mobilisés ci-après [8].
DEFINITION LIMINAIRE
Au cours de mes recherches, j’ai pris le parti de considérer l’éthique comme
une visée, un optatif et de retenir, dans la lignée des écrits de Paul Ricœur,
qu’elle est un questionnement sur le sens de la vie qui aboutit à une position
personnelle sur la « visée d’une vie accomplie avec et pour autrui dans des
institutions justes » [9]. S’inscrire dans cette optique permet de se focaliser sur
la responsabilité personnelle des choix de conduite dans la vie au travail et de
s’intéresser aux positions existentielles et aux attitudes comportementales à
l’œuvre dans les relations entre les hommes. L’éthique est réflexion au double
sens du terme : la réflexion qui permet d’analyser les phénomènes et les
situations et la réflexion qui produit de la réflexivité et renvoie en miroir aux
acteurs le résultat de l’analyse, induisant une boucle récursive de
questionnements / réponses, modifiant les visions et les actions des uns et des
autres.
Ethique de conviction et éthique de responsabilité [10] encadrent les
décisions des individus sachant que, dans un collectif de travail, les individus
sont liés les uns aux autres par des communautés de pratiques et de routines
[11] et des relations d’interdépendance ; ils doivent travailler ensemble, s’allier
même temporairement même si leurs visées diffèrent. Ils produisent de façon
imposée, négociée ou conjointement [12] les règles du jeu social. La structure
organisationnelle par ses systèmes de contraintes, ses normes formelles, ses
cultures, définit l’action et les représentations individuelles. Des compromis se
négocient quotidiennement dans les relations interindividuelles à propos de la
combinaison des visées individuelles et des contraintes collectives.
Cartes blanches au comité scientifique
33
Poser le contexte, c’est-à-dire rappeler les caractéristiques humaines les plus
saillantes des organisations actuelles du travail et évoquer leurs incidences sur
les modes d’accord (1er temps) et sur les difficultés relationnelles et les
dissonances qui en résultent (2ème temps) s’impose avant de questionner les
discours du management sur l’éthique et d’envisager les incertitudes et les
ambiguïtés qu’ils induisent (3ème temps), pour tenter en ouverture d’établir la
nécessité/possibilité de l’éthique relationnelle.
EVOLUTIONS DES FORMES D’ORGANISATION DU TRAVAIL ET DES MODES D’ACCORD
Il ne peut s’agir ici d’englober ni de détailler les différentes structures et lois
de fonctionnement caractérisant les organisations contemporaines. On les
considérera comme des systèmes socio-productifs, différenciés par la taille, le
métier, les implantations, l’histoire, la culture, les identités… On tentera de voir
comment les mutations actuelles provoquent des bouleversements dans les
relations d’interdépendance nouées entre les acteurs qui y œuvrent.
Parmi les caractéristiques les plus fréquemment mises en avant figure le fait
que nous sommes dans l’ère du changement permanent [13]. Les organisations
ne sont pas stabilisées ; elles évoluent en fonction du contexte et des
évènements [14] dans leurs structures, leur configuration, leur périmètre, leur
métier (recentrement/décentrement). Elles incluent/excluent de nouveaux
entrants/sortants. L’instabilité des structures, la flexibilité et la mobilité qu’elles
imposent, la destruction/reconstruction de liens et l’insécurité qui en découle
reconfigurent les agencements organisationnels et modifient les identités
individuelles et les rapports interindividuels. Les statuts ne sont plus acquis à vie,
les collectifs de métier éclatent, les identités doivent se reconstruire, les relations
se figent sur des modèles défensifs fluctuant entre individualisme et solidarité.
L’insécurité est accrue par la pression de l’objectif du résultat à court terme
mesuré par des systèmes d’évaluation peu adaptés à la complexité des
situations.
Dans ces nouvelles configurations-instables-, on cherche à pallier les
carences d’intercompréhension par différents moyens souvent contradictoires et
ambivalents, oscillant entre rationalité procédurale et appel à l’autonomie et à la
responsabilité. Le surcroît d’objectivation des relations s’allie à l’injonction à la
créativité. Les modèles d’organisation post-tayloriens reconnaissent comme
fondement des rapports sociaux du travail la créativité et la responsabilité.
L‘innovation participative, la dimension entrepreneuriale -schumpétérienne- du
travail, l’organisation en mode projet (à durée limitée), le travail en « réseau »
[15] nécessitent une coopération qui repose in fine fondamentalement sur la
qualité des rapports sociaux et l’engagement des acteurs. Ces « investissements
34
Management des Technologies Organisationnelles : Journées d’Etude 2009
de forme » [16] résistent à la programmation « pure et parfaite » ; ils produisent
de façon imprévisible ordre et désordre [17].
Les processus d’émancipation nécessités par l’innovation ne peuvent être
maîtrisés formellement. Les rapports de force dans ce contexte supposent de
laisser des marges de manœuvre aux acteurs pour qu’ils aménagent leur mode
opératoire et négocient et renégocient de façon constante, individuellement et
collectivement, la part acceptable de la contrainte organisationnelle. L’
« horizontalisation de la hiérarchie » [18] et la « désautomatisation » [19] des
comportements » induite par l’appel à l’initiative et à la créativité ne libère pas
du contrôle ; le contrôle évolue du contrôle par la règle, au contrôle par
l’objectif, l’implication, l’engagement. La confusion fréquente entre évaluation
des individus et évaluation des activités menées et de l’action réalisée accroît
l’insécurité identitaire et entrave la liberté d’action a contrario des objectifs
d’innovation. Dans une boucle récursive, le fait de laisser des marges
d’adaptabilité permet d’« intérioriser » et d’« incorporer » [20] les nouvelles
contraintes organisationnelles plus floues mais tout autant coercitives.
Le dilemme autonomie/contrôle, le souci d’éviter les écarts entre les règles de
coordination technique et les pratiques effectives de coopération ne sont pas des
butées nouvelles. Nombre d’auteurs réactivent les schèmes de sociabilité mis en
lumière depuis l’avènement de la sociologie : boucle du don/contre-don [21],
sens du devoir [22], logique de l’honneur [23]… et corroborent l’idée de
mécanismes de régulation sociale basée sur une « adhésion librement
consentie », telle que développée par J. Rawls dans sa théorie de la justice.
Dans cette optique, l’accord sur les modalités d’organisation est négocié selon
une double matrice d’intérêt économique (maximisation du profit) et de vertu
morale (respect des règles de justice).
On le voit, il est impossible de démêler dans les organisations ethos et
praxis ; questions factuelles et questions morales sont indissociables, tant
l’efficience de l’organisation est dépendante des conceptions que l’on a de
l’Homme et de la liberté dont il peut user.
ATTENTES ET DISSONANCES RELATIONNELLES
La prise de conscience de la nécessité d’un « développement durable » et de
la « responsabilité sociale des entreprises » s’enracine dans les esprits et accroît
la pression de la société civile sur les entreprises. On attend d’elles qu’elles
prennent leur part dans le développement tant social et sociétal qu’économique.
Les normes socio/morales portées par les tenants du développement durable
interfèrent avec les injonctions qui viennent de l’économique. Les règles du jeu
propres au monde des affaires, la morale utilitariste recherchant l’accroissement
Cartes blanches au comité scientifique
35
de la richesse sont remises en cause par les différents cercles internes et
externes auxquels sont reliées les entreprises. Les paramètres normatifs que
sont le droit, le contrat de travail, les codes de déontologie, les règles
administratives, les standards sociaux… oscillent entre un universalisme juridique
(les règles supra et internationales) et les ordres nationaux, ajoutant à la tension
entre l’universalité des principes et les particularités culturelles. La superposition
de normes et d’institutions dessine un entrecroisement qui peut provoquer flou
et conflit de normes et nécessite des arbitrages dont la justification n’apparaît
pas toujours valide.
Risque judiciaire et risque d’opinion sont des facteurs exogènes de régulation
auxquels s’ajoutent les facteurs endogènes provenant du vécu et des attentes
des salariés. Nombre d’auteurs soulignent le malaise, la souffrance [24] au
travail, le sentiment d’injustice [25], la peur de la précarité [26] exprimés par les
« travailleurs sans qualités » [27] victimes potentielles de la « montée des
incertitudes » [28] induites par la mobilité des marchés, les politiques de
flexibilité et les transformations dans l’ordre productif. Les vagues successives de
« désaffiliation » [29], fragilisent les individus et partant obèrent les potentialités
de cohésion sociale.
Les bouleversements socio-productifs pour ce qu’ils charrient d’incertitude et
d’inquiétude touchent aux dimensions les plus intimes de la subjectivité.
L’accentuation des contraintes, la perte de repères, la peur de l’avenir,
produisent des sentiments de domination dilués dont on n’identifie ni la source,
ni la force, ni la durée. Malgré les discours convenus sur l’Homme [30], les
ressources humaines sont considérées comme des variables d’ajustement et les
acteurs se sentent « chosifiés », objet et non sujet de l’activité productive, au
rebours de ce qui est attendu d’eux lorsqu’il est fait appel à leur ingéniosité et à
leur engagement. On retrouve ici les situations d’injonction paradoxale où les
cadres sont confrontés à la gageure d’obtenir l’adhésion sans pouvoir vraiment
ouvrir d’espaces de dialogue et où l’initiative et la responsabilité des salariés sont
sollicitées sans qu’il y ait de contreparties en échange de l’investissement
demandé
Pour autant, nombre d’auteurs, de documentaristes, de chroniqueurs mettent
en exergue le fait que les attentes de reconnaissance [31], le souci de ne pas
perdre l’estime de soi, l’exigence d’équité, le besoin de sens se superposent,
voire dépassent les besoins de redistribution. Dans les échelles d’analyse sur la
valeur accordée au travail, les « jugements de beauté » [32] (registre de la
valeur professionnelle) comptent tout autant que les « jugements d’utilité » [33]
(valeur économique).
Ces points de saillance mettent en évidence des dissonances qui certes ne
sont pas nouvelles dans le monde du travail mais sont amplifiées dans « un
36
Management des Technologies Organisationnelles : Journées d’Etude 2009
monde incertain », une société traversée par la peur du risque [34], société
désenchantée, qui met en doute le progrès et suscite conflits, critiques,
perturbations, problèmes sociaux…
DISCOURS ETHIQUES DE JUSTIFICATION
Dans une visée résolutoire, le management produit des discours de
justification et de légitimation visant à définir la ligne, la stratégie, la règle, à
donner l’impulsion…. L’objectif principal est de fixer un cadre normatif
fournissant des schèmes de pensée et des représentations acceptables sur le
plan moral comme sur le plan de l’efficacité. La littérature managériale à
caractère institutionnel et programmatique peut se lire sur deux plans : l’un
instrumental, l’autre moral. Elle vulgarise des modèles normatifs prenant appui
sur des valeurs génériques [35] correspondant aux aspirations au bien, au bon,
au juste, à l’utile… tendus vers des règles de conduite à caractère opératoire. La
langue managériale cherche à créer un univers partagé, s’inscrivant dans une
histoire, une culture, un projet, un avenir commun [36]. Elle use d’une parole
phatique plus que cognitive. Les déclarations déontologiques, les chartes
éthiques, les codes de conduite qui se sont multipliés et fleurissent sur tous les
terrains organisationnels visent à encadrer l’action. Le vocabulaire est souvent
prescriptif, mélangeant les genres, maniant le flou dans l’utilisation des concepts
[37], se rapportant à une « doxa » du vraisemblable et de l’acceptable. Ces
textes qui s’auto-nomment « éthiques » formalisent des nœuds entre la
justification et la persuasion. Ils hésitent entre l’informatif, le performatif et
l’argumentatif. Ils disent ce qui doit être et non ce qui est (…) à la façon des
exemplum, comme l’ont montré L. Boltanski et E. Chiappello [38].
OUVERTURE
Avoir recensé ainsi un certain nombre de points de vue sur les relations de
travail telles que vécues aujourd’hui, certes provenant de sources variées et
présentés de façon succincte, pointe les exigences contradictoires et les conflits
d’interprétation que connaissent les acteurs dans les organisations
contemporaines. Il s’agit dans ce moment d’ouverture de mener une
interrogation d’arrière-plan sur l’ambiguïté résiduelle que dessinent ces points de
vue.
L’idée que le « capital humain » représente un avantage concurrentiel
durable et qu’on ne peut le faire fructifier que dans une logique
gagnant/gagnant qui suppose clarification des objectifs, fixation des règles
d’équité et des principes d’évaluation est validée par nombre d’acteurs et
Cartes blanches au comité scientifique
37
d’auteurs dans une double assertion instrumentale et morale. En filigrane,
s’inscrit l’idée qu’aujourd’hui pour favoriser la collaboration intelligente et
bénéficier de l’ingéniosité collective, il faut rechercher la coopération plutôt que
l’obéissance, qu’il faut accepter la négociation, négociation où l’on peut être l’ «
otage » de l’autre ou des autres dans des relations bilatérales ou plurielles.
Ne doit-on pas alors reprendre l’idée développée par les éthiciens
procéduralistes [39] qu’une norme ou une décision n’est juste que dans la
mesure où elle est acceptée selon une procédure instituée, un débat
contradictoire où le questionnement, la démarche critique, l’attention portée aux
diverses opinions, la mise en visibilité des critères de choix fonde l’agir
communicationnel permettant l’agir stratégique [40] ?
Le débat sous-tendant la négociation n’aboutit pas toujours à l’accord
consensuel mais permet d’établir des compromis acceptables au regard d’une
éthique relationnelle. Favoriser une éthique relationnelle passant par un contrat
de communication ne relève pas du souci de moralisation (humanisation) des
relations de travail mais de l’obligation de mettre en cohérence changements
d’organisation et modification du rapport individuel à l’entreprise dans une
logique conventionnelle.
Peut-être est-ce conjuguer utopie et stratégie ?
NOTES ET REFERENCES BIBLIOGRAPHIQUES
[1]
L’ouvrage de J. Ballet et F. de Bry, « L’entreprise et l’éthique », Ed. du Seuil, 2001,
expose la généalogie de ces questionnements
[2]
Thèse de doctorat, 1987, Université de Paris-Sorbonne ; les terrains étaient une
entreprise de service répartie en agences régionales et des organismes de sécurité
sociale régionaux
[3]
Dossier d’habilitation, soutenu en 1994, Université de Paris-Sorbonne.
[4]
Presse, revues spécialisées, mémoires et thèses, littérature grise, littérature
managériale, actes de colloques, communications…
[5]
Notamment cette dernière année entre juillet 2008 et juillet 2009
[6]
Notamment ouvrages en sociologie parus ces dix dernières années
[7]
Dirigeants, cadres, salariés, syndicalistes…
[8]
Sont mobilisés des auteurs en sciences de l’information et de la communication,
philosophie de la communication, sociologie, éthique et économie
[9]
P. Ricoeur, « Soi-même comme un autre », Ed. du Seuil, 1990
[10]
Selon la distinction posée par M. Weber, « Le savant et le politique », Union
générale d’éditions, 1963
[11]
Comme le montre A. Giddens, « La constitution de la société : éléments de la
constitution de la structuration », PUF, 1987
38
Management des Technologies Organisationnelles : Journées d’Etude 2009
[12]
Selon J.D. Reynaud, « Les règles du jeu : l’action collective et la régulation
sociale », A. Colin, 1989
[13]
Cet oxymore traduit la dialectique insoluble des remaniements organisationnels
[14]
Notion chère à P. Zarifian. Cf : « Le travail et la compétence : entre puissance et
contrôle », PUF, 2009
[15]
M. Castells, « La société en réseaux », Fayard, 1998
[16]
F. Eymard-Duvernay, « Économie politique de l’entreprise », Ed. La Découverte,
2004
[17]
N. Alter, « L’innovation ordinaire », PUF, 2000
[18]
J.L. Génard, Le contexte de l’irruption du référentiel éthique dans la question du
travail, in L’éthique au travail, Liber, 2009
[19]
P. Zarifian, « Le travail et la compétence : entre puissance et contrôle », PUF, 2009
[20]
Sur le mode du dispositif foucaldien
[21]
N. Alter, « Donner et prendre ; la coopération en entreprise », Ed. La Découverte,
2009
[22]
M. Weber, « L’éthique protestante et l’esprit du capitalisme », Plon, 1964
[23]
Ph. d’Iribarne, « La logique de l’honneur », Ed. du Seuil, 1989
[24]
C. Dejours, « Souffrance en France », Ed. du Seuil, 1998
[25]
F. Dubet, « Injustices : les inégalités au travail », Ed. du Seuil, 2006
[26]
S. Paugam, « Le salarié de la précarité », PUF, 2000
[27]
R. Sennett, « Le travail sans qualités. Les conséquences humaines de la flexibilité »,
Albin Michel, 2000
[28]
R. Castel, « La montée des incertitudes : travail, protections, statut de l’individu »,
Ed. du Seuil, 2009
[29]
R. Castel, « Les métamorphoses de la question sociale : une chronique du
salariat », Fayard, 1995
[30]
Le fameux aphorisme de Jean Bodin « il n’est de richesse que d’hommes… »
[31]
Développé par A. Honneth, « La lutte pour la reconnaissance », Le Cerf, 2000
[32]
C. Dejours, op. cit.
[33]
ibidem
[34]
U. Beck, « La société du risque », Ed. La Découverte, 1986
[35]
Comme l’excellence, l’innovation… Le registre utilisé est assez limité
[36]
Nombre d’entre elles utilisent le « storytelling »
[37]
Cf. l’article de C. Renouard, « L’éthique et les déclarations déontologiques des
entreprises », Problèmes économiques, n° 2975, (2009) 43-48
[38]
L. Boltanski et E Chiapello, « Le nouvel esprit du capitalisme », Gallimard, 1999
[39]
J. Habermas, J.M. Ferry, J. Rawls…
[40]
Irréductibles l’une à l’autre selon J. Habermas
Cartes blanches au comité scientifique
39
Les projets d’intégration à base de
progiciels intégrés
Guy SAINT-LEGER
Professeur
ESC / Saint-Etienne
INTRODUCTION
Un directeur d’une grande « Business Unit » chez l’un des principaux éditeurs
de progiciel du marché nous fait part très fièrement du récit suivant : « Dans
cette grande PME nationale nous avons mis en place notre ERP en un temps
record et dans le budget alloué. C’est une « success story » que nous n’hésitons
pas à utiliser dans nos « démarches commerciales ». Par contre et avec un peu
plus de modestie le directeur nous fait partager une grande interrogation qui le
laisse perplexe et un peu désabusé: « Dans cette autre entreprise de même
taille, positionnée sur le même environnement de marché, possédant les mêmes
ressources internes et avec la même méthode d’implémentation, le projet s’est
traduit par un véritable échec ! Pourquoi un tel écart entre ces deux projets ? ».
Sur la base de retours d’expériences de projets ERP [1] et de travaux de
recherche sur la question des intégrés nous proposons de mener une réflexion à
partir de cette interrogation, et d’y apporter quelques éléments de réponses.
LES SYSTEMES D’INFORMATION A BASE DE PROGICIELS INTEGRES : DES MULTI-OBJETS
Les systèmes d’information intégrés font partie du paysage informatique des
entreprises et de nombreux travaux de recherche leurs sont consacrés. Leur
évolution au fil du temps montre une intégration de composantes fonctionnelles
toujours plus poussée. Les ERP ne sont qu’une partie dans un ensemble quand
on s’intéresse au développement des Systèmes d’Information InterOrganisationnels. Ils deviennent de plus en plus complexes et de plus en plus
difficiles à manager. Nous comprenons que la réponse à apporter à notre
40
Management des Technologies Organisationnelles : Journées d’Etude 2009
directeur de BU n’est pas à rechercher dans la technicité ou les fonctionnalités
du produit. Par contre, la focalisation des énergies sur la seule dimension
technique de l’outil nécessite une remise en cause profonde de sa part. Cette
pratique que nous avons pu rencontrer dans de nombreux projets a pour
conséquence d’occulter d’autres dimensions laissées pour compte qui ont, selon
notre approche de ces projets, autant d’importance, voire même davantage. En
effet, à vouloir dissocier ou fragmenter les éléments, nous déformons les choses
selon certaines préférences en travaillant sur des contenus simplifiés dépourvus
de relations et de sens. Nos réponses sont donc incomplètes et ressemblent le
plus souvent à des recettes. Le copier collé est devenu un réflexe, et le
raisonnement : un problème rencontré = un outil informatisé pour y répondre,
un mode de pensée. Bon nombre de dysfonctionnements observés dans les
organisations sont ainsi fossilisées pendant les projets et dans les diagnostics. Ils
remontent en surface plus tard et souvent de manière insidieuse dans les phases
post-projet avancées.
La théorie socio-économique des organisations montre l’existence
d’interactions entre les structures des organisations et les comportements des
acteurs [2]. Dans un monde « idéal » nous serions confrontés à un mode de
fonctionnement des organisations dit « orthofonctionnel » ce qui signifie sans
dysfonctionnement entre les structures et les comportements ([S<->C]). Il est
vrai que les exigences techniques imposées par les ERP tendent à guider les
entreprises dans ce sens. Le discours commercial des vendeurs de solutions
auprès des directions d’entreprises vante les mérites d’un outil « miracle » sensé
résoudre les maux de l’organisation. Dans le monde de la réalité ces
dysfonctionnements sont présents et affectent à la fois la performance
économique et la performance sociale des organisations. Dans le cas des projets
d’intégration, nous pouvons étendre ce couple ([S<->C]) à d’autres dimensions
pour développer in fine une approche dysfonctionnelle globale, et mieux aborder
ainsi la complexité [3][4][5].
Dans les différents projets où nous sommes intervenus, nous avons remarqué
la présence récurrente de six dimensions inter-reliées (figure 1). Nous
présentons très succinctement dans le tableau suivant le contenu de chacune
d’entre elles.
Dimensions impliquées
ERP
Projet ERP
Contenu succinct
Soit l’objet technique en lui-même et ses
caractéristiques d’intégration.
La constitution d’une équipe projet pour la mise en
œuvre de cet outil de gestion est incontournable.
L’entreprise ne peut réaliser seule ce type de
Cartes blanches au comité scientifique
Organisation
Comportement des acteurs
Environnementale
Stratégique
41
projet et doit faire appel à des compétences
externes.
L’organisation en place, ses spécificités métier et
contextuelles
Les attitudes et comportements des différents
acteurs de l’organisation en particulier à l’égard du
nouveau système.
Les spécificités de l’environnement externe de
l’entreprise.
Alignement stratégique du nouveau système et
vision stratégique de l’entreprise. Le projet
d’équiper l’organisation de ce type d’outil est-il
inscrit dans une démarche stratégique ?
Tableau 1 Dimensions présentes dans les projets d’intégration
Partant de la prise en compte de ces nouvelles dimensions, nous pouvons en
proposer une modélisation rassemblant de manière plus visuelle et pédagogique
les composantes en jeu dans ce type de projet (tableau 2).
Tableau 2
Approche multidimensionnelle des projets d’intégration
42
Management des Technologies Organisationnelles : Journées d’Etude 2009
Cette modélisation est le fruit d’une réflexion de fond à deux niveaux : Le
premier provient du retour d’expériences de 25 projets menés dans des secteurs
d’activités de production de biens et de services et de tailles d’entreprises
différentes. Le second s’appui sur des travaux de recherche sur ce type de
projets engagés depuis une dizaine d’années.
L’élaboration de ce modèle s’est réalisée en plusieurs phases au fil du temps
et des projets. La première phase, rassemblait de manière basique les
dimensions ([Outil ERP<->Projet ERP<->Organisation]). Puis les dimensions
([Comportementale des acteurs<->Stratégique<->Environnementale]) sont
venues compléter la première version du modèle insuffisamment étoffée pour
traiter des questions du changement.
Enfin la mise en relation des liens entre dimensions a été approfondie avec
l’étude des interactions ([Structures<->Comportements]).
L’alignement et la performance globale du projet sont au cœur de cette
combinatoire multidimensionnelle et de cette ingénierie des liens qui devrait
davantage mobiliser les attentions. Dans un mouvement dynamique d’ensemble,
chaque dimension du modèle possède sa propre boucle de rétroaction
temporelle et ses ramifications spécifiques. En effet, dans la prise en compte de
l’écoulement du temps, qui donne le « tempo » dans cette approche à géométrie
variable ? : Est-ce l’horloge de l’organisation ? L’horloge du progiciel ? L’horloge
de l’environnement externe ? L’horloge des comportements … ? N’oublions pas
que les progiciels intégrés ont un mode de fonctionnement en temps réel ou
presque.
Dès lors, pour mieux appréhender la dynamique et l’équilibre / déséquilibre
du modèle, l’accent se portera autant sur les relations que le contenu des six
dimensions. Avec cette approche, nous ne sommes plus en présence d’un monoobjet : le progiciel, mais d’un multi-objet à six dimensions.
Au départ de chacune d’entres elles, des couples dimensionnels peuvent être
définis pour l’identification de la nature et des caractéristiques des relations à
étudier (ex : ([ERP<->Comportements])). Le centre de gravité de ce multi-objet
variera selon l’entreprise étudiée. C’est particulièrement le cas lorsqu’une ou
plusieurs dimensions sont complètements élaguées des projets. On rencontre ces
situations lorsque les dirigeants d’entreprise abordent un projet intégré sans
remise en cause de l’organisation existante ou encore lorsque la dimension
stratégique est absente du projet. Enfin, si nous admettons le multi-objet nous
devons admettre également l’existence d’une multi-problématique.
Revenons au cas critique cité par notre directeur de BU, sur lequel nous
avons pu intervenir par la suite. Si l’on examine en profondeur la qualité des
données associée à la logique d’interdépendance des échanges imposée par le
système intégré, on peut évaluer la dimension comportementale des acteurs
Cartes blanches au comité scientifique
43
dans l’utilisation du progiciel, et analyser les impacts sur l’organisation. Nous
pouvons admettre que la qualité des données du système a un impact sur les
échanges avec l’environnement externe mais également sur la dimension
stratégique. Une pollution du système intégré lié à son mauvais usage va
généralement à contre sens des objectifs stratégiques recherchés par
l’entreprise. Cette dernière avait fait le choix de s’équiper d’une solution intégrée
pour améliorer sa performance ...
Voilà la spirale d’échec dans laquelle s’est retrouvée piégée l’entreprise en
question. Le comportement des acteurs à l’égard du nouveau système et les
changements organisationnels associés ont été minimisés par la direction de
l’entreprise lors du projet. Au final, on a plaqué un progiciel intégré sur une
organisation qui ne l’était pas… L’approche multidimensionnelle décrite ci-dessus
à permis de corriger cette phase post-projet en dérive par des actions
spécifiques (dimension projet) sur les couples dimensionnels du modèle
présenté. L’entreprise pour laquelle le projet avait été un succès avait pour sa
part pris le temps de procéder au préalable au toilettage de ses
dysfonctionnements organisationnels et comportementaux internes-externes.
Dans cette première partie nous avons souligné les éléments permettant de
répondre au questionnement du directeur de BU sur l’écart entre les deux
projets. Dans la deuxième partie de ce texte nous aborderons les exigences
techniques imposées par les outils intégrés et les problématiques
dysfonctionnelles récurrentes qui les accompagnent.
EXIGENCES ET RESPECT DES EXIGENCES
Quels enseignements tirer de cette complexité ? En premier approximation,
nous pouvons avancer que bon nombre d’obstacles majeurs pourraient être
évités ou atténués si les décideurs avaient une connaissance plus approfondie
des processus humains en cause, et s’ils pouvaient intégrer ces connaissances au
plus tôt dans leur projet [6]. En seconde approximation, il faut admettre que ces
outils structurés et structurants nécessitent beaucoup de rigueur dans leur
maniement de la part des acteurs. Les exigences techniques imposées par l’outil
intégré sont-elles au rendez-vous avec les comportements organisationnels en
place ? Si la réponse est positive alors le contexte est plutôt favorable à l’accueil
de l’outil et son adoption par les utilisateurs. Dans le cas contraire, le dirigeant
doit admettre qu’un travail de toilettage préalable des pratiques internes s’avère
nécessaire.
Nous nous intéressons plus particulièrement au couple ([Outil ERP <->
comportements des acteurs]) et ses dysfonctionnements. Nous allons passer en
revue quelques unes de ces exigences au regard des problématiques
44
Management des Technologies Organisationnelles : Journées d’Etude 2009
dysfonctionnelles que l’on rencontre le plus souvent dans les projets
d’intégration. Pour traiter les dysfonctionnements nous utiliserons le diagnostic
socio-économique des organisations développé par le centre de recherche ISEOR
[7]. Six familles de dysfonctionnements sont répertoriées dans le diagnostic,
comme indiqué dans la première colonne du tableau suivant (Tableau 3). Toutes
ont leur importance et demandent une attention particulière quant aux
traitements de leurs causes-racines. Nous listons dans ce tableau les principales
problématiques récurrentes auxquelles nous avons été confrontés dans les
projets, ces 15 dernières années. Si nous devions nous prononcer sur une
graduation des difficultés dans le cadre des projets d’intégration, nous mettrions
en avant les trois premières familles : La Gestion du temps (GT), La
Communication-Coordination-Concertation (3C), l’Organisation du travail (OT).
En second et sans en minimiser l’intensité des impacts : Les Conditions de travail
(CT), La Formation intégrée (FI), et la Mise en Œuvre Stratégique (MOS).
Approche dysfonctionnelle Exigences techniques
des projets d’intégration
imposées par l’ERP
Gestion du temps (GT)
. Mise à jour des données
en temps réel sur le court terme
. Planification des ressources
du long terme au court terme
Communication-Coordination- . Unicité des données
Concertation (3C)
. Qualité des données (fiabilité)
. Intégration informationnelle
. Traçabilité des transactions
. Interopérabilité
. Interdépendance
Organisation du travail (OT)
. Transversalité
. Intégration Organisationnelle
des processus
. Cible organisationnelle définie
(architecture)
. Nombreuses saisies
transactionnelles
. Niveau de granularité des processus
. Best practices prédéfinies
Conditions de travail (CT)
. Adéquation de l’outil
. Adoption de l’outil par les utilisateurs
. Facilité d’utilisation
. Utilité perçue
. Maintenance de l’outil
. Qualité de l’infrastructure Hardware,
software et réseau
. Granulométrie des processus
Formation intégrée (FI)
. Maîtrise des processus
informationnels et des corrections
en cas d’erreurs
. Processus de traitement des
anomalies en place
Mise en œuvre stratégique
. Méthodologie de mise en œuvre et
(MOS)
conduite du changement
. Remise en cause des processus
existants
Exemples de manifestations
dysfonctionnelles récurrentes
. Mode de gestion centré
. Saisies aléatoires des données
transactionnelles dans le temps
. Données de paramétrage, de base
et transactionnelles erronées ou
manquantes
. Non transparence des données
. Systèmes de gestion parallèles
. Décloisonnement des fonctions
. Qui devrait faire quoi ? non défini
. Absence de remise en cause des
processus existants
. Systèmes hétérogènes non
communiquant
. Processus d’affaires non formalisés
. Informatisation de
dysfonctionnements existants
. Glissements de fonction collectifs
. Stress engendré par des
déresponsabilisations d’acteurs
à tous les niveaux de la hiérarchie
. Excès de contrôle
. Résistance
. Inadéquation de la formation
. Plan de formation inexistant ou
atrophié
. Absences de référents internes
. Déterminisme technologique
. Projet ERP non considéré
stratégique
. Attitude de la direction à l’égard
du système d’information
. Sous-estimation des
changements par les directions
Tableau 3 Les exigences imposées par les systèmes intégrés / couple dimensionnel
(outil ERP<-> Comportements des acteurs).
Cartes blanches au comité scientifique
45
Notons que ces familles de dysfonctionnements ne sont pas isolées les unes
des autres, mais se combinent entre elles comme les six dimensions dont nous
avons parlées précédemment.
LA GESTION DU TEMPS (GT)
Les exigences du progiciel sur la gestion du temps repose sur une
planification des ressources et un suivi des activités du long terme au court
terme, et tout changement dans cet espace-temps se fait en temps réel
(Enterprise Resource Planning). Or, dans beaucoup d’entreprises et en particulier
dans les PME, le mode de gestion du temps se réduit à une activité centrée et
coordonnée sur le court terme. On parle de gestion-réaction au court terme ou
de « culture pompier», où l’on cherche en permanence à éteindre des incendies
dysfonctionnels. L’anticipation ou la planification des activités est la plupart du
temps perçue comme utopique ou non adaptée au métier par les opérateurs et
par le management, parce ces notions demandent le plus souvent de la rigueur
et un engagement à tenir dans le temps. C’est l’un des changements les plus
importants subit par l’organisation lorsqu’un système intégré est implémenté. Par
ailleurs, pour que l’outil puisse donner toute sa puissance en efficacité, les saisies
transactionnelles doivent se faire au fil de l’eau. Cette exigence dans la
déclaration ou la signature de son activité par les opérateurs et le management
est loin d’être un réflexe dans la réalité des entreprises.
LA COMMUNICATION-COORDINATION-CONCERTATION (3C [8] )
Inter-reliés avec la gestion du temps, les 3 C représentent la famille des
dysfonctionnements les plus récurrents dans les projets d’intégration. L’arrivée
d’un progiciel va modifier en profondeur les modes de communicationcoordination-concertation de l’organisation. Le coté à la fois structurant et
structuré de l’outil ERP va directement impacter les mécanismes d’échanges, les
jeux de pouvoir, la transparence ou l’opacité entretenue par le management
autour des données. C’est sans doute pour cette raison que les dirigeants
d’entreprises voient le système ERP comme le meilleur moyen pouvant leur
permettre de détruire les barrières existantes entre les différents départements
de leur organisation. Mais contrairement à ce que peuvent penser les
concepteurs de solutions et certaines directions d’entreprises, relier ne suffit pas.
L’intégration informationnelle est nécessaire mais n’est pas suffisante. Le
chainon manquant se situe dans l’absence d’intégration des comportements pour
arriver à un bon niveau de collaboration construit sur la confiance. Les processus
46
Management des Technologies Organisationnelles : Journées d’Etude 2009
sont mis en tension les uns par rapport aux autres, les acteurs sont
interconnectés et interdépendants en temps réel, in fine les cloisonnements
inter-fonctionnels issues de l’histoire de l’organisation et de ses guerres
intestines se désagrègent. Les anciens ont le pouvoir mais n’utilisent pas le
nouveau système, les nouveaux entrants n’ont pas le pouvoir mais savent utiliser
l’outil informatique puisque cela fait partie de leur éducation. Voilà les
ingrédients des tensions qui s’opèrent au quotidien dans les organisations, et qui
changent les règles du jeu.
Par ailleurs on peu observer que l’intégration informationnelle de l’outil ERP
instaure une forme de désintermédiation entre le management et les salariés,
l’organisation des échanges d’information s’en trouve modifiée. « Avant on
communiquait, on se rendait visite ou alors on se téléphonait, aujourd’hui tout
cela a disparu avec le progiciel ! ». La régulation des échanges est maintenant
traitée et tracée [9] par l’outil.
Ainsi il n’est pas rare de constater que lorsque le système devient trop
contraignant voire compromettant, les utilisateurs reconstruisent des réseaux
locaux parallèles d’échanges d’information plus en adéquation avec leurs
pratiques personnelles. En cela les 3C donnent une bonne représentation de la
transversalité [10] présente ou pas dans l’organisation, et de l’usage qui est fait
du nouveau système.
L’ORGANISATION DU TRAVAIL (OT)
Dans les organisations où l’on ne sait pas trop qui fait quoi, mais où
finalement il y a entente des acteurs sous la forme d’un « statu quo » plus ou
moins institutionnalisé, les arrangements internes vont bon train, et des
ajustements s’opèrent à chaque instant (en temps réel). Ces pratiques sont
mises en exergue avec l’arrivée du progiciel en particulier lorsque les processus
internes n’ont pas été épurés des dysfonctionnements liés aux pratiques en
place. La mise en œuvre des bibliothèques de processus embarquées [11] dans
le progiciel n’est pas forcément en accord avec les modes de fonctionnement de
l’organisation. Le terme de « fit » organisationnel est souvent utilisé dans la
littérature ERP pour exprimer ce type de rapprochement entre le(s) métier(s) de
l’entreprise et son système d’information. La standardisation des processus au
bon niveau de réglage [12] de l’organisation est donc un point clé pour la
réussite du projet, elle conditionne en particulier l’usage du système qui en sera
fait par la suite. Cette approche par les processus est souvent mal vécue dans
les entreprises fortement hiérarchisées. En effet, la notion de processus ne
connait pas de frontière fonctionnelle, de plus elle est orientée client ; or la
notion de client n’est pas forcément partagée par tous les acteurs. La
Cartes blanches au comité scientifique
47
transparence informationnelle devient de mise et bon nombre d’acteurs ne sont
pas toujours prêts à jouer le jeu. Le qui devrait faire quoi à moment donné
devient visible aux yeux de tous. La synchronisation parfaite aux interfaces (3 C)
devient l’enjeu majeur, et l’outil par son haut niveau d’intégration
informationnelle et organisationnelle révèle les dysfonctionnements anti-flux.
Travailler en flux nécessite un comportement adapté de la part de chacun.
Chaque maillon de la chaîne est à la fois client et fournisseur dans l’organisation,
et l’acteur bicéphale doit faire ce qu’il faut pour ne pas mettre en difficulté ses
collègues de travail amont-aval-hiérarchique-exécutant. C’est encore une fois de
la rigueur personnel et du respect envers autrui.
LES CONDITIONS DE TRAVAIL (CT)
Les utilisateurs des outils intégrés peuvent voir leurs conditions de travail se
dégrader lorsque l’outil a été introduit par les directions dans un but excessif de
contrôle. Le grand nombre de saisies transactionnelles demandé a ses limites. A
choisir entre la complexité de l’outil informatique et la réalisation de son travail,
l’opérateur fera un choix très pragmatique et préférera faire ce pour quoi il est
rémunéré. L’autre facette des dégradations de travail concerne le stress.
Plusieurs situations de travail peuvent être à la source de stress avec les
systèmes intégrés. Sur le plan individuel, le fait de ne pas être formé
suffisamment à l’utilisation du progiciel est générateur de stress. Sur le plan
collectif, quand le progiciel est mal renseigné par les acteurs de l’organisation, le
phénomène de pollution des données qui en découle se trouve amplifié par la
puissance intégratrice du système. Cette situation dégradée du système en place
entraine une perte de confiance dans l’utilisation de l’outil. Ainsi, ceux pour qui
l’outil est indispensable dans l’exercice de leur activité doivent passer un temps
considérable à corriger les données erronées ou manquantes venant d’acteurs
déresponsabilisés et peu scrupuleux à l’égard des exigences informationnelles du
système de gestion. Par l’interdépendance qu’ils génèrent entre les acteurs, les
progiciels sont des outils conçus pour l’organisation et non pour l’individu.
En résumé, les dysfonctionnements d’usages sont à l’origine de pertes de
temps considérables pour ceux qui les subissent. Les surtemps qui en découlent
peuvent atteindre 30 à 60 % de leur activité. Le stress intervient également
lorsque les acteurs craignent pour leur l’avenir, quand les directions font le choix
de s’équiper de tels outils. Les exemples cités par les média ces dernières
années décrivent un certain nombre d’excès, d’où une certaine méfiance dans les
entreprises avec l’arrivée de ce type de projet.
48
Management des Technologies Organisationnelles : Journées d’Etude 2009
LA FORMATION INTEGREE (FI)
Par formation intégrée nous entendons une formation adaptée aux réels
besoins de l’utilisateur dans l’exercice de son activité, et accessible à son niveau
de compétences. Nous avons pu observer dans de nombreux projets
d’intégration que le processus d’apprentissage était souvent « atrophié ».
Plusieurs explications peuvent être apportées. Le positionnement de
l’apprentissage intervient en fin de projet au moment de la phase de
basculement [13]. Le budget formation a souvent été réduit par les coûts
supplémentaires non prévus, absorbés par les dépassements de consommation
de ressources des phases précédentes. Finalement, un plan de formation révisé
à la baisse, voire réduit à sa plus simple expression. L’effort pour l’apprentissage
a été minimisé par les directions par un réflexe purement comptable et à la fois
inconscient ; « ils apprendront sur le tas en faisant ! ». Il va de soit que les
conséquences de cette déresponsabilisation des directions sont catastrophiques
en phase post-projet en particulier, avec en retour un mésusage du système. Les
formations « catalogue » à l’opposé du concept de formation intégrée sont
responsables de nombreux dégâts dans le processus d’apprentissage parce
qu’elles ne sont pas adaptées aux besoins des utilisateurs finaux, et construites
le plus souvent sur la base standardisée d’un iso-profil d’acteur [14]. Par ailleurs,
la notion d’usage arrive tardivement dans le projet alors qu’elle pourrait être
intégrée dans la phase de conception du projet. Enfin, il existe une disproportion
entre les méthodologies d’implantation des projets très centrées sur l’objet
technique au détriment d’une véritable méthodologie de conduite du
changement. Il apparaît clairement au travers de toutes ces remarques
dysfonctionnelles un certain nombre de carences liées à un manque d’intérêt
envers les utilisateurs finaux. Une distanciation entre la perception qu’on les
dirigeants de l’usage futur de ces systèmes et la réalité des moyens mis en
œuvre pour parvenir aux résultats escomptés est un constat malheureusement
récurrent de la réalité des projets. Le processus d’apprentissage serait
comparable à un tour de magie par lequel les choses se mettraient en place
naturellement d’elles mêmes. Ces différents facteurs de sous-efficacité sont en
rupture avec les exigences d’apprentissage organisationnel des outils intégrés.
LA MISE EN ŒUVRE STRATEGIQUE (MOS)
Les dysfonctionnements identifiés dans cette thématique concernent le
décalage existant entre les déclarations d’intentions stratégiques et leurs réelles
mises en œuvre dans les faits. Ce constat se retrouve dans beaucoup de projets.
Il peut être le résultat d’une trop grande distance hiérarchique avec le terrain.
Des plans ambitieux sont élaborés en huit clos par une équipe restreinte de
Cartes blanches au comité scientifique
49
direction avec l’aide de consultants extérieurs. Ces plans, ou excatement ces
déclarations d’intentions stratégiques sont déconnectés des réalités socioéconomiques des organisations, et le plus souvent sans traduction
opérationnelle. Le choix d’un progiciel est décidé sans consultation des intéressés
avec une volonté de faire vite dans le déploiement de la solution technique. Sous
la pression du temps, la conduite du changement est élaguée du projet. Faute
de définition concertée des nouvelles règles de gestion, la direction empruntera
la logique du progiciel comme modèle d’organisation. Le bilan économique de
tels comportements est généralement catastrophique en termes de gaspillage de
temps et de ressources de toute nature. Au final, le coût de l’investissement
projet peut-être doublé voire triplé pour un résultat d’usage déconcertant. Au
bout du compte, on voulait standardiser les données de gestion, en réalité on a
réinventé le logiciel maison avec l’outil intégré.
C’est généralement un déficit de gouvernance et de compétences internes qui
est à la source de ce désalignement du système d’information avec les objectifs
stratégiques et l’organisation métier de l’entreprise. L’accent est souvent mis sur
la rationalité à des fins de contrôle renforcé, plutôt que sur un projet
d’organisation pour améliorer le pilotage des activités. Les exigences des projets
d’intégration sont sous-estimées dans leur phase de préparation, de
communication et dans leur dimension stratégique.
CONCLUSION
Dans cet article, nous avons introduit, à partir d’une interrogation formulée
par un directeur de Business Unit, la question de la complexité des projets
d’intégration. Nous avons montré que la seule focalisation des énergies sur la
dimension technique de l’outil était insuffisante pour répondre à la complexité de
mise en œuvre de ces systèmes. Une approche multidimensionnelle s’avère
nécessaire pour traiter un multi-objet où sont présentes six dimensions inter
reliées entre elles, et rarement positionnées de la même manière d’un projet à
l’autre. Cette vision dynamique, qui devrait animer les projets d’intégration et qui
présentée ici, fait référence à de nombreuses interventions sur des projets
d’intégration et à des travaux de recherches menés sur les dysfonctionnements
d’usage de ce type de systèmes d’information dans les organisations ces quinze
dernières années.
Puis en prenant du recul, nous avons abordé les exigences imposées aux
organisations par les systèmes intégrés. Partant de l’exemple d’un couple
dimensionnel ([outil ERP <-> Comportements des acteurs]) nous avons recensé
quelques grands dysfonctionnements récurrents rencontrés dans les projets
d’intégration lorsque ces exigences ne sont pas au rendez-vous. Ces
50
Management des Technologies Organisationnelles : Journées d’Etude 2009
dysfonctionnements, pour être abordés selon leurs spécificités sont classés par
grandes familles également inter reliées entre elles.
Ce développement peut servir de point de départ pour des échanges sur les
multi-problématiques soulevées tant dans la mise en œuvre que l’usage de ces
systèmes ainsi que de nouvelles approches multidimensionnelles et orientées «
ingénierie des liens ». Les préconisations pour traiter les causes racines à
l’origine de ces dysfonctionnements peuvent également faire l’objet d’une
thématique à approfondir pour contribuer à une meilleure connaissance des
projets d’intégration organisationnelle et informationnelle, tant sur le processus
projet à mettre en œuvre que son mode de pilotage.
NOTES ET REFERENCES BIBLIOGRAPHIQUES
[1]
ERP : Enterprise Resource Planning ou progiciel de gestion intégrée en Français.
[2]
H. Savall et V. Zardet, Recherche en Sciences de Gestion : Approche Qualimétrique,
Observer l’Objet Complexe ?, Préface du Professeur David BOJE (USA), Edition
Economica, Collection Recherche en Gestion, (2004), 432 p.
[3]
D. Genelot, Manager dans la complexité, Insep Consulting Editions, (2001), 357 p
[4]
J. Gharajedaghi, Systems Thinking: Managing Chaos and complexity, ButterworthHeinemann, (1999), p. 1-152.
[5]
P. Senge, The Fifth Discipline: The Art and Practice of the Learning Organization,
New York, Doubleday, (1990), 462 p.
[6]
C. Bareil, C. Bernier, A. Rondeau, Un nouveau regard sur l’adoption et la mise en
œuvre de systèmes de gestion intégrée (SGI/ERP), Actes du XIIe Congrès de
l’AGRH, Vol. 1, (2001), p. 54-68.
[7]
Institut Socio-Economique des Organisations (www.iseor.com)
[8]
Encore appelé 3C dans l’Analyse Socio-Economique.
[9]
Enregistrée dans l’outil.
[10]
R. El Amarani, De l’intégration du Système d’Information à la vision transversale de
l’organisation, Systèmes d’Information et Management, N°4, Vol. 13, (2008), pp 6193.
[11]
Les best practices.
[12]
Les concepteurs utilisent le terme de tuning pour qualifier cette opération.
[13]
Passage au nouveau système.
[14]
Les concepteurs de formation ne connaissent pas le métier de l’utilisateur final et
inventent un profil d’acteur idéal pour justifier de la bonne utilisation de leur
produit.
II – Communications MTO’2009
Daniel BONNET
Guy SAINT-LEGER et Daniel BONNET
Eric LACOMBE
Corinne BAUJARD
Mélanie BURLET, Romain CHEVALLET et Thierry PRADERE
Marie-Françoise COMBAZ
Marc BIGRET
Vincent CHAPURLAT, Didier CRESTANI et Yousra BEN ZAÏDA
André DELAFORGE et Nicolas MOINET
Frédéric ELY et Marielle METGE
Denis ZANDVLIET et Yann XOUAL
Sihem MALLEK, Nicolas DACLIN, Vincent CHAPURLAT
Afef DENGUIR-REFIK, Gilles MAURIS, Jacky MONTMAIN, Abdelhak IMOUSSATEN
Monique COMMANDRÉ et Pierre-Michel RICCIO
52
Management des Technologies Organisationnelles : Journées d’Etude 2009
Communications MTO’2009
53
Le pilotage d’un processus de
transformation de la connaissance :
application en Management des
Technologies Organisationnelles
Daniel BONNET
Chercheur-associé à l’ISEOR
Université Jean-Moulin / Lyon
RESUME
Cette communication concerne une recherche-intervention réalisée au sein de
deux entreprises, les cas D et E, ayant pour objet de définir et de mettre en
œuvre une stratégie de transformations. Elle concerne plus particulièrement le
thème de la transformation de la connaissance. Cette communication souligne
que l’utilisation de l’outil technique organisationnel induit des opérations
cognitives de transformation de la connaissance. Ces opérations assignent le
processus de la transformation.
La globalisation des technologies organisationnelles requiert de développer
des compétences nouvelles, sur le plan de la capacité à se transformer d’une
part, sur le plan de la maîtrise des processus cognitifs d’autre part. Cette
évolution fait surgir des problématiques qui concernent la rationalité axiologique
et cognitive. Ces problématiques nécessitent de piloter des processus de
transformation de la connaissance. Cette communication souligne l’importance
de la référence à un cadre théorique adapté pour conduire un projet de pilotage
sur ce thème. Elle souligne également l’importance de la qualité de la
connaissance.
54
Management des Technologies Organisationnelles : Journées d’Etude 2009
INTRODUCTION
L’étude sur les «Technologies clés 2005 » réalisée pour le compte du
Ministère de l’Economie et des Finances, a souligné le caractère stratégique et
l’importance croissante des technologies et méthodes de l’organisation (Seyvet,
2002). Cette étude insiste sur l’importance du développement et de la gestion
des compétences. Elle recommande d’articuler le processus du développement
des compétences et le processus de la conduite du changement (Ibid. pp.96100).
Dans le même ordre d’idée, la mise en œuvre des technologies
organisationnelles nécessite de traiter des problématiques de réglage du
fonctionnement de l’organisation nécessitant d’opérer des transformations, en
considérant différents registres d’intervention systémique, ce qui impose de
déployer une stratégie de transformations.
Constatons à cet égard que la conduite du changement est généralement
considéré de manière contingente, parce qu’elle n’est pas l’objet au centre de la
mise en œuvre des technologies organisationnelles. Par conséquent, quand elle
ne l’est pas non plus au centre de la politique générale de management,
l’objectif opératoire est souvent limité à la réalisation de l’accommodation du
fonctionnement de l’organisation aux modalités de fonctionnement de l’outil
technique organisationnel.
Constatons également que certaines approches du management considèrent
les technologies et les compétences comme des ressources, gérées en pratique
selon les principes d’économicité. Il y a donc manifestement un paradoxe à ne
pas mettre au centre des politiques de management le développement et la
gestion des compétences. In fine, c’est bien parce que une entreprise développe
ses compétences et se transforme qu’elle est performante et compétitive.
Au surplus, les entreprises n’ont pas vraiment développé de compétences
dans le domaine de la capacité à se transformer. Certes, les méthodes de la
conduite du changement soulignent l’importance de la communication et de la
formation. Cependant, il n’apparaît pas qu’il s’agit de réaliser un processus de
transformation de la connaissance. La transformation de la connaissance est une
problématique constante dans la conduite du changement lorsque celui-ci
comporte de mettre en œuvre un projet de transformations.
Cette communication s’inscrit dans le cadre d’une recherche-intervention en
cours, qui explore l’hypothèse fondamentale de la transformation des invariants.
Cette recherche est réalisée actuellement sur deux terrains d’observation
d’intention scientifique : une société de prestations de services intellectuels (cas
D) et une société exploitant des commerces d’optique (cas E). La méthodologie
mise en œuvre est celle de l’intervention socio-économique (Savall et Zardet,
1995, 2004, 2005). Cette méthodologie permet de concevoir et d’implanter des
Communications MTO’2009
55
stratégies de transformations. Le cadre théorique est donc celui de la théorie
socio-économique des organisations. Le cadre épistémologique est celui du
constructivisme générique (Savall et Zardet, 2004). Dans les deux cas,
l’intervention comporte d’intégrer dans la stratégie de transformations le
management de technologies organisationnelles.
Nous traitons le sujet en deux parties, après avoir présenté un aperçu
liminaire de la littérature en Sciences de Gestion permettant de positionner notre
recherche dans le champ de la gestion et du management de la connaissance.
La première partie argumente les choix fondamentaux de la modélisation,
élaborée afin d’explorer l’hypothèse de la transformation des invariants, et rend
compte de l’avancement de la recherche pour le thème du pilotage des
processus de transformation de la connaissance. La seconde partie discute les
implications managériales, plus particulièrement dans le domaine du
management des technologies organisationnelles et de la conduite du
changement pour leur mise en œuvre.
REVUE DE LITTERATURE
Cette revue de littérature a pour objet de montrer comment notre recherche
se positionne dans le champ transversal de la gestion et du management de la
connaissance.
La connaissance est généralement abordée en Sciences de Gestion sous
l’angle de sa création (Nonaka, 1994 ; Nonaka et Takeuchi, 1997), de son
transfert (Argote et Ali., 2000), de sa gestion et de son management (Alavi et
Leidner, 2001 ; Ferrary et Pesqueux, 2006). Les progrès de la recherche dans le
domaine des théories de la firme (Grant, 1996) et des théories des ressources et
compétences (Penrose, 1959 ; Hamel et Prahalad, 1990) ont largement
contribué au développement de recherches dans ce domaine de la gestion et du
management des connaissances. En pratique, ce développement est fortement
soutenu par l’avènement de l’économie de l’innovation, de l’économie de
l’immatériel, et par le développement technologique. Il est largement prescrit
pour défendre son avantage concurrentiel.
Le développement des technologies de l’information et de la communication
accélère le développement de ces thématiques, mais selon différentes
perspectives. La première concerne le développement des Systèmes de Gestion
de la Connaissance (Alavi et Leidner, 2001, Christensen, 2003) dont la fonction
principale est d’organiser et de gérer la connaissance. La seconde concerne les
domaines d’application. Bayad et Simen (2003) distinguent trois courants de
déclinaison : Le courant économique et managérial, le courant de l’intelligence
artificielle et le courant de l’ingénierie des systèmes d’information. Concernant ce
56
Management des Technologies Organisationnelles : Journées d’Etude 2009
dernier courant, deux modèles génériques ont été identifiés (Alavi, et Leidner,
2001) : Le modèle intégratif qui permet de constituer des répertoires
électroniques de connaissances, généralement adossé à une démarche
technologique ou socio-technique, et le modèle interactif correspondant aux
usages développés pour la gestion des ressources humaines et par les
communautés de pratiques notamment (Cohendet, 2006).
Encore faut-il faire la distinction entre les différents concepts, de la donnée,
de l’information, du savoir, de la connaissance et de la compétence (Ferrary et
Pesqueux, 2006), voire de la capacité. Le concept du Knowledge Management
intègre pour sa part deux notions, celle du savoir et celle de la connaissance
(Prax, 2007, Dugag, 2007). L’information peut être considérée comme une
ressource qui vient actualiser la connaissance, que celle-ci transforme pour
constituer le savoir et la compétence. Le pilotage doit s’inscrire dans le processus
de transformation de la chaine de valeur de la connaissance (Brunel et Ali.,
2009), ce qui nous conduit à souligner l’importance de la qualité de la
connaissance.
Le statut de la connaissance est flou cependant. Les définitions sont
différentes d’un auteur à l’autre, ne serait-ce que parce que en management, les
auteurs peuvent s’inscrire dans différents cadres épistémologiques. Pour
Charreire et Huault (2005), les avatars du positivisme restent bien ancrés dans la
discipline du management. Ces auteurs plaident pour un déplacement dans
l’ancrage constructiviste en s’appuyant sur l’article fondamental de Von Krogh et
Ali. (1994). Le choix des définitions et des conceptualisations nécessite donc de
faire référence au cadre théorique des auteurs.
Toutefois, Charreire et Huault (Ibid., 2005) remarquent que les résultats de
recherche, dans le champ de la connaissance organisationnelle, ne se
différencient pas fondamentalement selon le cadre épistémologique. La
méthodologie et l’instrumentation de la recherche ne seraient pas toujours
cohérents avec les modalités caractéristiques de genèse de la connaissance dans
le paradigme constructivisme.
Pour gérer le changement organisationnel et stratégique, il faut dépasser la
problématique de la transformation de la connaissance individuelle. Pour cette
raison, notre recherche s’inscrit dans le domaine plus général de l’activité
cognitive de transformation de la connaissance (Nonaka et Takeuchi, 1995 ;
Baumard 1996), selon une perspective constructiviste et intersubjective, afin
d’explorer notamment les problématiques de la transformation de la
connaissance collective (cas D et E). Le cadre épistémologique de notre
recherche, et la modélisation que nous proposons s’inscrivent dans le cadre de
l’épistémologie intégrée de Savall et Zardet (2004, p.44). Ce cadre permet de
dépasser les problématiques posées par les cadres épistémologiques classiques,
Communications MTO’2009
57
du positivisme et du constructivisme, telles qu’étudiées par Charreire et Huault
(Ibid. 2005). En outre, il permet de considérer les éléments de la méthode et de
l’instrumentation comme des « objets intellectuels », car le rapport à ces objets
constitutif de l’outil implique de réaliser des actes intellectuels (Janet, 1932,
p.18) [1]. Les travaux de Piaget (1970) ont confirmé que ces objets
contribuaient à la genèse des opérations cognitives et à la genèse des structures
opératoires [2]. L’une des perspectives pratiques recherchées est la
transformation de la connaissance en compétence(s) (Dupuich-Rabasse, 2006),
en dépassant la problématique de la subjectivité. Le cadre épistémologique
élaboré par Savall et Zardet (2004, p.388) permet de générer des connaissances
génériques, de nature intersubjective, définie par les auteurs comme des
invariants ou des régularités que le chercheur s’efforce de trouver en observant
avec persévérance son objet de recherche et ses métamorphoses. La
connaissance générique confère une certaine objectivité [3] (Savall et Zardet,
2004, pp.192 et 345 ; Popper, 1999, p.46). Cette objectivité permet d’améliorer
la qualité des accords et des coopérations.
CADRE THEORIQUE ET METHODOLOGIE
Cette première partie argumente les choix théoriques de la recherche. Cette
argumentation explicite l’hypothèse de l’invariant de transformation.
Le concept de l’invariant de transformation est une abstraction proposée par
Piaget (Henriquès, 1990 ; Boldini, 1994) qui est renseignée au cours des
investigations. Notre recherche expérimente l’usage de ce concept pour
modéliser et piloter une stratégie de transformations profondes.
L’observation de la transformation de l’objet complexe impose au chercheur
de discuter ses choix fondamentaux. Bien que la littérature en Sciences de
Gestion évoque assez largement la nécessité de développer la capacité à
changer, les cadres théoriques et méthodologiques usuels du management de la
conduite du changement ne permettent pas d’explorer ce domaine du
développement de la capacité à se transformer. En première approximation,
changement et transformation sont deux notions distinctes. La transformation
requiert de procéder à des investigations dans les infrastructures du
fonctionnement et du management des organisations. Certes un courant de
recherche sur le thème de la capacité à changer a émergé, bien analyser par les
travaux de Demers (2002). La revue de littérature ne cite pas cependant les
travaux du courant de la recherche-intervention, bien que l’ouvrage de référence
coordonné par David et Ali. (2000) fut à cette époque publié.
58
Management des Technologies Organisationnelles : Journées d’Etude 2009
Relativement aux choix fondamentaux que nous voulons argumenter, l’auteur
(Ibid., p.210) soulignait que cette méthodologie permet d’observer les
constantes et les régularités, mais également de procéder à l’expérimentation
des modèles et des outils de la conduite du changement. Cette perspective
définit le principe de la contingence générique chez Savall et Zardet (1995b,
p.495), posant l’existence de régularité et d’invariants qui constituent des règles
génériques dotées d’un noyau dur de connaissances présentant une certaine
stabilité et une certaine universalité, à partir duquel Savall et Zardet (Ibid.,
p.324) ont élaboré le cadre épistémologique du constructivisme générique. Ce
cadre permet d’opérer un déplacement de la perspective d’observation en
réarticulant les invariants du structuralisme et du constructivisme.
La nouvelle perspective offerte par le cadre épistémologique du
constructivisme générique permet d’introduire l’hypothèse de la transformation
des invariants. Au cours de notre recherche, nous expérimentons une
méthodologie d’extraction de l’invariant de transformation (Piaget, 1968 ;
Henriquès, 1990 ; Boldini, 1994 ; Rosch, 1973).
Le structuralisme s’est surtout intéressé à la recherche des invariants
structurels permettant de décrire l’objet et la manière dont il s’organise. L’œuvre
féconde du structuralisme a été analysée par Dosse (1992). Sur ce plan,
l’approche de Savall et Zardet recouvre le paradigme global (Mauss, LeviStrauss) et méthodique (Lewin), puisqu’elle considère à la fois le système des
interactions comme unité d’analyse et fournit des explications relatives aux
transformations dans les infrastructures.
L’invariance est une propriété qui ne varie pas. Les travaux d’Henriquès
(1990) ont distingués les invariants de remplacement et les invariants de
transformation. Succinctement, les invariants de remplacement répliquent les
opérations de transformation ; les invariants de transformation transforment les
opérations. Il convient donc d’explorer les schèmes opératoires à l’œuvre dans le
déroulement des processus de transformations. L’observation phénoménologique
ne permet pas de décrire ces opérations. Mais, elle permet de recueillir les
matériaux afin d’identifier les constances et les régularités.
Le constructivisme pour sa part cherche à comprendre le fonctionnement de
l’objet selon deux perspectives qui sont celles du projet de connaissance d’une
part, de l’interaction entre le chercheur et l’objet d’autre part. A minima, le projet
de connaissance peut être contemplatif (études de cas, observation participante
…). Cette double perspective permet d’introduire des hypothèses explicatives.
Ces hypothèses sont cependant contingentes, du contexte d’une part, de la
méthode d’observation d’autre part.
Communications MTO’2009
59
Le constructivisme générique introduit une troisième perspective qui est celle
de l’observation des interactions entre les structures et les comportements
(Savall et Zardet, 1995a, p.173), considérées comme systèmes de
transformations. Cette observation permet d’identifier les invariants dans la
dynamique de leur fonctionnement. Cette posture épistémologique permet
d’observer la transformation des structures. Le constructivisme générique permet
d’introduire des hypothèses prescriptives. Le chaînage des hypothèses
descriptives, explicatives et prescriptives permet d’élaborer des règles génériques
expliquant le fonctionnement et la transformation de l’objet complexe. Dans le
cas d’une recherche-intervention, ces hypothèses permettent d’observer la
transformation de l’objet en intervenant sur celle-ci selon un protocole
scientifique.
Dans le champ de la science, Piaget (1968, p.108) a souligné le caractère
génétique des structures, pour justifier la relation entre le structuralisme et le
constructivisme, car il considérait que ce sont les opérations de transformations
qui sont les éléments constitutifs des structures (Ibid., p.120). Simondon (2005,
p.559) pour sa part considérait que les structures et les opérations sont un
complément ontologique. Les hypothèses épistémiques sont généralement
posées dans le cadre de cette disjonction des corpus épistémologiques. A partir
de ce constat, Savall et Zardet (2004, p.50) introduisent la notion
d’épistémologie intégrée pour marquer leur opposition à cette disjonction dans
les pratiques des chercheurs notamment. Aussi, notre recherche montre que le
constructivisme générique s’origine dans cette conjonction du structuralisme et
du constructivisme. Cette conjonction permet de dépasser l’hypothèse de
l’invariance structurelle, qui est insuffisante pour observer la transformation,
pour faire l’hypothèse de la transformation de l’invariant. Les invariants ne sont
que des éléments rendant compte de l’aspect inchangé de la transformation
(Bion 1982, p.7), c’est-à-dire ce que nous en percevons, compte tenu de nos
connaissances.
En conclusion de cette 1° partie, notre recherche établie une distinction claire
entre les notions de changement et de transformation. La méthodologie
proposée permet d’observer deux catégories de processus génériques de
transformations déterminant la nature du changement : l’un de type rigide est
piloté par les invariants de remplacement, le second de type projectif est piloté
par les invariants de transformation. Ces processus ne s’excluent pas. Ils
fonctionnement de manière indépendante. Aussi faut-il les observer dans leur
rapport de phase.
Dans les cas D et E, cette approche a permis d’identifié un déficit de nature
épistémophilique (déficit d’envie d’apprendre) expliquant les difficultés
rencontrées par les dirigeants dans la mise en œuvre des changements. La
60
Management des Technologies Organisationnelles : Journées d’Etude 2009
modélisation permet d’établir la convergence avec les typologies du changement,
de type 1 (Homéostasie) et de type 2 (homéorhésie), ainsi qu’avec les typologies
de l’apprentissage organisationnel.
IMPLICATIONS MANAGERIALES
Les implications managériales sont à étudier de deux points de vue, examinés
dans leur rapport de phase: le point de vue fonctionnel projectif, et le point de
vue dysfonctionnel régressif. Dans les cas D et E, nous avons analysé le thème
du développement des technologies organisationnelles. Dans les deux cas, la
transformation ne se réalise pas, bien que contextuellement ils s’opposent.
Toutefois, précisons la définition de technologie organisationnelle.
Les technologies organisationnelles sont définies comme des méthodes dans
la littérature en sciences de gestion. On trouve deux acceptions : les
technologies organisationnelles d’accompagnement et les technologies
organisationnelles informationnelles.
Cette définition nous paraît insuffisante. Nous proposons de définir les
technologies organisationnelles comme des composantes de dispositifs de
gestion au sens proposé par Moisdon (1997, p.10). Les technologies
organisationnelles proposent des « outils de gestion et de production », mais
leur usage doit être contextualisé en intégrant dans la définition les modalités
caractéristiques des systèmes de fonctionnement et de management. Pour le
pilotage des processus de transformation de la connaissance, ils doivent être
considérés comme des « objets intellectuels » au sens définis par Janet (1932,
p.18).
Cette définition introduit une nouvelle perspective. Le management des
technologies organisationnelles ne peut pas être réduit à un management
technologique
de
ressources.
Le
management
des
technologies
organisationnelles devient un domaine de compétences stratégiques. La
technologie et l’organisation se conjuguent dans le même processus : l’une et
l’autre ne se conçoivent plus que si elles s’intègrent l’une dans l’autre. Cette
conjonction transforme les termes mêmes du management des organisations. Le
concept du management des technologies organisationnelles s’inscrit donc en
rupture d’une conception duale de la technologie et de l’organisation.
Cependant, cette évolution ne garantit pas une amélioration consécutive de
la qualité du fonctionnement. L’amélioration en termes d’efficacité ne signifie pas
non plus une amélioration en termes d’efficience. Le concept découvre un abîme
de la connaissance en ce domaine. Le management doit se réinventer comme
technologie générale, en ce sens que sa nouvelle définition incorpore une
structure technologique. Cette incorporation nécessite d’opérer le transfert des
Communications MTO’2009
61
connaissances scientifiques dans les pratiques du management. La conduite du
changement doit alors mieux intégrer le traitement des problèmes de
transformation de la connaissance. A cet égard, la recherche étudie des solutions
permettant d’analyser, de concevoir et de transmettre les connaissances au sein
des organisations (Brunel et Ali., 2008).
En France, le retard dans le développement des applications trouve
largement son explication dans les pratiques du management courant, et dans le
déficit de diagnostic (Seyvet, 2002 ; Jacquesson, 2003). Ces pratiques, comme
en atteste le cas E, entretiennent des contextes d’apprentissage restreint, ainsi
que la régression des processus de la stratégie émergente. Elles ne favorisent
pas le développement de la capacité à se transformer. Elles évoluent lorsque les
dirigeants s’interrogent sur les pratiques de management. Le cas E illustre un
déficit de nature épistémophilique, dont le déficit de management des
technologies organisationnelles n’est que l’un des symptômes parmi d’autres.
Cas E : Diagnostic socio-économique des dysfonctionnements
Thème « Performance des systèmes d’information et de gestion »
IDEE-CLE N°1 : Les systèmes d’information et de communication informatisés, et
les systèmes de télécommunication, ne sont pas performants (toujours).
VERBATIM :
On a du matériel à renouveler que j’ai acheté un reprenant ce magasin.
Il y a un souci au niveau de l’informatique. C’est vétuste, notamment pour
Internet, on est sur du bas débit. On ne peut pas fonctionner sur des clients
jeunes, il faut les appeler, on ne peut pas leur envoyer de mails.
Le matériel informatique est inadapté. Il n’est pas assez rapide, et il faudrait
passer à l’ADSL.
L’informatique est vétuste. Elle tombe souvent en panne. C’est embêtant quand
il a des clients dans le magasin.
Le matériel informatique me prend la tète ; c’est un système qui plante quand on
sollicite beaucoup d’applications en même temps.
Ca serait bien d’avoir une maintenance sur l’ordinateur. On y connaît tous un
peu quelque chose, mais on bidouille.
On a un vieux système téléphonique. Il faudrait avoir un téléphone sans fil aux
tables de vente.
62
Management des Technologies Organisationnelles : Journées d’Etude 2009
Le téléphone est en haut. Quand il y a du monde, c’est un peu compliqué à
gérer. Les opticiens prennent la communication et me la transfert. Je dois arrêter
des tests et j’ai de la gène par rapport à la personne (Audio).
IDEE-CLE N°2 : LE MANQUE DE PERFORMANCE DES SYSTEMES D’INFORMATION ET DE GESTION,
ET DES SYSTEMES DE TELECOMMUNICATION, EST UN FACTEUR RECURRENT DE PERTURBATION DE
LA GESTION DU TEMPS (TOUJOURS).
VERBATIM :
On est fréquemment dérangé au téléphone car on n’a pas de standardiste,
surtout que l’on fait également le standard pour l’audio en bas.
On perd du temps avec l’informatique ; on perd du temps à redémarrer quand le
système plante.
On est dérangé par le téléphone, mais les gens le prennent bien.
On est dérangé par le téléphone. On répond à tour de rôle.
IDEE-CLE
N°3
: CERTAINES
REFORMEES (TOUJOURS)
HABITUDES DE TRAITEMENT DE L’INFORMATION NE SONT PAS
VERBATIM :
J’ai gardé l’enregistrement par fiches, plus l’informatique, car pour moi, avoir une
pochette client est plus pratique. J’ai toujours travaillé comme cela. Après je
prends le temps de rentrer les fiches à l’informatique (Audio).
IDEE-CLE N°4 : LES MOYENS DE TELECOMMUNICATION NE SONT PLUS ADAPTES (TOUJOURS).
VERBATIM :
Il manque Internet. On aurait moins de frais téléphoniques. Les postes ne
fonctionnent pas très bien. La recherche est longue sur l’un des deux postes.
Une vente qui pourrait durer cinq minutes, dure vingt cinq minutes.
Pour limiter le problème des coûts, il faudrait repenser le système pour prévenir
les clients. On appelle systématiquement pour dire que le produit est arrivé.
On appelle trois fois le même fournisseur dans la journée. Ca serait intéressant
de centraliser.
Les deux cas D et E s’opposent du point de vue de l’investissement
technologique, mais le point commun, élément de connaissance générique, est le
rapport déficitaire à « l’objet intellectuel » (Janet, 1932). Cette problématique est
de même nature que celle observée par Charreire et Huault (Cf. Revue de
littérature, al.6).
Communications MTO’2009
63
Dans ces deux cas, le choix de l’invariant de transformation a été fait à partir
d’un ensemble d’observations réalisées sur différents thèmes au cours du
diagnostic socio-économique, renvoyant à des régularités du fonctionnement et
du management. Ce choix permet d’orienter les choix fondamentaux et
opératoires de la stratégie de transformations pour traiter un ensemble de
problèmes ayant une cause commune identifiée dans les infrastructures du
fonctionnement et du management.
Dans le cas D, des investissements ont été réalisés, mais leur usage n’est pas
intégré dans le fonctionnement. Les observations font apparaître également un
déficit qui concerne « l’acte intellectuel ». Dans ce cas, où l’entreprise dispose de
moyens modernes, nous avons recueillis les verbatim suivants :
Cas D : Diagnostic socio-économique des dysfonctionnements
Thème « Performance des systèmes d’information et de gestion »
IDEE-CLE N°5 : LE
FONCTIONNEMENT ET LE MANAGEMENT DE L’ORGANISATION N’INTEGRE PAS
LES OUTILS TECHNOLOGIQUES ORGANISATIONNELS
(TOUJOURS).
VERBATIM :
On remet beaucoup de choses en cause, mais on avance. Le grand changement
est celui de notre positionnement « métier ». On bute sur les outils. Le 2° axe
est le changement des outils. On a des outils qui marchent bien à un moment,
mais ultérieurement on s’aperçoit qu’ils ont des effets pervers.
Sur les méthodes, on travaille régulièrement dessus et on les améliore. Mais, ce
n’est pas du changement. Elles doivent changer un peu avec le changement de
métier.
On a communiqué sur des dispositifs, mais ce n’est pas le niveau du nouveau
positionnement, c’est le niveau de formateur ou de consultant.
On a mis en place un bel outil Internet, mais, on ne le fait pas vivre. C’est un
outil pour la communication interpersonnelle. On n’a pas fait d’actions depuis un
moment.
Il y a une sous utilisation de la CRM. Je n’ai pas le réflexe d’y aller dans le cadre
du travail. Je pense que M… est aussi en retrait par rapport à l’utilisation de la
CRM.
La CRM est un outil de développement commercial qui ne remplit pas sa
fonction, qui n’est pas utilisée.
64
Management des Technologies Organisationnelles : Journées d’Etude 2009
Dans ce cas D, le diagnostic fait ressortir une résistance du dirigeant, que
nous avons observé sur différents thèmes. L’attention était portée exclusivement
sur la posture. Les questions relatives à l’instrumentation étaient esquivées. Sur
ce plan, le processus de transformation de la connaissance stagnait au stade
cognitif antérieur. La fixation s’opérait donc sur l’invariant de remplacement.
La sophistication des systèmes de management entraine cependant d’avoir à
traiter des problématiques nouvelles. Les travaux de Morineau (2001) identifient
de nouvelles problématiques dans le domaine de la psychogénèse des
connaissances.
Sur ce plan, l’approche génétique de Piaget permet d’écrire l’hypothèse que
l’invariance structurelle est une transformation déterminée par la prise que
l’objet offre à la perception, et en même temps la capacité que cette perception
possède d’avoir prise sur ou d’être en prise avec ces prises. C’est le concept de
l’affordance chez Gibson (1977 : pp.67-82). Ce concept est utilisé par les
chercheurs pour concevoir les interfaces Homme-Machine (qui relève du rapport
à « l’objet intellectuel ») des systèmes automatiques et d’environnements
virtuels (Morineau, 2001). Nous retenons des travaux de Morineau (Ibid., p.87),
reproduisant d’une part l’épreuve du « chemin parcouru » (Piaget, 1946) dans
une environnement virtuel, d’autre part l’épreuve de la quantification des
inclusions (Piaget et Ali., 1967), qu’un sujet (jeune adulte) traiterait de manière
privilégiée les seules informations sensori-motrices jugées pertinentes, ce qui
explique son adaptation rapide. Ce qui apparaît de prime à bord positif, est
cependant problématique, car ces résultats attestent de ce que les sujets
immergés dans un environnement virtuel tombent dans le piège piagétien des
conflits cognitifs non résolus, c’est-à-dire que le chercheur se trouve confronté à
des problématiques de rationalité axiologique et cognitive. Selon ces travaux
(Ibid., p.88), le sujet doit développer de nouvelles qualités cognitives : la
capacité d’inhibition et de traitement des affordances saillantes, la capacité
cognitive à se décentrer, la capacité contrôler ses processus cognitifs. La
transformation de la connaissance n’a pas pour seul objet l’acquisition de
connaissances, mais également la transformation des qualités cognitives. C’est
en particulier l’enjeu pour les cas D.
Ces deux cas montrent l’intérêt de considérer les problématiques de la
transformation de la connaissance pour piloter les processus de transformations.
Les courants de la transformation stratégique ou organisationnelle ne
s’intéressent qu’à certains aspects de la transformation (Brassard, 2003, p.261).
Cette limite est aussi celle des théories psychologiques et sociologiques utilisées
pour la conduite du changement. Brassard (Ibid., 2003) souligne notamment que
la transformation n’intervient que lorsque les modes d’actions et d’interactions
Communications MTO’2009
65
ont installé des caractéristiques significativement différentes dans le modèle de
fonctionnement organisationnel. La transformation du rapport à « l’objet
intellectuel » impose le passage à l’acte.
Il ne suffit pas de s’inscrire dans une approche transformative pour obtenir
un changement. Pour être effectif, le changement doit se concevoir dans le
cadre d’un processus d’individuation (Simondon, 2005). L’hypothèse de
l’invariant de transformation permet d’opérer selon le principe. Ce concept
permet de définir de manière conceptuelle et opératoire les stratégies de
transformations de sorte à intervenir sur les variables à transformer pour
entrainer un changement.
CONCLUSION
Notre recherche explore l’hypothèse de l’invariant de transformation pour
définir et mettre en œuvre une stratégie de transformations. La modélisation
permet de conduire un changement multicritères, en pilotant la transformation à
partir d’une variable clé du système de transformations, positionnée comme
invariant de transformation. Dans les cas D et E, l’invariant de transformation
choisit est « l’envie d’apprendre ». Cette variable a été retenue car elle permet
de piloter le processus de la transformation sur plusieurs thèmes conjointement.
Notre recherche contribue à faire la distinction entre les stratégies de
changement et les stratégies de transformations. Jusque-là, en Sciences de
Gestion, les stratégies de transformations étaient considérées comme des cas
particuliers des stratégies de changements. Les stratégies de transformations
permettent de conduire des transformations profondes. Ces transformations
requièrent de traiter des problèmes de transformation de la connaissance.
La généralisation des technologies organisationnelles introduit des
problématiques nouvelles, sur le plan cognitif. Les technologies
organisationnelles nécessitent de traiter plus rapidement un plus grand nombre
de connaissances, et dans le même temps de se détacher mentalement de l’outil
de gestion. Les individus doivent donc développer les processus méta-cognitifs.
Les cas D et E montrent que les opérations de transformation de la connaissance
assignent le processus de la transformation. Ces cas montrent qu’il faut observer
la structure groupale du leadership, l’individu au centre qui est le dirigeantfondateur dans le cas D, qui structure par sublimation les structures mentales et
le fonctionnement du groupe.
Mais, l’intervention sur le processus de transformation de la connaissance
requiert un cadre théorique spécifique qui l’inscrive bien dans la stratégie de
transformations. La qualité de la connaissance prévaut sur son accumulation.
66
Management des Technologies Organisationnelles : Journées d’Etude 2009
NOTES
[1]
Les travaux de Piaget s’inscrivent dans cette perspective ouverte par Janet.
[2]
La 2° partie explore une problématique relative à ce rapport à l’instrumentation.
[3]
Résultats de recherche, règles de connaissance, noyau dur de connaissances,
théories … Savall et Zardet rappellent que Piaget considère l’objectivité comme un
processus et non comme un état.
RÉFÉRENCES BIBLIOGRAPHIQUES
ALAVI M. et LEIDNER M.E. (2001), « Review : knowledge management and knowledge
management systems : conceptual foudation and research issues », MIS Quaterly,
25, n°1, pp.107-136.
ARGOTE L. et INGRAM P. (2000), « Knowledge transfert : a basis for compétitive advantage »,
Organizational Behaviour and Human Decsision Process, vol.82, n° 1, pp.150-169.
BAUMARD P. (1997), Organisations déconcertées : La gestion stratégique de la connaissance,
Préface de W.H. Starbuck. Dunod, 264 p.
BAYAD M. et SIMEN S.F (2003), « Le management des connaissances : Etat des lieux et
perspectives », XII° Conférence Internationale de l’AIMS, Tunis, 27 p.
BION W.R (1982), Transformations : Passage de l’apprentissage à la croissance, PUF, 208 p.
BOLDINI (1994/2), « Morphismes et catégories : une lecture formelle de Piaget », Revue
Intellectica, pp.187-216.
BRASSARD A., « Adaptation, transformation radicale », Revue des Sciences de l’Education,
vol.XXIX, n°2, 2003, pp. 253-276.
BRUNEL S., ZOLGHADRI M., GIRARD P., (2008), « Ingénition : Une méthode pour la génération
de la connaissance », IMS-LAPS Bordeaux, 18 p.
BRUNEL S., ZOLGHADRI M., GIRARD P., (2009), « Triple instrumentation : Une approche de la
chaine de valeur ajoutée de la création des connaissances », IMS-LAPS Bordeaux, 9
p.
CHARREIRE S. et HUAULT I. (2005), « De l’existence d’une rupture paradigmatique. Une
application aux recherches constructivistes sur la connaissance organisationnelle »,
XIV° Conférence Internationale de l’AIMS, Angers, 29 p.
COHENDET P., CREPLET F., DUPOUÊT O. (2006), La gestion des connaissances : Firme et
communautés de savoir, Economica, 202 p.
CHRISTENSEN P.H. (2003), Knowledge Management : Perspectives et Pitfalls, Copenhagen
Business School Press, 120 p.
DAVID A., « La recherche-intervention, cadre général pour la recherche en management », in
DAVID A., HATCHUEL A., LAUFER R., (Coord.), Les nouvelles fondations des sciences de
gestion, Vuibert, 2000, pp.193-211.
DEMERS Christiane, « De la gestion du changement à la capacité de changer : L’évolution de la
recherche sur le changement organisationnel de 1945 à aujourd’hui », GestionRevue Internationale de Gestion, vol.24, n°3, 1999, pp. 131-139.
DOSSE F. (1992), Histoire du structuralisme, I.Le champ du signe, 1945-1966, 472 p., II.Le
champ du Cygne, 1967 à nos jours, 542 p., La Découverte.
Communications MTO’2009
67
DUGAG R. (2007), Organisation 2.0 : Le knowledge management nouvelle génération, Eyrolles,
258 p.
DUPUICH-RABASSE F. (2006), La gestion des compétences collectives, L’Harmattan, 218 p.
FERRARY M. et PESQUEUX Y ? (2006), Management de la connaissance : Knowledge
Management, Apprentissage Organisationnel et Société de la Connaissance,
Economica, 230p.
GIBSON J., The Theory of Affordances : Acting and Knowledge: Toward an Ecological
Psychology, in Robert Shaw and John Bradsford (Ed.), Perceiving, acting and
Knowing, Hillsdale, N.J.: Lawrence Erlbaum Associates, 1977, pp. 67-82.
GRANT R.M. (1996), « Toward a knowledge-based theroy of the firm », Strategic Management
Journal, 17, pp.109-122.
HAMEL G. et PRAHALAD C.K (1990), « The Core Competence of the Corporation », Harvard
Business Review,, n°68, pp.79-91.
HENRIQUES G. (1990), « Morphismes et transformations dans la construction d’invariants », In
Piaget, Henriques et Ascher, Morpshismes et catégories. Comparer et transformer,
Delachaux et Niestlé, 230 p., pp.182-209.
JACQUESSON M. (2003), « Technologies organisationnelles : Maîtriser le changement », Revue
Industrie,
Tertiaire
n°107,
Mai-Juin,
pp.5-6,
http://www.cndp.fr/archivage/valid/41617/41617-6045-5876.pdf
et
http://www.industrie.gouv.fr/biblioth/docu/kiosque/cahiers/pdf/c0084.pdf
JANET
P.
(1932), les débuts de l’intelligence, Flammarion, 52 p. – Source :
http://www.scribd.com/doc/9596211/Pierre-Janet-Debut-de-lIntelligence-B
MOISDON J.C. (1997) (Coord.), Du mode d’existence des outils de gestion, Seli-Arslan, 286 p.
MORINEAU T. (2001), « Eléments pour une modélisation du concept d’affordance », Actes du
Colloque EPIQUE, Nantes, 29-30 Octobre, pp. 83-95.
NONAKA I. (1994), « A dynamic theory of organizational knowledge creation », Organization
Science, vol.5, n°1, pp.14-37.
NONAKA I., TAKEUCHI H., (1995), The knowledge-Creating Company: How Japanese
Companies Create the Dynamics of Innovation, Oxford University Press, 304 p.
NONAKA I. et TAKEUCHI H. (1997), La connaissance créatrice : La dynamique de l’entreprise
apprenante, Préface de G.Koenig et contirbutions de M.Ingham, De Boeck
Université, 303 p.
PENROSE E. (1959), The Theory of the Growth Of The Firm, 4° édition 2009, Oxford University
Press, 304 p.
PIAGET J. (1968), Le structuralisme, PUF, 125 p.
PIAGET J. (1970), Epistémologie génétique, PUF, 127 p.
POPPER K. (1999), La connaissance objective, Champs-Flammarion, 578 p.
PRAX J.Y. (2007), Le manuel du knowledge management , 2° édition, Dunod, 511 p.
ROSCH E. (1973), « Natural catégories, Revue Cognitive Psychology, Vol.4, pp.328-350.
SAVALL H. et ZARDET V. (1995a), Maîtriser les Coûts-Performances Cachés : Le contrat
d’activité périodiquement négociable, Préfaces de M-A Lanselle et de J_M Doublet,
Prix de Management stratégique Harvard-l’Expansion, Editions Economica, 405 p.
SAVALL H. et ZARDET V. (1995b), Ingénierie stratégique du roseau, Economica, 517 p.
68
Management des Technologies Organisationnelles : Journées d’Etude 2009
SAVALL H. et ZARDET V. (2004), Recherche en Sciences de Gestion : Approche Qualimétrique :
Observer l’objet complexe, Préface du Pr.D.Boje (Usa), Economica, 432 P.
SAVALL H. et ZARDET V. (2005), Tétranormalisation,Economica, 195 p.
SEYVET J. (2002) « Technologies organisationnelles pour l’entreprise », Direction Générale de
l’Industrie des Technologies de l’information et des Postes, 113 p.
www.industrie.gouv.fr/biblioth/docu/dossiers/sect/pdf/technorg.pdf
SIMONDON G. (2005), L’individuation à la lumière des notions de forme et d’information,
Million, 571 p.
VON KROGH G., ICHIJO K., NONAKA I., (2000), Enabling Knowledge Creation : How to Unlock
Mystery of Tacit Knowledge and Release the Power of Information, Oxford
University, 30 p.
Communications MTO’2009
69
Impacts des dysfonctionnements
d’usages avec les systèmes intégrés
de type ERP/PGI [1]
Guy SAINT-LEGER et Daniel BONNET
Chercheurs-associés à l’ISEOR
Université Jean-Moulin / Lyon
RESUME
Les processus d’implémentation des systèmes d’information à base de
progiciels intégrés ont été largement étudiés. Il est possible d’aborder
maintenant la manière dont ces outils de gestion sont réellement utilisés dans les
organisations. Les phases post-projets deviennent un terrain intéressant pour les
chercheurs, mais aussi pour les praticiens.
Cette communication concerne le diagnostic des dysfonctionnements d’usage,
c'est-à-dire les écarts entre les usages attendus des systèmes et les usages réels
dans les entreprises. Comment les identifier et les comprendre, quelles sont les
causes à l’origine de ces décalages ? Quels enseignements peut-on tirer sur la
question des mésusages pour améliorer le processus de conduite de changement
à mettre en œuvre dans les e-projets ?
INTRODUCTION
Cette recherche concerne l’usage des systèmes d’information à base de
progiciels intégrés. Les phases post-projets deviennent un terrain intéressant
pour les chercheurs, mais aussi pour les praticiens, notamment lorsque ces
derniers ont eu à surmonter de lourdes difficultés (Saint-Léger, 2004).
Nous pouvons comprendre aujourd’hui que la réussite d’un projet jugé
essentiellement sur le couple délai-budget perd tout son sens si l’application
70
Management des Technologies Organisationnelles : Journées d’Etude 2009
n’est pas utilisée ou détournée de son usage par les utilisateurs et le
management.
La problématique du mésusage des systèmes d’information est abordée ici
dans le cadre des systèmes de gestion intégrés. Notre recherche repose sur le
suivi détaillé de l’activité quotidienne d’un utilisateur d’un ERP du marché. Notre
intervention se situe en phase post-projet avancée, dans le secteur de
l’automobile, et s’est déroulée sur une période de quatre années.
Dans la première partie de cet article, nous préciserons la notion de «
dysfonctionnements d’usage », ainsi que les spécificités liées aux systèmes
d’information de type ERP. Nous précisons ce que dit la littérature sur ce thème.
Nous privilégions l’analyse de deux types de dysfonctionnements fréquents, que
sont les « glissements de fonction » et les « surtemps ». Le diagnostic est réalisé
en empruntant à la théorie socio-économique des organisations (Savall et
Zardet, 2004) sa méthode d’analyse des dysfonctionnements (rechercheintervention). La seconde partie est consacrée à l’analyse des résultats. Dans la
troisième partie, nous examinons quels sont les facteurs à prendre en compte
dans le processus de conduite du changement dès l’amont des e-projets
d’intégration pour éviter les scénarios post-projets critiques. Nous examinons,
également la question du type d’interventions possibles en phase post-projet
avancée ou les dysfonctionnements d’usages perdurent.
1° PARTIE : LES DYSFONCTIONNEMENTS D’USAGES
La notion de « dysfonctionnements d’usage » prend tout son sens avec la
généralisation des technologies organisationnelles. Nous aborderons les
éléments théoriques en relation avec les usages, puis les raisons pour lesquelles
nous étudions le cas des progiciels intégrés.
Eléments théoriques en relation avec les usages
Le concept de « l’usage» associé aux systèmes d’information est largement
étudié et fait l’objet de très nombreuses publications [2]. Pour l’Anact [3], la
notion d’usage est partagée par de nombreuses disciplines (sociologie,
ergonomie, gestion), et s’appuie sur des approches méthodologiques variées.
Cette diversité d’approches fait que les termes « usage » (Davis, 1989),
« utilisation », (Boffo, Barki, 2003), « appropriation » (Dumont et Ali., 2008),
« adoption » (Titah, Barki, 2005; Agarwal, 2000, Markus et Tanis, 2000), voire
« alignement des usages » (Fimbel, 2006, 2007), entretiennent des confusions
sémantiques.
L’usage s’inscrit dans une construction sociale et organisationnelle (Chaumat,
2008). Pour Thomas et Pascal (2008), les usages des TIC ne se déduisent pas
Communications MTO’2009
71
directement du travail de conception qui est réalisé à partir d’un objet. Les TIC
ne peuvent pas, en elles-mêmes, améliorer les pratiques, faire augmenter ou
baisser la productivité : seul leur usage le peut. Bachelet et El Harouchi (2008)
s’intéressent pour leur part à l’usage « effectif » et résument leur point de vue
par la question suivante : les usages réels sont-ils les usages prévus ?
La dimension sociale fait souvent défaut dans la conduite des e-projets
d’intégration (Chevallet et Rocher, 2003), où l’approche technologique reste
prédominante. Comme l’a montré Orlikowsky (2000), c’est seulement une fois
que la technologie est utilisée dans des pratiques récurrentes de travail que se
construisent les usages.
Notre recherche observe plus particulièrement les dysfonctionnements
d’usages ([SI<->C]) dans le couple des interactions [SI-comportement des
utilisateurs]. Deux catégories d’entre eux, les glissements de fonctions et les
surtemps, révèlent les formes de pratiques d’usage. La méthode du diagnostic
permet d’analyser les causes et les coûts cachés de ces dysfonctionnements
d’usages.
Dans l’approche socio-économique des organisations, le glissement de
fonction correspond à un travail effectué par une personne à la place d’une
autre. Cette situation de travail inscrit un processus de « déresponsabilisation
[4] » dans le fonctionnement de l’organisation du travail. Ces
déresponsabilisations sont à l’origine de nombreux dysfonctionnements dont les
conséquences se traduisent in fine par des surtemps [5] passés à reprendre
tout ou partie d’un travail non réalisé ou de mauvaise qualité [6]. Les surtemps
engendrent des coûts supplémentaires, du stress et affectent les relations de
travail entre les personnes. Ces deux composantes sont pertinentes à étudier
dans les cas des ERP/PGI. D’autant qu’avec la puissance d’intégration de ces
systèmes (Bidan, 2004), la notion de « glissements de fonction » répartie sur
l’ensemble du réseau des utilisateurs devient vite complexe. Le glissement de
fonction peut s’exercer de manière « verticale » et/ou « tranversale » [7]. Par
sa conception le système intégré ne connait pas de frontière « fonctionnelle », ni
géographique. Il expose en temps réel le management à une transparence et
une fiabilité des données (Gumb, 2005 ; Brasseur, 2005) pour lesquelles ce
dernier n’est pas toujours prêt à collaborer (Pollard, 2002 ; Rowe, 1999 ;
Simatupang et Ali., 2002).
Pourquoi étudier le cas des intégrés ?
Cette absence de collaboration avec le système n’est pas fortuite. Elle se
manifeste sous différentes formes, dont celle de déresponsabilisation. La
question des déresponsabilisations liée aux mésusages des systèmes
d’information intégrés est assez nouvelle, et la littérature sur ce questionnement,
72
Management des Technologies Organisationnelles : Journées d’Etude 2009
comme les études empiriques, sont assez rares. Elle porte plutôt sur le thème de
la responsabilisation, notamment l’empowerment (Bowen et Lawler, 1992 ; Veltz
et Zarifian, 1993 ; Wilkinson 1998, Thomas et Velthouse, 1990). Ce que
confirment Heili et Vinck (2008), car il y a aussi une réelle difficulté à aller
observer le fonctionnement des ERP en usage [8]. Il faut généralement pratiquer
une recherche de type ethnographique, assez longue et coûteuse. Les travaux
reflètent souvent les discours des porteurs de projet ERP ou des chefs
d’entreprises, ou d’auteurs qui se veulent critiques et qui dénoncent les dégâts et
les tromperies liées aux ERP. Nous partageons le point de vue de Heili et Vinck
(Ibid.), selon lequel l’étude des usages nécessite une proximité avec le terrain
pour comprendre les jeux d’acteurs dans l’exercice de leurs activités.
2° PARTIE : ETUDE DE CAS
Cette communication concerne plus particulièrement l’analyse d’un poste
d’agent d’ordonnancement des opérations dans le secteur automobile, utilisant
un ERP. Nous avons observé l’activité quotidienne de cet agent qui a un rôle clé
dans la planification des opérations et qui doit réguler les dysfonctionnements
consécutifs au manque de coopération des acteurs.
Problématique étudiée
Chaque lundi, l’agent d’ordonnancement se trouve confronté à une difficulté
majeure pour « lisser » la charge de travail des ateliers sur la semaine à venir en
fonction des capacités dont il dispose (Tableau 1). Une charge résiduelle
importante [9] d’articles à fabriquer apparaît à l’écran chaque lundi matin. Cet
agent doit répartir cet excédent de charge sur les autres jours de la semaine.
Mais chaque jour, de nouvelles commandes viennent s’ajouter au prévisionnel à
fabriquer ce qui laisse peu de marge de manœuvre à l’opérateur. Cette charge
résiduelle pose problème, et son explication est devenue prioritaire, d’autant que
les trois autres agents d’ordonnancement de l’entreprise semblent être
confrontés au même phénomène. Quels sont les mécanismes qui conduisent à
l’apparition de cette charge résiduelle et pourquoi est-elle récurrente ?
Date
A fabriquer
Capacité prod.
Ecart
Lundi
62959
27000
35959-
Mardi
8160
27000
18840
Mercredi
18480
27000
8520
Jeudi
20640
27000
6360
Vendredi
18480
27000
8520
Samedi
23880
27000
3120
Tableau 1 : Gestion de la planification des lignes de production
Communications MTO’2009
73
Approche méthodologique
L’observation rapprochée des pratiques permet d’accéder au vécu réel des
acteurs, de bénéficier de données primaires de grande qualité (Cristallini, 2007),
et de procéder à des expérimentations pour envisager des transformations. Le
chercheur intervient sur le terrain de la recherche pour aider, éventuellement en
proposant et / ou concevant lui-même un certain nombre d’outils (David et Ali.,
2000). Dans le cas étudié, le processus de diagnostic socio-économique repose
sur les étapes suivantes :
1 - Identification des dysfonctionnements et de leurs causes apparentes
Les causes apparentes représentent un premier niveau d’analyse et sont
associées aux représentations que les acteurs se font des dysfonctionnements à
la fois quantitatifs et qualitatifs qu’ils rencontrent dans leur travail ainsi que de
leur énumération.
2 – Identification des causes profondes
Ce deuxième niveau d’analyse reprend les causes identifiées précédemment
en mettant en lumière les raisons cachées liées à leur existence.
3 – Identification des causes racines
Ceci représente le troisième niveau d’analyse à la source des
dysfonctionnements réels. Il s’agit des causes racines sur lesquelles des actions
curatives conséquentes doivent être engagées pour neutraliser les
dysfonctionnements observés.
4 – Validation et restitution des résultats
Validation et restitution des résultats auprès de la direction à l’aide des
notions de « glissement de fonction » et de surtemps développées toutes deux
dans la suite de cet article.
Cette recherche intervention s’est déroulée sur une période de trois mois. Elle
a été étendue par la suite à l’échelle de l’entreprise, soit trois autres unités de
fabrication totalisant 950 salariés.
74
Management des Technologies Organisationnelles : Journées d’Etude 2009
Résultats et discussions
Le tableau 2 résume les relevés effectués sur une période de trois mois par
l’agent d’ordonnancement. Ce tableau présente un arbre de causalité montrant
l’encapsulation des différentes causes et leur localisation. Nous ne détaillons
dans ce tableau que les dysfonctionnements les plus significatifs : les absences
de re-planification [10] (87.23% des situations), les erreurs dans les données de
base, de paramétrage, et les saisies transactionnelles (7,8 %). Ces données sont
également partagées par les trois autres agents d’ordonnancement des autres
unités de production de l’entreprise qui utilisent le progiciel.
Les deux composantes socio-économiques étudiées pour l’identification des
dysfonctionnements d’usages sont les surtemps associés aux glissements de
fonction. La demande du client définissait précisément l’objet et le champ de
notre intervention. La demande du client n’a pas portée sur les autres
composantes. Il n’a donc pas été possible d’évaluer les pertes globales
imputables aux dysfonctionnements de la composante non-production,
notamment les pertes de production et de productivité engendrées par les
manquants (produits et capacités).
Décalage charges / Capacités accentué par la fréquence du calcul des besoins nets
Dysfonctionnements
majeurs identifiés :
causes apparentes
Raisons cachées à l’origine
de la déresponsabilisation :
causes profondes
Manquants (Produits)
Absences de replanification
des
opérations, (87.23 %)
Facteur(s) venant
alimenter la raison
cachée : causes racines
Localisation des
déresponsabilisations
[01]
Retards fournisseurs
Achats/approv.
[02]
Réceptions
matières
premières non mises à
jour dans le progiciel.
Magasin
[03]
Ruptures
d’approvisionnement
des lignes de fabrication
Magasin
[04]
Matières bloquées en
contrôle qualité
Qualité
[05]
Erreur emplacements
Magasin
[06]
Nouveaux produits non
gérés dans le progiciel
Conception
[07]
Fichier
article
mal
paramétré par les achats
Achats/approv.
[08]
Cannibalisme
en
utilisant des produits
réservés
à d’autres
commandes
Production
[09]
Hors délais fournisseurs
(pression
sur
fournisseurs)
ADV (Adm.Des Vtes)
[10]
Pannes machines
Production
[11]
Absentéisme
Production
Repères
1
Manquants (Capacités)
Tableau 2a : Identification des facteurs de déresponsabilisation
Communications MTO’2009
75
Absences de re-planification des opérations.
Quand des aléas de production se manifestent, les responsables d’ateliers
n’en informent pas le système : les ordres ne sont donc pas re-planifiés. Cette
pratique dissimule une réalité de gestion dans l’urgence. Nous avons observé
deux types de déresponsabilisation : celle qui n’est pas intentionnelle et qui se
matérialise in fine par des actes de déresponsabilisation, et celle qui est bien
réelle. Les absences de re-planification appartiennent dans notre cas à cette
deuxième catégorie. Les « manquants [11] » en sont la principale manifestation
et c’est ce que cherche à occulter les responsables d’atelier (repères (1) à (11)
du tableau 2). Cette pratique de déresponsabilisation provoque un décalage
informationnel entre ce qui est affiché à l’écran et la réalité des situations
d’ateliers. Elle génère des pertes de temps considérables - des surtemps [12] et du de stress.
Dysfonctionnements
majeurs identifiés :
causes apparentes
Raisons cachées à l’origine
de la déresponsabilisation :
causes profondes
Repères
Décalage charges / Capacités accentué par la fréquence du calcul des besoins nets
2
Facteur(s) venant
alimenter la raison
cachée : causes racines
Erreurs
dans
les
données de base et de
paramétrage, (6.38 %)
Contournement du progiciel
[12]
Données erronées ou
manquantes
Ordres de fabrication
ne correspondant pas
aux
ordres
de
distribution (2.84 %)
Absences de coordination
entre les services
[13]
Décalages
dans
les
quantités des ordres
entre les sites de
productions
Absences de saisies
transactionnelles ou
saisies erronées (1.42
%)
Pratiques d’utilisation de
l’ERP
[14]
Données erronées ou
manquantes
Conception, Méthodes
Localisation des
déresponsabilisations
Achats/approv.
Conception
Production, ADV
Méthodes, Ventes
Achats/approv.
Magasin
Conception
Production
ADV, Ventes
Temps de défilement
erronés (0.71 %)
Pratiques internes douteuses
[15]
Paramétrage erroné des
différentes étapes du
processus physique
Demande
client
inférieure au cycle de
fabrication (0.71 %)
Laxisme à l’égard des clients
peu respectueux des
contrats commerciaux
[16]
Dysfonctionnements des
clients reportés sur
l’entreprise
ADV, Ventes
Date de commande
forcée
dans
le
système
par
l’Administration Des
Ventes (0.71 %)
Délinquance interne
[17]
Absences de saisies des
commandes au fil de
l’eau
ADV, Ventes
Ordres de fabrication
non-soldés sur cette
période (0 %)
Pratiques d’utilisation de
l’ERP
[18]
Désordre
ateliers
Production
dans
les
Tableau 2b : Identification des facteurs de déresponsabilisation
76
Management des Technologies Organisationnelles : Journées d’Etude 2009
Données erronées ou manquantes
La combinatoire des dysfonctionnements (12) et (14) donne une information
précieuse sur la manière dont est utilisé le système ainsi que sa fiabilité. Nous
avons observé de nombreuses pratiques de contournement du système par le
management, et un nombre important de données erronées ou manquantes. Sur
l’ensemble des dysfonctionnements identifiés, l’étude montre que l’agent
d’ordonnancement se retrouve in fine confronté au quotidien et de manière
aléatoire à 30 actes de déresponsabilisation issus de 8 fonctions différentes dans
l’organisation. Les dysfonctionnements ne surviennent pas en même temps.
Mais, ces actes occasionnent pour la correction des pertes de temps pour l’agent
pouvant atteindre 60 % de son temps d’activité.
Combinatoire des glissements de fonctions
Les surtemps passés à corriger les actes de déresponsabilisation caractérisent
les « glissements de fonction ». La combinatoire des glissements de fonctions «
verticaux et horizontaux » est-elle la traduction d’actes de déresponsabilisation
qui concerneraient toute l’organisation ? Dans le cas étudié, la réponse est oui.
Nous sommes en présence d’un glissement de fonction « collectif ». Le cas de
l’agent d’ordonnancement n’est pas isolé dans cette organisation ; on le retrouve
par ailleurs dans toutes les fonctions. Il existe donc dans cette entreprise une
problématique de fond importante avec l’intégration des usages de son outil
informatique (Bérard, 2003). Cette défaillance affecte le climat social interne,
mais à également les relations avec les clients et les fournisseurs que nous
avons rencontrés.
Coûts cachés des surtemps de l’agent d’ordonnancement
Dans l’analyse des coûts cachés, le calcul des surtemps est valorisé à l’aide
de la CHMCV [13] qui représente au moment de cette intervention une valeur
d’environ 60 euros /heure de travail quel que soit le profil du salarié. Sur la base
de 8h00 de travail / jour et de 225 jours travaillés par an, l’estimation est la
suivante :
Nb. postes
Hypothèse surtemps mini. 40%
Hypothèse surtemps maxi 60 %
1 agent
60 € x (192/60) x 225 = 43 200 €
60 € x (288/60) x 225 = 64 800 €
4 agents
43 200 € x 4 = 172 800 €
64 800 € x 4 = 259 200 €
Tableau 3 : Valorisation des surtemps
Cette étude ne concerne que les surtemps subis par un poste spécifique dans
la fonction de production. A l’échelle de l’entreprise le nombre d’acteurs en
interaction dont le travail est directement conditionné par l’utilisation du progiciel
Communications MTO’2009
77
donne aux lecteurs une idée de l’ampleur des coûts cachés lié à une mauvaise
intégration des usages (Tableau 4).
3° PARTIE : INTEGRER LE PROCESSUS DE LA CONDUITE DU
CHANGEMENT – DISCUSSION ET IMPLICATION MANAGERIALE
Les problèmes d’intégration des systèmes intégrés de gestion dans le
fonctionnement des organisations, considérés comme « dispositifs de gestion »
(Moisdon, 1997) se posent toujours, y compris dans des organisations qui
utilisent couramment des outils de gestion technologique. Les utilisateurs des
systèmes intégrés de gestion prennent la mesure des lacunes fonctionnelles et
organisationnelles des outils proposés au cours de leur usage. L’usage du
système intégré de gestion est défini par rapport à un modèle normatif de
fonctionnement nécessitant d’installer de nouvelles conventions de coopération
et de gestion entre les acteurs. Cette installation nécessite de procéder à des
transformations dans les infrastructures du fonctionnement de l’organisation, car
les inflexions requises ne s’opèrent pas d’elles-mêmes.
Dans cette 3° partie, nous allons fournir les indications permettant d’intégrer
le processus de la conduite du changement, en distinguant ce qui doit être
envisagé en amont de l’installation du système intégré de gestion d’une part,
puis au cours de son usage d’autre part. En conclusion, nous montrerons que la
mise en œuvre d’un système intégré de gestion nécessite d’installer une
stratégie de transformations continue permettant de piloter le processus de
management à partir des méthodes de la conduite du changement.
Facteurs à prendre en compte dans le processus de conduite du
changement dès l’amont des e-projets d’intégration pour éviter les
scénarios post-projets critiques.
La méthode de conduite du changement a son importance. Le plus souvent,
le changement est abordé selon les principes de la rationalité méthodologique.
Toutes les méthodes prescrivent des actions de formation et de communication,
qui se révèlent souvent peu efficaces, même adossées à un diagnostic
organisationnel. En toutes circonstances, l’installation d’un système intégré de
gestion fait surgir les dysfonctionnements, et plus largement la partie issue des
dysfonctionnements organisationnels. Le fonctionnement qui s’installe alors,
consécutif aux compromis entre les acteurs, est un ersatz du fonctionnement
organisationnel qui se modifie sous l’effet de ses propres réactions aux
dysfonctionnements. Le noyau dur des dysfonctionnements s’enkyste dans le
fonctionnement courant. Comme le montre l’étude, les acteurs consacrent alors
78
Management des Technologies Organisationnelles : Journées d’Etude 2009
beaucoup de temps à la régulation de ces dysfonctionnements. Cette régulation
s’installe dans le fonctionnement courant.
Au préalable, il est important d’avoir une vision claire et critique de la réalité
du fonctionnement de l’organisation, en premier lieu de ne pas entretenir la
confusion entre les symptômes et les problèmes, à savoir les causes profondes
et les causes racines. Evidemment, le changement n’est pas la question, mais
c’est aussi le problème (Brénot et Tuvée, 1996). Ces auteurs indiquent que le
manque d’efficacité dans l’action est généralement dû à une sous estimation des
problèmes et à un déficit de conduite du changement.
Sur la question de l’évaluation des problèmes, le choix d’une méthodologie de
diagnostic est important. Il est très probable que les problèmes sont déjà
installés dans les infrastructures du fonctionnement de l’organisation et de son
management, bien avant l’installation du progiciel de gestion intégré. Les
problèmes sont donc déjà structurés et les pratiques de régulation ont installé un
processus d’assuétude du management. Comme le montre l’étude, chacun des
acteurs accomplit des efforts pour surmonter les difficultés. Mais, les acteurs
sont dans un contexte asymétrique d’information entre eux. Ils ne peuvent
jamais résoudre les difficultés.
Le déficit de conduite du changement, quant à lui, surgit toujours dès lors
que le projet des transformations à réaliser n’est pas clairement établi d’une
part, que le projet programmatique n’est pas lui même défini et piloté d’autre
part. Le pilotage d’un processus de transformations requiert un management
pro-actif, transformateur et qualifiant. Ces deux conditions ne doivent pas être
seulement réalisées au moment de l’implantation du progiciel de gestion intégré,
mais doivent être constamment maintenues dans le fonctionnement courant de
l’organisation. A la suite du diagnostic socio-économique, la méthode
d’intervention consiste à définir un projet socio-économique de conduite du
changement qui est installé dans les infrastructures du fonctionnement et du
management. Cette technique d’intervention permet à l’entreprise, dès lors
qu’elle en assure la maintenance, de développer sa capacité à se transformer.
Il est démontré que le changement obéit à des styles de management
différent selon les contextes (Brénot et Tuvée, 1996). Mais, la généralisation des
technologies organisationnelles fait surgir une autre exigence : évaluer les
problèmes de manière qualimétrique, c’est-à-dire pas seulement sur le plan
qualitatif et quantitatif, mais également sur le plan de leur incidence financière
(coûts-performances cachés). Dans l’étude, le montant des coûts cachés est très
important : 65 K€ par personne et par an, imputables à un seul facteur, le
surtemps qui a été le seul facteur évalué [14]. Ce qu’il faut en déduire, c’est que
le fonctionnement de cette organisation recèle une importante réserve de valeur
ajoutée. La transformation des coûts-performances cachés en valeur ajoutée
Communications MTO’2009
79
productive contribuerait fortement à l’amélioration de la performance et de la
compétitivité qui est recherchée par la mise en œuvre d’un progiciel de gestion
intégrée. L’entreprise n’optimise pas son investissement. Par là même, notre
communication démontre que l’optimisation de l’investissement en technologies
organisationnelles nécessite de mettre en œuvre des méthodes nouvelles de
management.
Nous avons examiné dans cette section les deux conditions majeures à
prendre en compte en amont des e-projets pour optimiser l’investissement
technologique, à savoir, disposer d’un diagnostic des causes profondes et des
causes racines des dysfonctionnements d’une part, installer une stratégie de
transformation des infrastructures du fonctionnement courant de l’organisation
d’autre part. Nous allons maintenant examiner les modalités de conduite d’un
changement en phase post-projet lorsque les dysfonctionnements perdurent.
Type d’interventions possibles en phase post-projet où les
dysfonctionnements d’usages perdurent.
Le non-alignement stratégique devrait être perçu comme une situation
pathologique (Cigref, 2002) qui entretient des processus d’apprentissage
restreint. L’organisation ne développe pas sa capacité à se transformer.
L’argument de la transformation de l’entreprise est la reconnaissance que
l’investissement informatique seul ne produit pas de résultats sans une réflexion
et des actions sur la stratégie, les structures, les processus, les compétences de
l’ensemble de l’entreprise, soulignent encore l’étude du Cigref (ibid.). Le
management des technologies organisationnelles doit considérer l’hypothèse de
l’ambiguïté causale, qui est l’incertitude attachée au processus de l’alignement
stratégique. Selon cette approche, une aptitude organisationnelle doit être
considérée comme plus rigide à transformer qu’une ressource (Métais, 1997), car
l’aptitude se transforme en fonction de l’interaction de plusieurs ressources. En
phase post-projet, si les dysfonctionnements perdurent, il faut considérer que la
situation est pathologique. Dans ce contexte, il faut opérer une transformation.
La conduite du changement doit être réalisée avec une méthode permettant
d’opérer cette transformation.
En premier lieu, il faut prendre conscience de l’étendue et de la profondeur
des transformations à entreprendre. L’étude montre que les dysfonctionnements
ne sont pas causés par l’opérateur d’ordonnancement qui consacre jusqu’à 60 %
de son temps à leur régulation. L’intervention à réaliser ne concerne pas que le
seul usage du système intégré de gestion. La problématique est plus profonde.
Sur le plan organisationnel, on note un déficit de coopération organisationnelle
qui concerne plus particulièrement les processus de communication-coordinationconcertation. Trois présupposés sont observables : il est considéré implicitement
80
Management des Technologies Organisationnelles : Journées d’Etude 2009
que le logiciel est fonctionnel, que les dysfonctionnements font partie du
fonctionnement normal de l’organisation, qu’il est dans les attributions de l’agent
d’ordonnancement de procéder aux régulations de dysfonctionnements. En fait,
l’agent d’ordonnancement gère à lui seul une grande quantité de
dysfonctionnements internés dans son service, provenant des clients internes qui
ne renseignent pas le système d’information, mais également de clients externes
qui modifient les spécifications des commandes. Les investigations sont donc à
réaliser dans l’ensemble de la chaine de valeur.
Au stade post-projet, le traitement des dysfonctionnements ne saurait être
envisagé en mettant en œuvre une démarche de reconception du système
d’information. Le diagnostic socio-économique ne faisait pas apparaître que le
système intégré de gestion est inadapté. Il s’agit d’intervenir sur la bonne
pathologie. On vérifie cependant comment le changement a été envisagé à
l’origine lors de la mise en œuvre du système intégré de gestion. A cet égard,
notre intervention a contribué à faire évoluer la représentation du changement.
Le changement fait rarement l’objet d’une demande d’intervention précise, et
dès lors, c’est ce qui fait problème. Le changement avait été appréhendé de
manière empirique. Les acteurs se sont trouvés dans l’embarras, compte tenu du
fonctionnement systémique de l’organisation, et se sont focalisés sur la
régulation des dysfonctionnements.
On doit également distinguer et analyser les dysfonctionnements dont les
causes sont attribuées aux insuffisances éventuelles du système intégré de
gestion. Dans le cas d’espèce, les dysfonctionnements sont déterminés par des
facteurs comportementaux d’une part, et par les facteurs de contingence des «
dispositifs de gestion » au sens défini par Moisdon (1997) d’autre part, que
l’auteur distingue des outils de gestion. Le « dispositif de gestion » est un
concept plus large qui englobe l’ensemble des arrangements et des pratiques
permettant d’optimiser l’utilisation des outils de gestion.
Il faut ensuite considérer que les dysfonctionnements trouvent leur origine
dans un faisceau de causes qui peuvent être analysées par catégories. Mais,
cette analyse ne peut pas être faîte par chacun des acteurs considérés
individuellement car leur champ de vision est limité. Chacun des acteurs organise
pour son propre compte les régulations de dysfonctionnements, ce qui relève de
la régulation autonome.
Dans le cas d’espèce, le seul facteur de contingence analysé a été le
surtemps, c’est-à-dire l’impact des dysfonctionnements sur le facteur gestion du
temps. La théorie socio-économique des organisations propose une méthode
permettant d’établir le diagnostic dans cinq autres domaines qui interfèrent avec
la gestion du temps : les conditions de travail, l’organisation du travail, la
communication-coordination-concertation, la formation intégrée et la mise en
Communications MTO’2009
81
œuvre stratégique. Enfin, il est probable que la gestion du temps chez les clients
internes et externes impacte également le fonctionnement de l’organisation.
C’est donc un diagnostic socio-économique global dans la chaîne de valeur de
l’usage des systèmes d’information qu’il faut envisager en phase post-projet pour
optimiser l’investissement technologique.
Il serait évidemment tentant de ne réaliser le diagnostic, ou même un simple
audit, que dans le périmètre de la mise en œuvre du système intégré de gestion.
Mais par nature, un audit se concentre sur les écarts de non conformité. Quant
au diagnostic, pour être efficace, il doit démontrer les véritables mécanismes des
dysfonctionnements.
Cette approche est requise pour une raison simple. On ne conduit pas un
changement en agissant sur une multitude de facteurs, mais sur un facteur clé
qui entraine le processus de transformations et corrélativement la transformation
du facteur clé. Ce facteur clé est identifié à partir du diagnostic de la cause
racine des dysfonctionnements. Les travaux de recherche de Savall et Zardet
(1995b) ont montré que la cause racine la plus fréquente expliquant les
dysfonctionnements était le déficit de pilotage des processus du management et
du changement. Ces travaux ont montré qu’il faut intégrer les méthodes de la
conduite du changement dans les processus du management pour piloter
effectivement.
Il peut apparaître cependant que certains modules du système intégré de
gestion soient difficiles à utiliser dans une organisation, ou ne sont pas activés,
car généralement les éditeurs de progiciels de gestion intégré, pour les plus
anciens, sont partis de logiciels existants dans les fonctions logistiques ou
production qu’ils ont fait évoluer en élargissant leurs attributs et modalités de
fonctionnement (Meyssonnier, 2007). Ce qui signifie qu’en tout état de cause, il
faut évaluer l’historique des progiciels sélectionnés.
Les situations pathologiques sont assez fréquentes. Selon Meyssonnier (Ibid.)
qui fait référence aux travaux de Willis (2001) et de Pérotin (2003), elles
concernent un très grand nombre d’entreprises utilisant les ERP. Dans une
proportion assez significative des cas connus, la mise en place des ERP est un
échec, précisent-il encore (Ibid.).
CONCLUSION
L’étude des dysfonctionnements d’usage dans un contexte de généralisation
des technologies organisationnelles pourrait bien révéler l’urgence d’une
approche épidémiologique du phénomène. Les dysfonctionnements d’usage
génèrent probablement des coûts-performances cachés exorbitants, largement
concentrés dans la fourchette haute des évaluations faîtes par Savall et Zardet.
82
Management des Technologies Organisationnelles : Journées d’Etude 2009
Les systèmes intégrés de gestion sont des outils de gestion. Le traitement
des dysfonctionnements d’usage ne doit pas être envisagé dans la catégorie des
outils de gestion qui sont fonctionnellement incomplets, mais dans celle des «
dispositifs de gestion ». Il s’agit de traiter des problématiques de technologies
organisationnelles, qui requièrent d’opérer des transformations dans les
infrastructures du fonctionnement courant des organisations et de leur
management. Ces problématiques sont d’essence socio-économique.
Cette évolution transforme également la définition du concept de pilotage. Il
ne s’agit plus de piloter des projets ou le changement, mais de piloter des
transformations. Nous montrons dans cette communication que cette fonction de
pilotage requiert d’intégrer les méthodes transformatives de la conduite du
changement dans les processus courants du fonctionnement et du management
des organisations. Globalement, le développement des technologies
organisationnelles renforce l’exigence de professionnalisation du management
des organisations. C’est la vocation du management des technologies
organisationnelles.
NOTES
[1]
Enterprise Resource Planning ou Progiciel de Gestion Intégré en Français.
[2]
Etude de recherche du CIGREF sur l’usage des TIC, Travaux de L’Anact…
[3]
Agence Nationale pour l’Amélioration des Conditions de Travail.
[4]
Absence de responsabilité, intentionnelle ou pas, à l’égard de l’utilisation du système
d’information et de la maintenance des données.
[5]
C’est le coût du temps passé pour corriger les dysfonctionnements (informationnels
dans notre cas). L’évaluation de ce coût est faite sur la base de la contribution à la
valeur ajoutée (marge) sur coûts variables.
[6]
Tant sur les flux physiques de transformation des produits que sur celui des
données numérisées.
[7]
Intégration informationnelle de l’ERP.
[8]
Entretien avec R. Chevallet, Anact Lyon, Février 2009.
[9]
35 959 articles dans le cas de cette semaine.
[10]
Lors d’une modification du programme existant, il est nécessaire de réactiver ce
programme pour que la mise à jour soit effective dans le progiciel.
[11]
Matières premières, sous-ensembles, produits-finis, ressources machines et
humaines pour les capacités de production.
[12]
Temps passé à corriger les dysfonctionnements, pour ensuite pouvoir réaliser dans
de bonnes conditions son propre travail.
Communications MTO’2009
83
[13]
Valorisation des coûts à l’aide de la CHMCV (Contribution Horaire à la Marge sur
Coûts Variables).
[14]
Le diagnostic socio-économique permet d’évaluer 4 autres facteurs : sursalaires,
surconsommations, non production, non création de potentiel.
REFERENCES BIBLIOGRAPHIQUES
Agarwal R. (2000), Individual Acceptance of information Technologies, In Robert W. ZMUD,
Michael F. PRICE (eds), Framing The domains of IT Management: Projecting the
Future Through the Past, Pinnaflex Educational Resources Inc., p. 85-104.
Bachelet C., El Harouchi L., “Une méthode des scénarios d’usage appliquée à l’utilisateur
externe”, In Benedetto-Meyer M., Chevallet R., Analyser les usages des systèmes
d’information et des TIC, Quelles démarches, quelles méthodes ?, Editions du
réseau ANACT, pp. 78-97.
Bérard D. (2003), « ERP : De nouvelles formes de travail ? », Travail et Changement, Anact.
Bidan, M., (2004), «Fédération et Intégration des Applications du Système d’Information de
Gestion, Système d’Information et Management, Edition ESKA, Vol. 9, N. 4, 2004, p.
5-25.
Boffo, C. et H. Barki, (2003), "Conceptualizing Information System Use: A Behavioral and
Perceptual Framework," actes de congrès de l'ASAC, Division Systèmes
d'information Halifax, NE, 14-25.
Bowen D.E, Lawler E.E. (1992), « The empowerment of service workers what, why, how and
when ? », Sloan Management Review, vol.33, n°3, pp.31-39.
Brasseur C. (2005), Data Management : Qualité des données et compétitivité, Hermes Science
Publications, 166 p.
Brénot J. et Tuvée L. (1996), Le changement dans les organisations, Edition PUF, Collection Que
Sais-Je ?, 127 p.
Chaumat D. (2008), D’une gestion de la résistance au changement » au management des
usages, In Benedetto-Meyer M., Chevallet R., Analyser les usages des systèmes
d’information et des TIC, Quelles démarches, quelles méthodes ?, Editions du
réseau ANACT, pp. 236-266.
Phelizon R., Rouhier S. (2002), « Alignement stratégique du système d'information », Rapport
CIGREF.
http://cigref.typepad.fr/cigref_publications/gouvernance_du_systme_dinformation/i
ndex.html
Chevallet R., Rocher O. (2003), La conduite des e-projets, Edition Liaisons.
Cristallini V. (2007), Quelle responsabilité sociale du manager vis-à-vis des personnes ? Actes du
6ème Congrès de l’ADERSE, Groupe ESC Pau, 22 et 23 Janvier 2009, 14 p.
David A., Hatchuel A., Laufer R. (2000), Les nouvelles fondations des sciences de gestion, Paris,
Vuibert, p. 83-109 et p. 193-213.
Davis, F.D. (1989), "Perceived Usefulness, Perceived Ease of Use, and User Acceptance of
Information Technology," MIS Quarterly, 13, 3 pp. 319-340.
Dumont V., Mallet C., Rousseau A. (2008), « La construction d’un tableau de bord pour
accompagner l’appropriation des TIC », In Benedetto-Meyer M., Chevallet R.,
Analyser les usages des systèmes d’information et des TIC, Quelles démarches,
quelles méthodes ?, Editions du réseau ANACT, pp. 206-235.
84
Management des Technologies Organisationnelles : Journées d’Etude 2009
Fimbel E. (2006), “DGAM: a new alignment model in response to the limits of the SAM model
and the shifting expectations and processes of practitioners”, Actes du 11ème
colloque de l’AIM, Luxembourg, 7-9 juin.
Fimbel E. (2007), Alignement stratégique : synchroniser les systèmes d’information avec les
trajectoires et manœuvres des entreprises, Edition Village Mondial.
Gumb B. (2005), Des idées pour décider, Pilotage et Systèmes d’information, Village Mondial,
p. 5-15.
Heili J., Vinck D. (2008), « Penser les relations entre technique et organisation : un examen de
la littérature », In Vinck D., Penz B., L’équipement de l’organisation industrielle, les
ERP à l’usage, Hermes science, Lavoisier, pp. 47-84.
Markus M.L. and Tanis C. (2000), “The Enterprise Systems Experience – From Adoption to
Success”, In Zmud R.W. and Price M.F. (eds), Framing The domains of IT
Management: Projecting the Future Through the Past, Pinnaflex Educational
Resources Inc., p. 173-207.
Meysonnier F., (2007), “Calcul des coûts dans les ERP: Le cas SAP, In Azan W., Système de
pilotage et Performance, Editions Eska, 270 p.pp.199-212.
Moisdon J.C, (1997) (Dir.), Du mode d'existence des outils de gestion : Les instruments de
gestion à l’épreuve de l’organisation, Edition Seli Arslan, 286 p.
Orlikowsky W. (2000), “Using technology and constructing structures: a practice lens for
studying technology in organizations”, Organization Science, vol. 11, N° 4, julyaugust p. 404-428.
Pérotin P. (2003), Mise en place de SAP/3: Résultats d’une étude exploratoire, actes du congrès
des IAE, 20 p.
Pollard D. (2002), « Will that be coordination, cooperation, or collaboration » ?
HTTP://BLOGS.SALON.COM/0002007/2005/03/25.HTML
Rowe F. (1999), « Cohérence, intégration informationnelle et changement : esquisse d'un
programme de recherche à partir des Progiciels Intégrés de Gestion », Systèmes
d’Information et Management, 4, no. 4: 3-20.
Saint-Léger G. (2004), « L’après projet ERP : Retour d’expérience sur un changement qui n’a
pas eu lieu », Revue Systèmes d’Information et Management, N°2, Vol 9, p. 77-107.
http://revuesim.free.fr
Savall H. et Zardet V. (1995a), Maîtriser les coûts et les performances cachés : Le contrat
d’activité périodiquement négociable, Prix de management stratégique de HarvardL’Expansion, Préface de M.A Lanselle et avant-propos de JM Doublet, Edition
Economica, 405 p.
Savall H. et Zardet V. (1995b), Ingénierie stratégique du roseau, Préface de Serge Pasquier,
Edition Economica, 517 p.
Savall H., Zardet V., Bonnet M. (2008), Libérer les performances cachées par un management
socio-économique, Bureau International du Travail (BIT), 180 p.
Savall H., Zardet V. (2004), Recherche en Sciences de Gestion : Approche Qualimétrique,
Observer l’Objet Complexe ?, Préface du Professeur David BOJE (USA), Edition
Economica, Collection Recherche en Gestion, 432 p.
Senge P. (1990), The Fifth Discipline: The Art and Practice of the Learning Organization, New
York, Doubleday, 462 p.
Simatupang T.M., Wright A.C., Sridharan R. (2002), “The knowledge of coordination for supply
chain integration”, Business Process Management journal.
Communications MTO’2009
85
Thomas, K.W, Velthouse, B.A, (1990), « Cognitive Elements of Empowerment An « interpretive
» model of Intrinsic Task Motivation », Academy of Management Review, Vol. 15,
n°4, pp. 666-681.
Titah R., Barki H. (2005), “e-Governement Adoption and Acceptance: a literature Review”,
cahier de la chaire de recherche du Canada en implantation et gestion des
technologies de l’information, N° 05-03.
Veltz P., Zarifian P., (1993), «Vers de nouveaux modèles d'organisation», Sociologie du Travail,
n°35, pp. 3-25.
Wilkinson A. (1998), “Empowerment: theory and practice”, Personnel Review, Vol. 27, Iss. 1,
pp. 40-56.
Willis D. (2001), Codes for Cost management in Field-Operating Organisations, Journal of Cost
Management, Septembre-Octobre, 5 p.
86
Management des Technologies Organisationnelles : Journées d’Etude 2009
Communications MTO’2009
87
Liens, flux et réseaux : indicateurs et
repères pour le management des
technologies organisationnelles
Eric LACOMBE
Consultant
eGuilde / Montpellier
INTRUDUCTION
Nos organisations sont des reflets de notre représentation du monde. Celle-ci
a évolué au cours de l'histoire suivant ainsi le développement des connaissances
et des technologies. En suite au développement extraordinaire des transports et
des moyens de communication durant le XXème siècle, tout lieu sur notre
planète est désormais accessible en un temps très bref à l'échelle d'une vie
humaine. Nos organisations en tiennent compte. Malgré cela, elles sont
aujourd'hui fortement secouées.
Notre expérience dans les systèmes d'information nous conduit à penser
que :
• la période de turbulence actuelle est profonde mais n'est que la
conséquence logique d'un processus généralisé de fragmentation qui
s'est principalement déroulé au cours du siècle dernier,
• ce déséquilibre résulte d'un décalage entre le potentiel de nos
organisations et nos raisonnements,
• un changement de points de vue est la première des conditions pour
que nous puissions adapter nos organisations et tendre vers un nouvel
équilibre, plus dynamique.
88
Management des Technologies Organisationnelles : Journées d’Etude 2009
LA FRAGMENTATION
Etat des lieux
Notre vision du monde s'est élargie progressivement selon deux directions
opposées, pour tenter de découvrir et comprendre d'un côté l'infiniment petit, et
de l'autre l'infiniment grand.
L'occident s'est engagé dans une voie iconoclaste mais efficace, consistant à
« découper pour comprendre ». Poussée à son extrême, cette approche
analytique a eu plusieurs effets dans la seconde moitié du siècle dernier :
compensatoires et directs. Les effets compensatoires ont donné naissance à une
approche complémentaire, l'approche systémique, et à la notion de complexité,
utiles à la compréhension et à la modélisation des organisations (Le Moigne,
1990). Les effets directs sont à l'image de l'organisation morcelée de notre
connaissance (Morin, 1986): un processus de fragmentation, qui s'applique
aujourd'hui indifféremment à la matière, au vivant, et à l'information.
La division de la matière a conduit à la découverte de ses composants
élémentaires : à un premier niveau, l'atome, à un niveau inférieur, les particules
élémentaires.
De même, le décodage du vivant a conduit à la découverte de ses
composants élémentaires : à un premier niveau la cellule, à un niveau inférieur,
les gènes.
Enfin, l'échantillonnage du signal et sa numérisation fragmentent
l'information en une unité élémentaire, le bit (0 ou 1).
L'usage des ordinateurs pour le « codage de la différence » avec l'unité
élémentaire qu'est le bit a des effets à trois niveaux, sur notre avenir, notre
passé et notre présent. Les ordinateurs furent d'abord utilisés pour le calcul,
conduisant ainsi au développement de la modélisation et de la simulation, afin
d'essayer de prévoir et éventuellement contrôler notre avenir. Leurs possibilités
de mémorisation, s'appuyant sur des supports permettant de stocker une
quantité astronomique d'informations, vont jusqu'à remettre en cause la notion
de vie privée et le droit à l'oubli. Aujourd'hui, le développement des interfaces
(entrées/sorties), à la fois entre systèmes, entre machines et utilisateurs et donc
entre utilisateurs, se concrétise par un réseau informatique mondial standardisé,
l'Internet, support d'une explosion des échanges, et source d'une remise en
cause complète de l'activité humaine et des organisations : la décomposition
traditionnelle du fonctionnement des organisations (système opérant, système
d'information, système décisionnel) s'applique désormais à l'échelle de la
planète.
Communications MTO’2009
89
Conséquences
D'un côté, la matière, le vivant et l'information se retrouvent gérés à un
niveau microscopique : nous disposons désormais des pièces élémentaires d'un
gigantesque puzzle. De l'autre, l'humanité voit émerger une intelligence
collective, grâce à un système d'information et de communication mondial. Les
conditions sont donc réunies pour nous permettent de construire d'innombrables
objets interconnectés, au sens le plus large du terme. Nous commençons tout
juste à en ressentir les premiers effets.
Le contrôle fin de la matière met les industriels face à l'hyperchoix des
matériaux. Les possibilités offertes par la programmation du vivant nous
confrontent à de nouvelles questions éthiques.
La numérisation est la source d'un décloisonnement des réservoirs du savoir,
dont nous entrevoyons à peine les multiples conséquences. La représentation
unifiée de l'information ainsi que sa duplication quasi gratuite soulèvent de
nouvelles et profondes questions identitaires : « Lorsqu’on partage un bien
matériel, il se divise. Lorsqu’on partage un bien immatériel, il se multiplie »,
comme aime à le rappeler Serge Soudoplatoff (Soudoplatoff, 2008). La
numérisation appelle sans doute de nouveaux modèles et de nouvelles
perspectives, comme la perspective numérique, que propose Olivier Auber.
Nous partageons ces réflexions et estimons que ces nouvelles représentations
des connaissances doivent s'accompagner de changements de points de vue à
trois niveaux :
• La fragmentation nous ouvre la voie d'une réorganisation permanente et
donc à privilégier la notion de relation par rapport à celle d'objet.
• La dynamique, issue de la multiplication et de l'abondance des échanges
autorisés par ces nouveaux liens, nous impose une gestion de flux au
lieu d'une gestion d'états.
• Liens et flux génèrent de nouvelles structures optimisant l'échange et la
communication : les réseaux doivent prendre le pas sur la classification
et la hiérarchie.
DE LA NOTION D'OBJET A CELLE DE RELATION
A l'image du peintre qui travaille sur sa toile à la fois les formes et les
espaces entre les formes, notre premier défi est de faire apparaître les relations
qui se cachent derrière les objets.
90
Management des Technologies Organisationnelles : Journées d’Etude 2009
Les relations, intrinsèques à l'objet
Pour illustrer la différence des points de vue centrés, soit sur la notion
d'objet, soit sur celle de relation, il nous semble utile de rappeler au préalable
quelques caractéristiques de l'objet :
• l'objet (sens concret) est défini dans un espace à trois dimensions. Il est
donc soumis aux lois qui régissent le monde réel. Par exemple, sa
production et son transport dépendront étroitement de ses
caractéristiques physiques.
• l'objet est désignable par une étiquette verbale, un nom. Un objet a
donc une double existence, tant au niveau physique qu'au niveau
informationnel, ce qui ouvre la possibilité d'une double gestion.
• l'objet est défini par les relations externes qu'il entretient avec son
environnement. La notion de relation est donc intrinsèque à l'objet.
Le rapport entre objet et relation peut ainsi s'exprimer par la simple équation
suivante : objet = relations
Et ces relations sont « essentielles » : « L'essence des choses devant nous
rester toujours ignorée, nous ne pourrons connaître que les relations de ces
choses, et les phénomènes ne sont que des résultats de ces relations. »
(Bernard, 1865 : 114)
Perception des relations
Malgré cette équivalence, la perception naturelle de notre environnement
passe prioritairement par les objets, du simple fait de leur matérialité. Par
exemple, on identifie plus facilement un arbre que les multiples relations de
l'écosystème dont il fait partie, et qui assurent son intégrité. De même, dans le
sens commun, la voiture prend le pas sur le trajet. Instinctivement, nous
raisonnons sur des objets concrets, résultats d'une production, et qui sont liés à
la notion de propriété. Il est également plus simple de raisonner sur un objet,
visible et à notre échelle, plutôt que sur une infinité de relations, à une échelle
souvent microscopique. Relations et liens sont souvent cachés, à l'image des
cellules de notre propre système nerveux dont la morphologie est pourtant à
l'image de leur fonction. De même, en sociologie, le lien social est par nature
invisible. Il ne se « matérialise » que lorsque les relations et règles sociales
unissant individus ou groupes sociaux différents sont formalisés sur un support.
Lorsque les liens sont matérialisés et visibles à notre échelle, contractualisés, ils
apparaissent rigides, et sont rapidement assimilés à des chaînes. Le lien apparait
réellement que lorsqu'il se crée ou qu'il se brise. Il relève alors toute sa
puissance à l'image des forces de liaisons entre les composants élémentaires de
la matière.
Communications MTO’2009
91
Nous utiliserons par la suite indifféremment les notions de relation ou de lien,
considérant que la mise en relation est rendue possible par un lien, qu'il soit
physique ou logique. De même, nous considérerons le lien indépendamment de
son effet, qu'il nous rapproche ou nous attache.
Lien physique et lien logique
Reprenant la double dimension de l'objet, au niveau physique et au niveau
informationnel, deux types de liens sont à distinguer : lien physique et lien
logique.
Par exemple, le lien physique « le livre est dans la bibliothèque » privilégie un
classement, et nous prive des autres. Cette classification est artificielle; elle
reflète un point de vue. L'ajout d'un système d'indexation va permettre de
multiplier ces liens : par titre, par auteur, par genre, par date, par lieu, ...
De même, lorsque l'information est attachée à son support, elle hérite
naturellement des contraintes de celui-ci. C'est pour cela que les containers page
et document sont encore fortement prédominants sur l'Internet.
Pour que le lien logique puisse développer tout son potentiel, une condition
doit être respectée : la définition de standards de liens.
Liens et standards
Le réseau Internet est aujourd'hui l'incarnation de cette explosion des liens.
En informatique, la notion de lien était déjà au coeur du modèle
entité/association. Employé depuis les années 1970 pour concevoir les bases de
données, il conserve aujourd'hui tout son intérêt. Tenant compte du contexte
des interactions multiples (au niveau des métiers, règles, ou domaines) des
entreprises modernes, il s'applique aujourd'hui au processus d'urbanisation des
systèmes d'information.
Cependant, c'est avec l'apparition du Web, du protocole HTTP, du langage
HTML et en particulier des liens hypertextes que le lien logique a révélé toute sa
puissance. Avec l'Internet, le lien logique entre deux ressources est désormais à
portée d'un simple clic. Depuis, ce standard a été étendu avec la spécification
XLink, qui permet de relier plus de deux ressources ainsi que des ressources
structurées.
Actuellement des initiatives complémentaires se développent, telles
LinkingOpenData (W3C, 2009) et Common Tag (Common Tag, 2009). Le projet
du W3C, l'organisme qui définit les standards du Web, cherche à automatiser la
pose de liens entre données en rapport les unes avec les autres et qui n’auraient
pas été liées auparavant. L'autre approche est complémentaire puisqu'elle vise à
standardiser l'usage des balises (tag) posées par les internautes sur de multiples
92
Management des Technologies Organisationnelles : Journées d’Etude 2009
ressources (billets de blog, vidéos et photos partagées, ...) ce qui aura
également pour effet la pose de liens automatiques.
Maitriser la gestion des liens
On comprendra que la gestion des liens devienne stratégique. Dans ce
domaine, la société Google a pris une avance remarquable. En effet, elle gère
comme ses concurrents les liens entre les mots et les pages qui les contiennent,
mais surtout les liens entre les pages, pour calculer la popularité d'une page
(algorithme PageRank) et permettre ainsi une classification pertinente des
résultats de recherche. Enfin, elle gère des liens mot/coût, fixés à l'issue d'une
mise aux enchères auprès des annonceurs (système Adwords).
L’assignation d’une valeur marchande aux mots, donc au langage, est sans
doute l'effet le plus spectaculaire de cette gestion de liens : de nouveaux
marchés émergent conjointement à l'évolution du langage.
Une approche similaire est conduite avec les informations de nature
géographique. La gestion du contexte défini par le couple individu/lieu,
disponible en mobilité grâce au GPS, permet d'affiner l'approche précédente et
d'envisager une publicité contextuelle et personnalisée. Comme pour les mots,
Google s'ouvre ainsi la possibilité de mettre les lieux aux enchères auprès des
annonceurs.
Ces modèles de gestion de lien peuvent encore être affinés en tenant compte
de la dimension temporelle. Par exemple, en agrégeant des données de
recherche sur son moteur, Google peut estimer l'activité grippale jusqu'à deux
semaines plus rapidement que les systèmes traditionnels (Google, 2008).
La priorité revient maintenant au Web, ce qui amenait Francis Pisani,
journaliste spécialisé dans les technologies de l’information et de la
communication, au constat suivant : « Le média des médias est le Web sur
lequel le contenu est dans la relation. Encore plus court ? La relation est le
message » (Pisani, 2009). La célèbre formule de Mc Luhan, « The medium is the
message », s'applique également au Web (Mac Luhan, 1964).
La réalité augmentée et l'Internet des objets
Lorsque le lien logique rejoint le monde physique, de nouvelles applications
émergent.
La superposition en temps réel d'informations à une image de la réalité nous
fait entrer dans le monde de la réalité augmentée. La perception du monde réel
est enrichie d'une couche d'information contextuelle interactive. Les applications
en sont multiples. Elles sont loin d'être explorées, et touchent de nombreux
secteurs d'activités comme les loisirs, l'industrie, la publicité ou la médecine.
Communications MTO’2009
93
Avec l’arrivée de terminaux mobiles équipés à la fois d'une puces GPS et d'un
compas électronique, le marché est prêt à décoller.
Si la réalité augmentée vise à enrichir la perception du monde réel par le
virtuel, il est également possible d'intégrer aux objets du monde réel des
identificateurs uniques (RFID) qui permettront d'associer à chaque objet réel un
objet numérique virtuel pour créer ainsi des réseaux d'objets. L'Internet des
objets est une réalité émergente devenu en 2009 un sujet d'étude de la
Commission Européenne. On peut même s'attendre, comme l'envisage Bruce
Sterling, à ce que l’internet des objets change la nature des objets (Sterling,
2005).
En conférant une possibilité d'autogestion à ces systèmes, toujours plus
miniaturisés, nous arrivons au développement de l'intelligence ambiante : en
suite à la miniaturisation et la prolifération de ces systèmes, l'informatique
devient « pervasive ».
Perspectives
De nombreux chercheurs, penseurs, spécialistes de prospective économique
et scientifique se sont penchés sur les perspectives et menaces du contexte
technologique dans lequel nous nous trouvons désormais.
Jacques Robin explique la crise actuelle par le passage de l'ère énergétique à
l'ère informationnelle (Robin, 1989).
Des interactions entre la biologie, l'informatique et les télécommunications,
Joël de Rosnay nous annonce l'émergence d'un « cerveau planétaire » (Rosnay,
1986) et de « l'homme symbiotique » (Rosnay, 1995), puis la révolte des
pronétaires, ces usagers avancés du réseau Internet (Rosnay, 2006).
William A. Turner nous invite à « Penser l'entrelacement de l'Humain et du
Technique », avec « les réseaux hybrides d'intelligence. » (Turner, 1994).
Jérémie Rifkin nous avertit que ces technologies transforment la dynamique
de nos sociétés pour nous faire entrer dans l’âge de l’accès, cette notion se
substituant à celle de propriété (Rifkin, 2005).
Dans la continuité de la pensée de Gilbert Simondon (Simondon, 1989),
Bernard Stiegler nous signale qu'est venu le temps des « hyperobjets » : « Si le
réseau internet structuré par le web a profondément modifié les structures
relationnelles des sociétés industrielles, dans le réseau internet structuré par les
objets, ceux-ci trament une réticularité invisible, connectée en permanence, et
surdéterminant les rapports sociaux. » (Stiegler, 2009).
David Weinberger nous précise que « Nous pouvons établir des connexions et
des relations à un rythme inimaginable auparavant. [...] Chaque connexion nous
dit quelque chose sur les choses connectées, sur la personne qui a établi la
connexion, sur la culture dans la quelle une personne a pu l’établir, sur le genre
94
Management des Technologies Organisationnelles : Journées d’Etude 2009
de gens qui la trouvent intéressante. C’est comme ça que le sens croît. »
(Weinberger, 2007).
Pierre Levy, quant à lui, s'est donné comme objectif d'étudier
scientifiquement l'intelligence collective humaine. S'appuyant sur son système de
notation sémantique (IEML, Information Economy Meta Language), il travaille
donc sur un quatrième niveau de liens, entre unités sémantiques, au dessus des
interconnexions entre transistors, entre serveurs d'information et entre
documents (Levy, 2008).
DE L'ETAT AU FLUX
L'importance du lien étant acquise nous en analysons à présent les effets
dynamiques. Pour suivre un événement, nous avons le choix entre utiliser un
appareil photo et prendre une succession de clichés ou bien filmer la scène avec
une caméra. Nos outils doivent être adaptés à la dynamique qui nous entoure.
Le second défi à relever est de cet ordre.
Du lien au flux
La notion de lien appelle la notion d'échange. En prenant en compte la
dimension temporelle, interviennent alors celles d'état et de flux.
Un état représente une situation à un instant donné, à l'image des bilans
annuels des entreprises. La notion d'état illustre donc celle de changement. Elle
est adaptée lorsque l'ampleur du changement entre deux états reste limitée mais
son intérêt décroit lorsque le volume ou la fréquence des changements
augmentent. Il devient alors nécessaire de privilégier la notion de flux.
Un flux est un déplacement. La notion de flux est générique. Elle s'applique
indifféremment à la matière, à l'énergie, aux données ou à l'information. Elle est
donc bien au coeur des organisations qui doivent, pour atteindre leurs objectifs,
faciliter la circulation des flux. La notion de flux peut également être considérée
au niveau de l'individu. En anglais, Le terme Flow désigne un état psychologique
dans lequel une personne est totalement immergée, centrée sur une activité ou
une tâche. Concept proposé par le psychologue Mihály Csíkszentmihályi, cet état
d'expérience optimale serait même une condition du bonheur (Csíkszentmihályi,
1991).
Perception des flux
Si la gestion de flux est centrale pour les organisations, dans de nombreux
cas les organisations ne gèrent que le flux le plus représentatif de leur activité.
Les flux secondaires considérés comme non prioritaires ne sont pas traités
comme des flux et ne sont pris en compte que lorsque la situation devient
Communications MTO’2009
95
ingérable. Pourtant, les ressources humaines, le courrier électronique, les postes
de travail, un site Web, tous obéissent à une même logique de flux.
Prenons l'exemple du site Web, puisqu'il répond à une double logique de flux.
Un site web n'est pas statique. Il devrait tout d'abord gérer le cycle complet de
l'information : de la gestion de l'actualité immédiate (veille), en passant par
l'analyse et le débat, jusqu'à la synthèse, qui se traduit par la création d'un
référentiel. Ces étapes font partie d'un même flux. La problématique est
identique avec le flux des visiteurs que l'on doit capter en amont
(référencement), puis fidéliser en aval. Ces deux flux sont eux mêmes en
interaction puisque les interventions des visiteurs créent de l'information : des
simples statistiques de consultation, jusqu'aux contributions volontaires en mode
collaboratif.
Flux numériques
Les flux les plus complexes à gérer sont sans doute les flux de données et
d'information numériques. Les raisons en sont multiples.
Les volumes échangés peuvent être considérables mais leur encombrement
est difficilement perceptible. Les flux augmentent avec le nombre d'acteurs en
relation : internes à l'entreprise, partenaires, prescripteurs, clients. Ils se
distinguent par leur extrême variété : il y a peu de ressemblance entre un bon
de commande, une notice technique et un film publicitaire, si ce n'est qu'ils
concernent le même produit. Leur valeur est variable. Une simple information
peut avoir à un instant précis une très forte valeur, ce qui complique
terriblement la gestion de la sécurité.
Les flux numériques sont mixtes : ils sont facilement constitués de plusieurs
types d'éléments qui pourraient être traités séparément. Par exemple, le flux des
mails contient le flux des messages générés automatiquement (les spams à
filtrer, mais également les alertes), ainsi que le flux des mails produits
manuellement - et dans lequel on peut distinguer les mails internes, des mails
externes - mais également ceux dont on est destinataire direct de ceux dont on
est en simple copie pour information.
Caractéristiques des flux : suivre le flux
Pour identifier les bons indicateurs d'activité, il est utile de revenir aux
caractéristiques des flux. Un flux est caractérisé par une origine, une destination
et un trajet. Maîtriser un flux consiste à en contrôler son débit de l'origine à sa
destination.
En s'appuyant sur la mécanique des fluides, on retiendra les points suivants.
La grandeur principale de mesure d'un flux est son débit. Le débit peut être
constant ou variable. L'écoulement peut être laminaire (régulier) ou turbulent.
96
Management des Technologies Organisationnelles : Journées d’Etude 2009
Des capteurs permettent de mesurer les différentes grandeurs associées, qui
varieront bien entendu avec l'élément constituant le flux. Par exemple, dans le
cas des fluides on mesurera les variables suivantes : température, pression,
viscosité, ...
En fonction des résistances rencontrées sur le parcours, le flux peut se voir
déformé ou dévié. Deux approches complémentaires permettront de limiter ces
effets : l'encadrement des flux - par l'usage de procédures, référentiels,
systèmes anti-erreurs - et la flexibilité de l'organisation. La seconde sera
nécessaire lorsque les flux génèrent une tension trop élevée. Un système de
mesure performant devra être apte à mesurer les écarts entre les objectifs et la
réalité.
Pour contrôler les flux, la mise en place de tableaux de bord est essentielle.
Ils rassemblent les variables significatives dans des vues synthétiques.
L'efficacité du dispositif sera renforcée avec une collecte automatisée et un
affichage le plus proche possible du temps réel. A l'échelle nationale ou
internationale, le suivi se fera par l'intermédiaire d'Observatoires.
Augmenter le flux, c'est mettre en oeuvre les synergies qui permettront
d'augmenter les volumes ou la vitesse. Les organisations étant des éléments
d'un système ouvert, cette opération est la plus délicate car l'amont et l'aval leur
échappent traditionnellement. Seule la position de monopole en permet une
réelle maîtrise. Ce dernier point nous conduit à aborder les risques liés au flux.
Flux et risques
Avec une approche de gestion de flux, les risques peuvent s'analyser par
analogie hydraulique. A titre d'exemple, on peut s'intéresser à la simple fuite, à
la perte de charge, ou au passage en écoulement turbulent.
La fuite se produit lorsque des éléments échappent au flux principal. Elle peut
être volontaire (opération de communication) ou mal maitrisée par une gestion
insuffisante de la sécurité. La perte de charge peut résulter d'un tarissement de
la source ou d'accidents dans le trajet. Si elle est définitive, elle révèle une
inadaptation de l'entreprise à son marché, qui n'a pas anticipé l'évolution de son
environnement. Le passage d'un écoulement laminaire (régulier) à un
écoulement turbulent, provoqué par exemple par une augmentation brutale du
débit, peut être volontaire ou non. Dans tous les cas, il nécessite une gestion
spécifique.
Nous illustrerons ces deux aspects en prenant l'exemple du marketing des
produits Hi-Tech. Geoffrey A. Moore a ainsi constaté un double phénomène. Le
cycle de vie de l'adoption des technologies présente un fossé entre les adopteurs
précoces du produit (amateurs de technologie et visionnaires) et le début de
Communications MTO’2009
97
l'adoption massive par les acheteurs conservateurs et pragmatiques : d'où une
chute du débit des ventes (Moore, 1999).
Ayant franchi ce fossé, l'entreprise qui a la maîtrise du produit se retrouve à
l'inverse débordée par le flux des commandes et doit adopter des techniques
spécifiques de vente pour satisfaire une demande soutenue, croître plus
rapidement que ses concurrents, et s'imposer sur un nouveau marché. Elle se
retrouve au coeur d'une tornade (Moore, 2004).
Evolutions et conséquences
Les flux physiques ont augmenté considérablement au cours de l'histoire.
Coûteux en énergie, ils perturbent l'écosystème et tendent naturellement vers
une limite. La croissance se poursuivra alors au niveau des flux d'information. On
assiste ainsi à un double mouvement. D'un côté l'information se libère de son
support - par exemple, on passe de la musique sur disque au simple fichier
numérique - et, de l'autre, les objets physiques sont enrichis par des flux
d'information. Dans les prochaines années, le développement conjoint du Très
Haut-Débit (THD), de la mobilité, de la 3D (avec la représentation numérique de
produits physiques) ne fera qu'accentuer ce phénomène.
Libéré de son support, le contenu peut circuler dans une autre unité de
distribution. Par exemple, lorsque la musique est diffusée sur disque, l'unité est
principalement l'album, mais lorsque la diffusion s'effectue directement en ligne,
l'unité de diffusion devient le titre.
L'évolution récente des technologies, en particulier du réseau Internet, nous
invite donc à raisonner de plus en plus en logique de flux. Dans un futur proche,
cette approche deviendra une nécessité pour toutes les organisations.
STRUCTURES ET RÉSEAUX
Le 3ème point de vue à faire évoluer concerne les structures. Il est bien
évidemment la résultante des deux premiers changements, sur les liens et les
flux, et s'applique aux organisations.
De la hiérarchie à l'arborescence
Le modèle d'organisation prédominant encore aujourd'hui s'appuie sur la
notion de hiérarchie, au sommet de laquelle sont concentrés les pouvoirs. Il se
traduit par un découpage en départements, divisions ou « business units ».
Adapté aux contraintes de gestion des flux physiques, ce modèle contraint les
flux d'informations, qui se trouvent prisonniers, enfermés dans des silos
étanches de données.
98
Management des Technologies Organisationnelles : Journées d’Etude 2009
Cet ordre est profondément ancré dans la culture occidentale: il remonte au
moins à l'époque d'Aristote, qui fut l’un des premiers à procéder à des
classifications hiérarchiques systématiques des connaissances et des concepts.
La notion de hiérarchie s'appuie sur celle d'arborescence mais il est important
de les distinguer. Dans le concept de hiérarchie se dessine une orientation
principale du sommet vers sa base, qui traduit un point de vue unique.
Le concept d'arborescence se rattache à l'arbre, qui intègre une double
structure d'échange avec le milieu ambiant, par l'intermédiaire de sa ramure et
ses racines. La structure arborescente est naturelle. Elle se modélise grâce à la
théorie constructale (Bejan, 2000).
La théorie constructale
La théorie constructale a été développée par Adrian Bejan, diplômé du MIT et
professeur d’ingénierie mécanique à l’université Duke de Caroline du Nord.
Elle explique de manière simple l'émergence de nombreuses formes
naturelles - en particulier des structures arborescentes, telles que les méandres
de rivières, les poumons ou les arbres - qui semblent se développer selon des
algorithmes comparables dans des domaines très différents (le minéral, le vivant,
le sociétal).
Elle se résume de la façon suivante. Dans la nature, la complexité naît de la
combinaison de processus élémentaires. Ce sont les lois simples de la physique
macroscopique, et plus particulièrement de la thermodynamique, qui génèrent
l’apparition des formes. Elles se traduisent par une optimisation destinée à
diminuer les dépenses d’énergie et de matière pour lutter au mieux contre
l’entropie. Le facteur générateur de cette recherche d’optimisation est l’évolution
compétitive pour la survie dans laquelle s’affrontent les divers éléments de la
matière et de la vie. L'architecture globale ainsi définie est donc intrinsèquement
liée à un flux et à son environnement, puisqu'elle résulte d'une optimisation des
échanges sous des contraintes locales. Si les contraintes se déplacent, les
architectures évoluent en conséquence.
La portée de la théorie constructale est immense. Elle est intéressante à
plusieurs titres pour le management des organisations, et peut nous apporter
des outils d'optimisation de ces structures de flux.
Comme cette théorie concerne tout type de flux (chaleur, personne, eau, air,
sang), des approches transversales sont envisageables : les modélisations issues
d'autres disciplines sont à partager.
Elle intègre la notion de croissance, c'est à dire une approche du plus petit
vers le plus grand. Elle laisse donc toute sa place à l'humain, entité élémentaire
motrice au sein des organisations.
Communications MTO’2009
99
Le terme « constructal » a été choisi en écho au mot « fractal », qui évoque
la brisure, donc la direction inverse, du plus grand vers le petit, le motif se
répétant à l'infini. La théorie fractale de Benoît Mandelbrot partage cependant la
notion de récursivité et pourrait servir d'outil mathématique complémentaire
pour modéliser la répétition de motifs à des échelles différentes (Mandelbrot,
1975). De part sa vision dynamique, elle s'applique aux différents stades de
développement des organisations et permet de prendre en compte non
seulement la période de croissance et l'état "adulte" mais également la phase de
décroissance, correspondant à une diminution des flux et nécessitant donc un
ajustement de la structure.
Elle intègre la notion d'environnement. Les organisations ne constituent pas
des systèmes isolés mais sont profondément interconnectées avec leur
environnement, par l'intermédiaire de multiples liens, contractualisés ou
informels. En particulier, les nouveaux liens autorisés par les outils de
communication déstabilisent fortement les modèles hiérarchiques classiques
qu'ils court-circuitent. C'est une des raisons pour laquelle il devient de plus en
plus difficile de conserver une information secrète au sein d'une organisation.
Elle légitime le modèle arborescent tout en l'enrichissant. En effet, les
organisations gèrent de multiples flux en interaction. La structure résultante doit
donc théoriquement se présenter non pas sous la forme d'une hiérarchie rigide
et unique mais sous celle d'une multitude d'arborescences liées, dont les
interconnexions varieront en fonction des contraintes. Se dessine alors la forme
d'un réseau avec des noeuds de poids variable, ce qui nous amène à considérer
une autre structure également fortement répandue dans la nature : celle des
réseaux invariants d'échelle (Barabasi, 2003).
Les réseaux invariants d'échelle
Les réseaux sont omniprésents, mais ils ont longtemps été traités comme des
graphes aux branchements aléatoires. C'est le cas des réseaux routiers : à un
carrefour ne convergera qu'un nombre limité de routes. La carte représentant les
liens entre pages du Web présente une autre topologie. Dans ce type de
réseaux, certains noeuds peuvent concentrer un nombre gigantesque de liens :
les « supernoeuds ».
La toile est loin d'être le seul réseau invariant d'échelle. On les retrouve dans
des domaines aussi variés que la biologie (un petit nombre de molécules
intervient dans de très nombreuses réactions biochimiques), l'aviation (quelques
hubs concentrent l'essentiel du traffic aérien) ou certains systèmes sociaux.
Dans cette approche le pouvoir se concentre au niveau des supernoeuds. La
théorie des six degrés de séparation, puis celle des petits mondes, apportent un
éclairage complémentaire. En effet, ces théories soutiennent tout simplement
100
Management des Technologies Organisationnelles : Journées d’Etude 2009
que la distance entre deux individus est réduite à quelques degrés de séparation.
Toute personne n'est qu'à une distance de six contacts. Les réseaux sociaux, qui
se développent à une vitesse extraordinaire, sont en train de nous démontrer la
validité de ces modèles.
Enjeux
Ces évolutions, une structure en réseau toujours plus interconnectée et
gérant des flux de données croissants, nous font entrer dans le domaine de la
complexité.
Or les sciences de la complexité démontrent que tout réseau, qu’il soit
biologique ou technologique, doit trouver son équilibre entre efficience et
résilience (capacité d'un système à retrouver son état d'équilibre après une forte
perturbation, lui conférant ainsi des capacités d'adaptation).
Pour conclure
Notre démarche a suivi quatre étapes :
Le constat : les progrès de la science réalisés au cours du XXème siècle ont
conduit à une compréhension de notre environnement - de la matière et du
vivant - à un niveau de finesse inégalé. L'information a suivi le même chemin,
puisque sous sa forme numérique, nous gérons la plus petite unité possible (0
ou 1) avec des calculateurs et des capacités de stockage toujours plus puissants.
Point de vue n°1 : la notion de lien prend une nouvelle importance car la
multiplication des entités appelle la multiplication des liens, favorisée par la
diminution des contraintes de temps et d'espace du fait d'un réseau de
communication unifié à un niveau mondial. Les combinaisons sont infinies et les
recombinaisons incessantes.
Point de vue n°2 : la notion de flux doit devenir prioritaire, du fait de
l'augmentation du nombre de liens possibles, et donc d'échanges, ainsi que
l'augmentation de leur fréquence. Au sein des organisations, elle ne se limite
plus à la gestion de flux financiers ou à la logistique mais doit s'appliquer à
toutes ses composantes, y compris l'innovation ou la formation. Tout le système
éducatif doit être repensé en conséquent. L'information en particulier ne doit
plus être prisonnière de ses supports mais aussi fluide que l'eau courante.
Point de vue n°3 : la notion de hiérarchie et de classification, sans
disparaître, se fond dans la notion de réseaux. Parmi ceux-ci, les réseaux sociaux
sont à favoriser puisqu'ils donnent la priorité à l'humain par rapport à la
technique. Il devient donc urgent de mettre en place des systèmes d'information
collaboratifs et pas simplement coopératifs.
Communications MTO’2009
101
En conclusion, il ne s'agit plus de simplement accompagner un changement,
ni de passer d'un état A à un état B, mais de mettre en place au sein des
organisations des méthodes qui intègreront la notion de changement permanent
et qui permettront ainsi de s'adapter à ce nouveau rythme d'innovation continue
que nous connaissons aujourd'hui.
La faculté d'adaptation devient encore plus essentielle dans un monde qui
s'accélère. Pour l'acquérir, la première des démarches consiste sans doute
simplement à faire évoluer nos points de vue et nos référentiels occidentaux :
comme l'enseignait déjà le Yi Jing (livre des transformations) depuis plus de
deux millénaires, il n'y a qu'une chose qui ne change pas, c'est le changement.
REFERENCES BIBLIOGRAPHIQUES
Auber O., « Qu'est-ce que la "perspective numérique"? », Site Web: http://perspectivenumerique.net/
Barabasi A.L. & Bonabeau E. (12/2003), « Réseaux invariants d'échelle », Pour la Science
n°314, pp 58-63
Bejan A. (2000), Shape and Structure, from Engineering to Nature, Cambridge University Press,
324p.
Bernard C. (1865 : 114), Introduction à l'étude de la médecine expérimentale, J.B. Baillère et
fils, 400p.
Common Tag (2009), « Common Tag », Site Web : http://www.commontag.org/
Csikszentmihalyi M. (1991), Flow: The Psychology of Optimal Experience, Harper Perennial,
320p.
European Commission, « Radio Frequency IDentification and the Internet of Things », Site Web:
http://ec.europa.eu/information_society/policy/rfid/index_en.htm
Google (2008), « Google.org Flu Trends », Site Web: http://www.google.org/flutrends/
Le Moigne J.L. (1990), La modélisation des systèmes complexes, Dunod, 178p.
Levy P. (09/2008), « IEML : Bilan et Perspectives », Site Web: http://www.ieml.org/
Mac Luhan M. (1964), Understanding Media: The Extensions of Man, McGraw-Hill, 360p.
Mandelbrot (1975), Les Objets fractals : forme, hasard, et dimension, Flammarion, 190p.
Moore G. (1991, revised 1999), Crossing the Chasm: Marketing and Selling High-tech Products
to Mainstream Customers, Harper Business, 256p.
Moore G. (2004), Inside the Tornado: Strategies for Developing, Leveraging, and Surviving
Hypergrowth Markets, Harper Paperbacks, 272p.
Morin E. (1986), La Méthode, tome 3 : La Connaissance de la Connaissance, Seuil, 249p.
Pisani
F.
(01/2009),
«
Média
:
deux
révolutions
»,
Site
http://pisani.blog.lemonde.fr/2009/01/14/medias-deux-revolutions/
Rifkin J. (2005), L’Âge de l’accès. La nouvelle culture du capitalisme, La Découverte, 396p.
Web:
102
Management des Technologies Organisationnelles : Journées d’Etude 2009
Robin J. (1989), Changer d'ère, Seuil, 349p
Rosnay J. de (1986), Le cerveau planétaire, Seuil, 297p.
Rosnay J. de (1995), L'homme symbiotique, Seuil, 349p.
Rosnay J. de & Revelli C. (2006), La révolte du pronétariat, Ed. Transversale, 250p.
Savall H. et Zardet V. (1995), Maîtriser les coûts et les performances cachés : Le contrat
d'activité périodiquement négociable, Economica, 405p.
Simondon G. (1989), Du mode d'existence des objets techniques, Aubier, 336p.
Soudoplatoff S. (07/2008), « Comment Internet change nos organisations », Interventions au
CEDAP, Site Web: http://www.almatropie.org/blgg/
Sterling B. (2005), Shaping Things, éditions du MIT, 152p.
Stiegler B. (2009), « Le temps des « hyperobjets », dans la société réticulaire », Site Web:
http://internetdesobjets.over-blog.com/categorie-10839255.html
Turner W.A. (1994), « Penser l'entrelacement de l'Humain et du Technique : les réseaux
hybrides
d'intelligence
»,
Site
Web:
http://biblio-
fr.info.unicaen.fr/bnum/jelec/Solaris/d01/1turner.html
W3C
(2009),
«
LinkinkOpenData,
W3C
SWEO
Community
Project
»,
Site
Web:
http://esw.w3.org/topic/SweoIG/TaskForces/CommunityProjects/LinkingOpenData/
Weinberger D. (2007), Everything is Miscellaneous, The Power of the New Digital Disorder,
Henry Holt & Company Inc, 288p.
Communications MTO’2009
103
Technologies organisationnelles :
quel alignement stratégique des
usages ?
Corinne BAUJARD
Maître de Conférences
Université d’Evry Val d’Essonne
RESUME
L’introduction d’une nouvelle technologie dans l’entreprise induit des
changements, aussi bien en termes de compétences que d’organisation du
travail. Dans cet article, il s’agit de poursuivre la réflexion à l’égard du
management des technologies organisationnelles pour envisager les
transformations qui en découlent. Dans la mesure où tout apprentissage est la
traduction d’une dynamique sociale, le changement n’est jamais facile à
conduire. Aussi, au moment où l’immatériel prend une place de choix dans le
management, les entreprises adaptent-elles leurs processus d’utilisation sur leurs
technologies organisationnelles où alignent-elles leurs technologies sur leurs
usages ?
A partir d’une démarche inductive conduite auprès d’une dizaine
d’organisations internationales, un cadre d’analyse fait apparaître que les
changements technologiques demeurent un élément déterminant de la stratégie
des entreprises qui dépendent plus que jamais de la dimension humaine surtout,
lorsque le management en temps réel devient une exigence critique, pour les
entreprises internationales.
104
Management des Technologies Organisationnelles : Journées d’Etude 2009
INTRODUCTION
La disparition progressive des frontières traditionnelles constitue un enjeu
majeur pour les entreprises confrontées à une multitude d’exigences, à des choix
d’apprentissage généralement reliés à la poursuite d’un avantage concurrentiel
précis. Toutefois, pour s’adapter aux variations rapides de l’environnement, les
pratiques managériales favorisent généralement une diversification des
dispositifs utilisés et réalisent dans le même temps des actions d’apprentissage
associées aux nouveaux dispositifs.
Les entreprises internationales ont pris conscience de la nature stratégique
de leurs actifs immatériels s’imposant sur les marchés émergents au même titre
que la technologie (Jouyet, Lévry, 2006). Il n’est donc pas surprenant qu’elle
constitue désormais un enjeu stratégique important dont l’évaluation devient une
préoccupation essentielle parce que tout déploiement peut entraîner une remise
en question des processus existants dans l’organisation du travail.
Par ailleurs, les expériences technologiques ont manqué jusqu’à présent de
continuité, sans parvenir aux généralisations souhaitées, précipitant parfois
l’échec de projets pédagogiques homogènes. Dans une telle perspective, les
organisations n’en disposent pas moins « d’une marge de liberté qu’elles utilisent
de façon stratégique dans leurs interactions avec les autres » (Crozier,
Friedberg, 1977), sans parvenir à minimiser la perte des connaissances. Pour
réagir aux départs massifs en retraite dans les secteurs de l’assurance, de la
banque, du tourisme ou des industries, les entreprises deviennent conscientes
qu’il ne s’agit pas uniquement de stocker des informations, que l’enjeu réel
consiste à construire collectivement des outils tout en alignant leurs usages sur
leur stratégie d’apprentissage.
Les entreprises qui alignent leurs technologies sur les objectifs internationaux
adoptent des politiques d’intégration mondiales, et dans le même temps font
preuve de réactivité au niveau local. Loin d’être isolées, les modalités de mise en
œuvre des outils informatiques « constituent un phénomène social ouvert qui
amène à reconsidérer les processus d’adoption technologique par et dans les
organisations » (Carton, 2002). Des ressources technologiques tendent à
transformer les actes professionnels en compétence collective, désormais
rattachés aux logiques d’apprentissage dans les pays où les entreprises sont
localisées dont les contraintes spécifiques sont liées à la flexibilité des outils.
Si les entreprises demeurent très réactives aux exigences locales, des
stratégies de plus en plus complexes dépendent de la capacité des salariés à les
mettre en œuvre. L’instabilité de la technologie montre clairement que le
rapprochement avec l’activité professionnelle est lié à l’agencement de formules
étroitement mêlées plutôt qu’à la seule simplicité d’utilisation (Salas, et alii,
2002). Les formes organisationnelles ne cessent d’évoluer parce que
Communications MTO’2009
105
l’apprentissage suscite de nombreuses interrogations en raison des mutations
récentes de l’environnement technologique. Peu de travaux se sont encore
cependant penchés sur l’alignement des usages lié aux technologies
organisationnelles, alors que dans le même temps, on assiste à une mobilisation
de ressources valorisant une diversité de modes d’apprentissage.
Dans cette perspective, plutôt que d’examiner les technologiques
organisationnelles, il a été décidé de privilégier les usages de l’organisation, tout
en recherchant les divers leviers de l’alignement stratégique ; autrement dit,
dans la mesure où l’immatériel prend une place de choix dans le management,
les entreprises adaptent-elles leurs processus d’utilisation sur leurs technologies
organisationnelles où alignent-elles leurs technologies sur leurs usages ?
Pour tenter d’y répondre, cette analyse souhaite compléter les travaux menés
sur les dispositifs technologiques liés aux apprentissages afin de elles adaptent
les technologies aux objectifs stratégiques (Baujard, 2008). Tout d’abord, notre
démarche cherche à réduire la dépendance de l’organisation envers son contexte
technologique, tant déplorée par la communauté de chercheurs, pour proposer
un cadre d’analyse des changements organisationnels. Une approche inductive
apparaît la plus à même de rendre compte de la diversité des contextes
d’apprentissage. Si de nombreuses études font état de nouveaux modes
d’organisation, peu d’analyses intègrent l’usage de la technologie pour
appréhender l’organisation, question pourtant essentielle. Aussi faut-il discuter
les résultats et conclure sur les apports théoriques et managériaux de notre
recherche.
REVUE DE LITTERATURE
L’introduction d’un outil de gestion est un processus qui suit une dynamique
ne présentant pas nécessairement une amélioration (Moisdon, 1987).
L’alignement des choix organisationnels sur les objectifs stratégiques dépendent
autant du potentiel technologique que du contexte organisationnel
(Venkatraman, 1995) alors que dans le même temps, les ressources
technologiques donnent un avantage concurrentiel à l’entreprise (Rowe, Reix,
2002). En réalité, les acteurs manifestent généralement peu d’intérêt pour des
outils complexes, préférant s’en tenir à des solutions éprouvées lorsqu’ils ont à
faire face à des demandes imprescriptibles.
La technologie modifie les systèmes d’interaction, d’information et de
communication des acteurs dans l’organisation. Cette perspective du
déterminisme technologique tend à valoriser l’impact de la technologie sur les
choix organisationnels (Woodward, 1965). Il est d’autant plus nécessaire de
prendre en compte « le contexte social dans lequel les individus sont impliqués »
106
Management des Technologies Organisationnelles : Journées d’Etude 2009
(Bernoux, 2004). Au reste, la perspective interactionniste reconnaît les effets
structurants des technologies sur le contexte social (Giddens, 1987). Dans tous
les cas, la technologie est un dispositif construit par les acteurs, dont les
technologies sont liées à l’agencement d’une diversité d’apprentisages.
Les travaux classiques consacrés aux entreprises apprenantes ont montré
que les capacités des acteurs de l’entreprise sont définies par des aptitudes a
priori obtenues par le travail en milieu professionnel (Senge, 1990). Ils
s’appuient généralement sur une distinction entre différents niveaux
d’apprentissage : organisationnel, collectif ou individuel. Dans la mesure où
l’appropriation des technologies par les acteurs réalise une dualité de structure
(Orlikowski, 2002), les différents apprentissages peuvent se révéler par la suite
inadaptés car ils dépendent des représentations collectives (Nonaka, Takeuchi,
1995). Le travail devenu plus abstrait, plus intellectuel, fait appel fréquement
aux compétences d’expertise technique dont l’activité professionnelle devient
imprescriptible qu’incertaine. Les trajectoires professionnelles (Reynaud, 1982)
impliquent de nouvelles procédures de résolution de problèmes. La technologie
est un système technique et un système social d’interactions liés à des processus
complexes et aléatoires plus ou moins conformes à son esprit initial (Weick,
1990). Les constructions sociales sont quelquefois difficiles, voire parfois
impossibles, à conduire (Dubar, 1983). Aussi, souvent l’organisation cherche à
modifier ses contraintes ou à se modifier pour répondre aux contraintes de
l’environnement (Piaget, 1967). Les transformations lors de la mise œuvre des
technologies dans l’organisation résultent de la complexité des phénomènes
sociaux. Barley (1990). Ainsi, pour appréhender le changement social, une
démarche inductive doit permettre de découvrir les technologies
organisationnelles à l’origine des processus d’apprentissage.
METHODOLOGIE
La théorie enracinée (Glaser, Strauss, 1967) repose sur une dynamique de
comparaison constante (Strauss, Corbin, 1994). Dans le cadre de cette
recherche, afin de respecter le concept de triangulation des données, des
entretiens dans une dizaine de grandes entreprises internationales ont été
menés (2004-2007), auprès de responsables de formation, de système
d’information ou de ressources humaines. Dans les secteurs d’activités de la
banque, de l’assurance, construction automobile, cosmétique, énergie,
informatique, industrie, télécommunications, tourisme et transport. L’analyse
repose sur des segments de taille et d’activité différents comparée aux
changements technologiques. Il s’agit de prendre en compte autant la démarche
que le processus organisationnel qui en découle.
Communications MTO’2009
107
Le management des outils technologiques est un processus qui déclenche
une chaîne de conditions, d’actions et de conséquences. Dans cette optique, afin
de dégager des régularités, les actions précédentes constituent donc des
conditions pour les autres actions. Dans le cadre de notre analyse, lorsqu’un
événement entrait dans la situation, celui-ci aboutissait aux conséquences de
manière indirecte à l’événement précédent. Dès lors, même si la relation était
rarement linéaire, le recueil des données s’est achevé lorsque les responsables
ont répondu à l’ensemble des situations possibles. Après élimination des cas non
pertinents, un cadre d’analyse en relation avec le terrain a ainsi permis de
découper les entretiens en unités d’analyse afin d’établir progressivement les
catégories, et attribuer à chacune un code. Le codage ouvert transforme les
unités d’analyses en catégories dont le codage axial repère les interactions
explicatives à l’origine des changements organisationnels. Le codage sélectif relie
le processus de déploiement aux difficultés rencontrées lors des transformations
organisationnelles.
L’accès au terrain s’inscrit dans un dispositif d’interactions issu des entretiens
menés auprès des responsables qui aide à découvrir le processus d’utilisation.
Une matrice de conditions traduit le processus d’utilisation à l’origine du
déploiement des outils technologiques. Le codage des verbatims fait apparaître
le contexte, les conditions explicatives, l’action, la stratégie et les conséquences
des usages des technologies par les organisations.
Verbatims - Cadre d’analyse selon matrice de conditions (Glaser, Strauss, 1967)
Catégorie : contexte
Sous-catégorie : stratégie d’affaires
• Industrie : « L’ouverture internationale a du poids dans la réussite des
possibilités offertes par les nouvelles technologies qui modifient à la fois
la chaîne de valeur et restructure nos échanges ».
• Cosmétique : « Le succès du groupe vient de la maîtrise de notre
système d’information grâce à l’automatisation de certains processus.
Autant d’éléments qui procurent un avantage concurrentiel ».
• Banque : « L’apparition de nouvelles relations humaines et sociales nous
ont incité à anticiper la mutation de nos agences pour répondre toujours
plus rapidement aux clients ».
• Industrie : « De nouveaux groupes technologiques dans l’environnement
nous permettent de capitaliser sur notre savoir-faire ».
• Sous-catégorie : expérience technologique.
• Transports : « L’apprentissage des outils technologiques résulte d’une
décision stratégique au sein de l’organisation. C’est un outil de
108
Management des Technologies Organisationnelles : Journées d’Etude 2009
reconnaissance du capital de chaque salarié. Il change la manière de
travailler ».
• Entreprise informatique : « En matière de gestion des ressources
humaines, il s’agissait d’élaborer une véritable politique permettant de
favoriser la rétention des compétences critiques pour attirer de
nouveaux collaborateurs ».
• Banque : « Pour répondre à la volonté stratégique du secteur, nous
avons impacté nos métiers dans les nouvelles technologies demandant
des compétences différentes aux salariés ».
• Catégorie : conditions explicatives
Sous-catégorie : avantage concurrentiel.
• Entreprise de cosmétique : « La problématique de notre groupe, c’est
notre banque de connaissances indispensable car nous devons faire face
à la concurrence. Plusieurs grands groupes convoitent notre place ».
• Entreprise informatique : « Nous travaillons sur un marché où les
compétences sont très vite périmées, il est primordial de disposer d’une
vision globale des ressources humaines dont nous disposons, c’est pour
nous une question de survie à l’égard de nos concurrents : piloter le
potentiel de compétences c’est piloter l’entreprise ».
• Banque : « De nombreux changements technologiques dans les
processus de services ont imposé un système toujours plus
concurrentiel ».
Sous-catégorie : compétences internes.
• Tourisme : « Le groupe se développe à l’international dans des pays où
la complexité des marchés, la création de nouveaux métiers et
l’apparition des nouvelles technologies demandent à chaque
collaborateur des compétences qui sont en augmentation ».
• Télécommunications : « Nous avons adopté de nouveaux outils pour
optimiser les coûts. Plus les moyens technologiques sont utilisés pour
améliorer notre organisation, plus l’accompagnement se renforce et
obtient une qualité toujours meilleure ».
• Télécommunications : « Je suis tout à fait conscient que l’expérience
que nous menons actuellement n’est pas transposable, à coût
équivalent, dans une autre entreprise française. Nous avons découvert
certains éléments progressivement, au fur et à mesure du déroulement
de l’expérience ».
Catégorie : action
Sous-catégorie : accompagnement
Communications MTO’2009
•
109
Industrie : « La nouvelle plateforme entérine l’intégration de
technologies avancées, développées par les membres de la
communauté logicielle ».
• Télécommunications : « Le manager doit jouer son rôle d’encadrement,
il doit également répondre aux stratégies locales de la prise de décision
tout en conservant la culture des unités dont il a la responsabilité dans
la nouvelle organisation ».
• Banque : « Les TIC suscitent des changements lourds dans les modes
de management. Il fallait associer dès le départ toutes les strates du
management, les managers de managers, afin d’en faire de véritables
sponsors pour aider nos équipes à intégrer les changements
technologiques ».
• Télécommunications : « La mise en œuvre de notre outil d’expertise vise
à transformer le responsable en véritable manager. il devient le
fondateur de la nouvelle organisation ».
• Industrie : « Les utilisateurs peuvent consulter toutes les informations
concernant les produits, processus et ressources dont ils ont besoin
pour leur activité ».
Sous-catégorie : collaboration.
• Banque : « Nous avons expliqué les enjeux des nouvelles technologies
de l’information pour faire comprendre la stratégie Internet de
l’entreprise, optimiser l’utilisation de l’intranet pour en faire un véritable
outil collaboratif ».
• Industrie : « L’efficacité de l’espace de travail collaboratif mondial
accélère notre rythme d’innovation et donne des solutions pour
l’innovation collaborative tout en améliorant l’échange des données ».
• Banque : « Les situations de travail auxquelles ont dorénavant à faire
face les salariés ont profondément évolué. Les salariés ont à faire face à
des demandes imprescriptibles ».
Catégorie : stratégie
Sous-catégorie : effets attendus, agencement de partenariats d’équipes.
• Energie : « Le développement des nouvelles technologies nous a permis
de développer les agences commerciales en ligne avec nos partenaires,
et s’inscrit dans la démarche Internet du groupe ».
• Informatique : « Un intranet mondial propose un espace personnel à
tous les collaborateurs leur permettant de situer leurs compétences par
rapport aux métiers qu’ils exercent ».
• Industrie : « Travailler en équipe introduit des avancées capitales pour
la collaboration du développement des produits. Ainsi les entreprises de
la chaîne de valeur échangent des informations et peuvent promouvoir
110
Management des Technologies Organisationnelles : Journées d’Etude 2009
une nouvelle conception relationnelle ».
Automobile : « Cela signifie que chacun de nos utilisateurs gèrera de
façon efficace dans le contexte de leur activité au sein de la définition
globale du véhicule ».
• Industrie : « L’espace global renforce la collaboration à tous les niveaux
de la chaîne de valeur en permettant aux entreprises de travailler avec
leurs clients et leurs partenaires comme s’ils faisaient partie d’un seul
équipement ».
Sous-catégorie : capacités technologiques.
• Assurance : « Nous avons adopté une solution de Knowledge
Management partagée entre différents acteurs qui permet de trouver un
ensemble de connaissances pour résoudre un problème posé dans un
dossier contentieux. Il faut donc avoir une bonne connaissance des
compétences dont nous disposons qui s’expliquent en partie par
différentes interactions et la qualité de celles-ci avec notre système
d’information ».
• Banque : « Au travers d’un intranet nous sommes en phase de
déploiement pour relier tout le groupe. Outre le fait de pouvoir véhiculer
l’information et de faciliter le knowledge management, on pourra
modifier le management et la distribution de la connaissance ».
Catégorie : Conséquences
Sous-catégorie : difficultés rencontrées.
• Assurance : « Nous pensions que pour notre projet de KM, les échanges
sont autant indispensables que la dimension organisationnelle dans
laquelle ils s’insèrent ».
• Energie « Pour éviter les résistances des salariés, il faut réfléchir au lien
entre l’organisation du travail, la mobilisation des hommes et l’intérêt de
l’individu, dans la stratégie des ressources humaines dans l’entreprise ».
• Télécommunications : « Nous avons été amenés à réorganiser le travail
d’équipe pour accompagner les salariés. Ils peuvent dénicher une
information précise sur les conseils de leur responsable afin de
progresser dans le cadre effectif de son travail ».
Sous-catégorie : culture de changement
• Construction automobile : « Notre culture de changement ne peut être
mise en œuvre que si les salariés la comprennent et se l’approprient ».
• Cosmétologie : « L’apprentissage des outils technologiques favorise la
diffusion de notre culture d'entreprise ou chacun a conscience du rôle
qu’il apporte dans la construction du produit fini. Appartenir au groupe
procure aux salariés un sentiment de fierté indéniable ».
Communications MTO’2009
•
•
111
Construction automobile « Nous pensons que si la culture semble
maîtrisée, c’est en partie grâce au sentiment d’appartenance très fort
dans le développement collectif des salariés. La culture d’entreprise crée
un sentiment de cohésion entre les salariés qui participent activement à
l’amélioration des conditions de travail ».
Cosmétologie : « Les outils technologiques ne peuvent constituer un
terrain d’expériences, mais doivent s’insérer dans un projet à part
entière au risque que les salariés refusent de les utiliser. Il faut mener
une stratégie de changement dans une logique d’équipe de projet ».
A cet effet, les catégories sont détectées en considération du contexte à
partir des fonctionnalités technologiques et sociales de l’outil. On peut alors
mettre en évidence les liens entre elles qui doivent être modifiés par la suite.
Ainsi cette phase de déduction permet de représenter les conséquences de façon
à produire une proposition explicative de l’utilisation des outils technologiques.
Des regroupements conceptuels représentent le phénomène étudié sans qu’il soit
nécessaire de revenir aux entretiens. Cette phase de vérification permet d’aller
vers des situations d’apprentissage pour s’interroger sur les modalités selon
différents types de changements qui représentent le dispositif analysé.
Processus d’utilisation des technologies organisationnelles
Situations d’apprentissage
• Poursuivre les objectifs. Les outils sont des éléments déterminants des
choix stratégiques (Venkatraman, 1995). Les outils technologiques ont
des potentialités qu’il faut valoriser.
• Conduire le management. Les processus sont fondés sur des actions et
des activités collectives. Les interactions sociales ne sont pas stabilisées
et évoluent tout au long de la construction des objets techniques
(Weick, 1990).
• Organiser les ressources. La culture de changement traduit des
comportements d’appartenance et dépend des formes d’interaction dans
l’organisation. (Argyris et Schön, 1978).
Modalités
• La technologie est une ressource spécifique du système dont l’esprit
aide les responsables à interpréter le sens de la technologie.
• La flexibilité interprétative correspond à l’étendue des modes
d’apprentissage qui résultent autant des acteurs que de la structure
organisationnelle. Le processus d’apprentissage résulte des acteurs et
de la structure organisationnelle.
112
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
Un environnement élargi agit comme un révélateur des difficultés liées
aux caractéristiques techniques. Les responsables sont davantage
préoccupés du fonctionnement de la technologie que des stratégies
menées par les utilisateurs qui régulent le travail collectif dans la
diffusion de la culture.
Types de changements
• Envisager les transformations c’est la vision. Le recours aux outils
s’explique par les caractéristiques de l’organisation, qui améliorent la
coordination entre les besoins de traitement de l’information.
• Prévoir le déploiement. L’influence de la technologie peut être dissociée
des structures sociales dans lesquelles elle se développe (Orlikowski).
• Anticiper les difficultés d’accompagnement. Les changements
technologiques dans les organisations impliquent un arbitrage dans
l’apprentissage selon que l’organisation admette ou non les
caractéristiques sociales et matérielles des outils technologiques.
La démarche s’inscrit dans une optique processuelle, qui articule poids du
passé, conception du présent et anticipation de l’avenir (Weick). L’introduction
des TIC modifie les organisations. Le terme d’organisation tend à s’effacer au
profit des technologies : la notion de système « sociotechnique » ou de « réseau
sociotechnique », la complexité des organisations émergentes modifient les
approches méthodologiques et font apparaître l’usage des TIC par les
organisations pour décrire, expliquer usages, non usages ou mesurages des TIC
pour prévoir les effets sur les processus organisationnels.
L’entreprise doit elle influencer son secteur, déterminer sa trajectoire ou
réagir aux changements qui interviennent ? On considère que les changements
technologiques améliorent le fonctionnement du système lui-même tout en étant
un levier managérial des organisations.
Un cadre d’analyse laisse entrevoir les actions aux conséquences importantes
pour l’organisation. La comparaison des réponses s’est poursuivie tout au long
de notre recherche en revenant constamment aux données. L’objectif poursuivi,
conserver un avantage concurrentiel, explique la pression de l’environnement.
Souvent, le management des outils technologiques n’aboutit pas à aux
changements espérés malgré de nombreux partenariats développés par
l’entreprise, car les organisations ne tiennent pas compte du contexte social des
outils technologiques. Par exemple, l’intranet de compétences répond à la
diversité des usages parce qu’il enrichit les connaissances. On réalise bien que le
processus d’apprentissage collectif est bouleversé sans qu’il en soit de même des
relations d’échanges qui modifient les compétences managériales. Cependant,
les contextes mettent l’accent sur le décalage entre ce qui est voulu par
Communications MTO’2009
113
l’organisation et les pratiques sociales. Les acteurs sont plus que jamais au
centre des usages technologiques.
DISCUSSION ET IMPLICATIONS MANAGERIALES
Les différents phénomènes identifiés illustrent plusieurs démarches
organisationnelles dans les entreprises internationales. Tout d’abord, on repère
aisément la vision des objectifs stratégiques que procure la poursuite d’un
avantage concurrentiel. Les entreprises dispersées dans le monde partagent
leurs connaissances avec leurs partenaires : salariés, fournisseurs ou clients
conduisant à des coûts de coordination dans l’agencement des échanges. En
général, les fonctionnalités technologiques se révèlent bénéfiques dans les
secteurs concurrentiels où les processus sont automatisés. La capitalisation des
savoirs critiques dans l’entreprise étendue provient de l’environnement à partir
du contexte technologique.
Un deuxième type de phénomène est lié aux ressources du déploiement des
outils dans les pratiques managériales. Le management des compétences traduit
les difficultés à se repérer dans un environnement élargi. Ainsi les entreprises
échangent des informations afin de promouvoir de nouvelles relations sociales.
C’est un outil de structuration des relations aux effets d’apprentissage dans
l’organisation.
Enfin, un troisième type de situation consacre l’anticipation d’apprendre
rapidement au risque de tensions organisationnelles au sein des équipes de
travail. Les changements technologiques dans les organisations impliquent un
arbitrage des caractéristiques sociales et matérielles des outils technologiques en
vue de favoriser la réalisation des objectifs stratégiques et opérationnels. On
distingue un processus en trois étapes : envisager la transformation
organisationnelle afin de prendre en compte les objectifs stratégiques, prévoir le
déploiement des outils technologiques à l’origine des changements sociaux,
anticiper les difficultés d’accompagnement dans les activités d’apprentissage des
outils.
•
Envisager la transformation organisationnelle. L’action managériale
standardise les compétences sans avoir néanmoins la possibilité d’anticiper
les conséquences liées aux fonctionnalités. Le contexte social contribue
partiellement à déterminer l’organisation, surtout lorsque le consensus
auprès des partenaires s’avère nécessaire pour que l’outil puisse
transformer l’organisation. Les outils mobilisés pour piloter le processus
sont soumis aux contraintes des fonctionnalités technologiques susceptibles
de multiples combinaisons.
114
•
•
Management des Technologies Organisationnelles : Journées d’Etude 2009
Prévoir le déploiement des outils. Les effets sont soumis à des évolutions
plus ou moins aléatoires, sont peu déterminés à l’avance et dépendant de
l’interaction des différents acteurs avec les outils technologiques dans
l’organisation. Un manque d’intérêt pour leur complexité atteste que les
usages sont rarement structurés lors du processus d’apprentissage.
Anticiper les difficultés d’accompagnement. Les organisations considèrent
leur capital humain indispensable pour aboutir aux objectifs stratégiques.
Les rapports sociaux résultent d’un ensemble d’ajustements qui structurent
le processus d’apprentissage. Les difficultés d’accompagnement s’expliquent
par des jeux d’acteurs faisant apparaître des niveaux variables dans les
usages des outils. De nouvelles règles de gestion doivent tenir compte de
l’usage des technologies afin de mettre en valeur la prédiction, la prévision
et l’anticipation.
CONCLUSION
Les limites de notre recherche sont d’ordre méthodologique. Notre démarche
inductive assure la compatibilité entre la théorie et les pratiques managériales
observées. Au moment, où le développement des organisations se construit sur
un recours intensif aux technologies de l’information, l’analyse tente de repérer
les conditions d’alignement des usages sur la stratégie. Les entretiens ont été
sélectionnés selon les facilités d’accès au terrain. Il est donc nécessaire d’être
prudent et de se méfier des connaissances produites parce qu’en général
l’expérimentation crée des risques dans la gestion du changement. Une étude
longitudinale aurait permis de suivre le processus sociotechnique dont les
moyens d’actions demeurent imprévisibles.
Qu’il s’agisse d’anticiper la transformation, de maîtriser ou d’accompagner les
difficultés du déploiement, le processus décrit conduit à s’interroger sur la
cohérence globale du changement technologique. Même si les situations
rencontrées confèrent un rôle déterminant au management des changements
organisationnels, la poursuite d’un objectif de gestion déséquilibre l’organisation,
induit des tensions au cours du processus managérial. A l’évidence, se focaliser
sur la dimension technologique ou sociale demeure une erreur en la matière. Un
compromis semble bien plus raisonnable pour anticiper la conduite du
management des changements technologiques. Dans les entreprises en équipe
mondiale, le management des technologies est évalué selon l’apport stratégique
par rapport aux autres méthodes d’apprentissage. Dans les entreprises
organisées en espace de travail collaboratif, tout déploiement induit de nouveaux
modes de travail pour capitaliser des connaissances. Aussi, au moment où
l’immatériel prend une place de choix dans la gestion des entreprises, la
Communications MTO’2009
115
technologie est un facteur de risques évidents pour la stratégie des
organisations. Autant dire que les changements technologiques dépendent plus
que jamais de la dimension humaine surtout, lorsque le management en temps
réel devient une exigence critique, pour les entreprises internationales.
RÉFÉRENCES BIBLIOGRAPHIQUES
Alter, S., (1996), Information System : a Management Perspective, Addison Wesley, New York
Argyris, C., Schön, D. A., (1978), Organizational Learning: a Theory of Action Perspective,
Addison-Wesley, Reading, MA.
Barley, S. R., (1990) “The Alignment of Technology and Structure Through Roles and Networks”
Administrative Science Quarterly, vol. 35, p. 35-75.
Baujard, C. (2008), Stratégie e-learning, management et organisation, Hermès Lavoisier.
Baujard, C., (2007), « Vers une démarche heuristique de l’apprentissage organisationnel »,
Management International, vol. 11, n° 3, 2007, p. 21-34.
Bernoux, P., (2004), Sociologie du changement dans les entreprises et les organisations, Paris,
Le Seuil.
Callon, M., Latour, B, Akrich, M., (1991), La Science telle qu’elle se fait, La Découverte.
Carton, S., Clédy, J. L., Dahab, D., (2002), « Déploiement, formation et impacts
organisationnels des systèmes d’information », Faire de la recherche en systèmes
d’information, Paris, Vuibert, p. 285-297.
Commissariat Général au Plan (2003), La France dans l’économie du savoir : pour une
dynamique collective, La Documentation Française.
Crozier, M., Friedberg, E., (1977), L’acteur et le système, Paris, éd. 1981, coll. Le Point, p. 30.
Dubar, C., (2006), La socialisation : construction des identités sociales et professionnelles, 3ème
éd. Armand Collin.
Giddens, A., (1987), La constitution de la société : éléments de la théorie de la structuration,
Presses Universitaires de France, Paris.
Glaser, B. G., Strauss, A. L., (1967), The Discovery of Grounded Theory: Strategies for
Qualitative Research, New York, Aldine de Gruyter.
Jouyet, J. P., Lévry, M., (2006), L’économie de l’immatériel, la croissance de demain, La
Documentation Française.
Kalika, M. (1995), Structures d’entreprises, Réalités, déterminants, performances, Economica.
Moisdon, J. C., (1997), (sous la dir.), Du mode d’existence des outils de gestion, Paris, Ed. Seli
Arslan.
Nonaka, I., Takeuchi, H., (1995), The Knowledge Creating Company, How Japanese Companies
Create the Dynamics of Innovation, New York, Oxford University Press.
Orlikowski W. J., (1992) « The Duality of Technology : Rethinking the Concept of Technology in
Organizations », Organization Science, vol. 3, n° 3, p. 398-427.
Piaget, J., (1967), Biologie et connaissance, essai sur les régulations organiques et les processus
cognitifs, Gallimard, Paris, p. 102.
116
Management des Technologies Organisationnelles : Journées d’Etude 2009
Reix, R., (2004), Systèmes d’information et management des organisations, 5e éd., Paris,
Vuibert.
Reix R., Rowe R., (2002) « La recherche en systèmes d’information : de l’histoire au concept »,
F. Rowe (éd), Faire de la recherche en systèmes d’information, Paris, Vuibert.
Reynaud, J. D., (1997), Les règles du jeu : l’action collective et la régulation sociale, Paris, ed.
Armand colin.
Reynaud, J. D. (1982), « Les identités collectives et changement social : les cultures collectives
comme dynamique d’action », Sociologie du travail, n° 2, p. 159-177.
Salas, E. P., Kosarzycki, C. S., Stephen, M. F., Stone, D. L., (2002), « Emerging Themes in
Distance Learning Research and Practice: some food for thought », International
Journal of Management Reviews, vol. 4, n° 2, p 135-153.
Senge, P., (1990), The Fifth Discipline: The Art and Practice of the Learning Organization, New
York: Doubleday.
Schein, E. H., (1968), « Organizational Socialization and the Profession of Management »,
Industrial Management Review, vol. 9, p. 1-16.
Strauss, A., Corbin, J., (1994), « Grounded Theory Methodology: An Overview », N. K. Dezin, Y.
S. Lincoln (Eds), Handbook of Qualitative Research, Thousand Oaks, CA, Sage, p.
273-285.
Strauss, A. L., Corbin, J., (1990), Basics of Qualitative Research: Grounded Theory Procedures
and Technics, Newbury Park, CA, Sage.
Venkatraman, N., (1995), « Reconfigurations d’entreprises provoquées par les Technologies de
l’Information », L’entreprise compétitive du futur, Scott Morton MS, Les Editions
d’Organisations.
Weick, K., (1990), « Technology as Equivoque: Sensmaking in New Technologies” Technology
and Organization, Goodmann P; Sproull L.S., (Eds), p. 1-44.
Woodward, J., (1965), Industrial Organisation : Theory and Practice, p. 35-36, Oxford University
Press, London.
Communications MTO’2009
117
Une démarche pour la conduite du
changement en entreprise
manufacturière
Vincent CHAPURLAT
LGI2P / Ecole des mines d’Alès
Didier CRESTANI et Yousra BEN ZAÏDA
LIRMM / Université de Montpellier
RESUME
Les entreprises ont en permanence à s’adapter à l’évolution de leur
environnement aussi bien économique que technologique si elles souhaitent
préserver leurs parts de marché et leur positionnement vis-à-vis de leurs clients.
Elles doivent alors choisir les objectifs stratégiques qu'elles veulent rallier, puis
définir la conduite du changement qui permettra de les atteindre.
Pour les entreprises manufacturières, les techniques de conduite du
changement opérationnelles actuelles rendent difficile la mise en œuvre
autonome des stratégies de changement choisie par les acteurs de terrain.
Différentes études (projet européen Time Guide, action ADESI, etc…) ont en
effet montré les limites et insuffisances de telles approches. Citons, en
particulier, leur inadéquation souvent préjudiciable aux besoins réels, la prise en
compte limitée de la dimension humaine, les difficultés de représentation d’une
organisation, le besoin de lien à la performance, l'absence de guide pour le choix
des méthodes opérationnelles de changement à mettre en œuvre, etc.
Cet article présente une démarche de conduite du changement qui tente de
lever certaines de ces limitations.
118
Management des Technologies Organisationnelles : Journées d’Etude 2009
INTRODUCTION
En industrie manufacturière, le changement ou, en d’autres termes, le
processus qui va permettre à l’entreprise d’évoluer et de s’améliorer au regard
de ses objectifs, évoque souvent dans l’esprit du management une prise de
risques, une remise en cause de tout ou partie de la culture d’entreprise, une
perte possible de performance pendant le temps nécessaire à la reconfiguration
ou la réinstallation des ressources pouvant induire des dommages sur la
clientèle, etc. Les chercheurs en sciences de gestion et en sciences pour
l’ingénieur ont développé des travaux pour caractériser, supporter et si possible
outiller ce processus. Par exemple, [Siebenborn, 05] [Nouiga, 03] décrivent ce
processus comme une suite d'actions cohérentes avec les objectifs stratégiques
de l’entreprise. [Basseti, 03] le définit comme un processus de transformation
pouvant être radical ou marginal [Hasfi, 97]. [Yatchinkovsky, 99] et [Nouiga, 03]
soulignent que le processus de changement doit permettre logiquement de
passer d’un état initial et un état final évidemment meilleur du point de vue de la
stratégie de l’entreprise [Délivré, 04]. Enfin, [Beriot, 92] insiste sur la dimension
temporelle du changement et la nécessaire différence qui doit exister entre deux
états.
Cependant, il apparait que ces travaux, bien que complémentaires, ne
répondent pas à tous les besoins de l’industriel désireux de faire évoluer son
entreprise. Cet article a pour objectif de présenter ces besoins et propose une
approche outillée d’aide à la construction de projets de changement en industrie
manufacturière.
BESOINS
Différentes études (projet européen Eureka TIME GUIDE [TIME GUIDE, 96],
action spécifique du CNRS ADESI [ADESI, 04.1] [ADESI, 04.2] ou encore l’étude
menée par l’American Management Association auprès de 250 entreprises [AMA,
95]) ont permis de lister un certain nombre de limitations actuelles perçues par
les industriels face à la gestion du changement. Les points essentiels et les
verrous à lever pour répondre au mieux aux attentes du milieu industriel sont :
• Le changement doit être initié à partir de la déclinaison des objectifs
stratégiques de l’entreprise à plus ou moins long terme. A titre
d’exemple, seulement 46 % des entreprises interrogées identifient les
objectifs de leur projet de changement à partir des objectifs
stratégiques définis.
• Les industriels souhaitent majoritairement définir puis gérer leurs projets
de changement de façon autonome en impliquant plus fortement et plus
étroitement le personnel. En effet, le changement se concentre
Communications MTO’2009
119
désormais essentiellement sur l’organisation et 75 % des facteurs qui
freinent le changement sont d’ordres organisationnel et culturel.
• Seulement 25 % des industriels disent connaître quelques outils
permettant d'accompagner le changement et 54% d'entre eux jugent
que ces outils ne répondent pas à leurs attentes. Par exemple, plus de
80% des entreprises souhaitent pouvoir analyser et donc anticiper
l’impact du changement sur les performances de l'entreprise avant que
le projet lui-même ne soit lancé. Les besoins en termes d’outils sont
ainsi : (i) pouvoir avoir une vision plus intégrée de la performance, (ii)
pouvoir estimer l'impact d’un changement en particulier sur les
dimensions humaines et organisationnelles de l’entreprise, et (iii) gérer
le changement nécessite de disposer de modèles (de l’organisation, des
ressources, des moyens, des méthodes potentielles d’amélioration, de la
performance, etc...) de l’entreprise et donc d’outils supports.
Donc les industriels avouent une connaissance réduite des méthodes et des
outils leur permettant de mieux prévoir, anticiper et gérer le changement au
regard de leur stratégie Ils sont demandeurs d'outils d'aide à la décision facilitant
la gestion autonome de l'évolution de l'entreprise. L’approche présentée dans cet
article et l’outil support GET (Generator of Enterprise Trajectories) tente de
répondre à certains de ces besoins pour le milieu manufacturier.
L’APPROCHE PROPOSEE
Cette approche, développée conjointement par les laboratoires LIRMM et
LGI2P, permet de définir, d’évaluer et de valider un projet de changement. Elle
repose sur un ensemble de concepts résumés ci-dessous, d’une démarche
méthodologique et d’un outil support présentés brièvement ensuite.
Concepts
Le Moigne [Le Moigne, 77] distingue quatre situations de changement (Figure
1) pour un système :
• La régulation : La mission et l'environnement du système sont stables. Il
s’agit alors seulement de réguler le comportement de ce système pour
faire face aux perturbations sans modifier sa structure ni ses schémas
d'exécution.
• L'adaptation : La mission du système est stable mais son environnement
évolue. Le système doit donc s’adapter et développer de nouveaux
schémas d'exécution sans modification structurelle du système.
120
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
•
L'adaptation structurelle : L’environnement est stable mais la mission du
système change. Il doit donc adapter ses ressources et son organisation
voire définir de nouveaux schémas d'exécution.
L'évolution structurelle : Face à un environnement et à une mission qui
évolue dans le temps, le système doit faire évoluer sa structure pour
s'équilibrer.
Figure 1 : Situations du changement
L’approche proposée s’intéresse aux cas où la mission du système, ici tout ou
partie d’une entreprise, doit évoluer de façon à suivre la stratégie définie par les
managers. Elle se focalise donc sur des projets de changement nécessitant
d’adapter ou de modifier à la fois la structure de l’entreprise (ses ressources, son
organisation, ses moyens) et ses modes opératoires (processus, activités).
Un projet de changement se définit à partir de l’état courant de l’entreprise,
de l'état cible à atteindre fonction des objectifs stratégiques déclinés sous forme
d’objectifs de performance ou objectifs opérationnels et d’une trajectoire, ou
chemin optimum, permettant de passer de l’état courant à l’état cible. Dans ce
cas :
• Un état est décrit au moyen d’indicateurs de performance organisés et
structurés en fonction de la nature de la mission et des objectifs de
l’entreprise.
• Un objectif de performance s'exprime au travers de l’agrégation
d’indicateurs de performance qui ont été, dans le cadre de cette étude,
répartis en tenant compte de trois axes de performance schématisés
eux-mêmes décomposés selon plusieurs critères Figure 2.
Figure 2 : Les indicateurs de performance pour la gestion du changement
Communications MTO’2009
•
•
•
121
L’axe performance de pilotage permet d’évaluer la capacité de
l’entreprise (ou de la partie concernée de l’entreprise) à remplir sa
mission, en l'absence de perturbations et en ajustant en permanence
son comportement. Les Coût, Qualité et Délai, sont les types de critères
de performance retenus.
L’axe l’axe performance d’adaptation permet d’évaluer la capacité de
l’entreprise à réagir face à des perturbations imprévues qu’elles soient
d’origine externe ou interne, c'est-à-dire à estimer la stabilité de
l'entreprise. Les types de critères retenus sont ici la Réactivité (capacité
d’une entreprise à réagir à des situations imprévues dans un délai
acceptable) et la Proactivité (capacité de l'entreprise à développer des
produits, procédés, processus etc. susceptibles de favoriser le retour à
une situation normale et maîtrisée).
Enfin, l’axe performance d’anticipation permet d’évaluer l’aptitude de
l’entreprise à faire face à des perturbations prévues d'origine interne ou
externe c'est-à-dire d'estimer l'intégrité de l'entreprise même en cours
d’évolution. Les types de critères retenus sont alors la Flexibilité
(capacité d'une structure à réagir à des situations prévisibles comme par
exemple une panne de machine), la Standardisation (qui facilite la
gestion des perturbations et des situations de crise prévues), la
Redondance (capacité à disposer de ressources pouvant assumer dans
le temps un même rôle en nombre suffisant) et l'Innovation (capacité à
développer des produits, procédés, processus susceptibles de répondre
à l'évolution des besoins).
Un système d'indicateurs de performance peut ainsi être bâti au moyen de la
démarche schématisée Figure 3. En effet, l’ensemble de ces indicateurs doit
permettre d’évaluer la totalité des processus potentiellement concernés par le
projet d’évolution de l'entreprise et de détecter ainsi d’éventuelles voies
d’amélioration supplémentaires. La couverture des processus de l'entreprise est
obtenue à partir de la décomposition en processus de management, support et
métier préconisée par la norme ISO 9001 [ISO 9001]. Pour chacun des
processus identifiés, un arbre d'indicateurs de performance est construit
relativement à chacun des axes de performance décrits ci-dessus. L'identification
des indicateurs de performance repose sur la méthode 5M [Ishikawa, 85]. En
effet, cette forme d’analyse causale permet de relier les causes (ici les différents
axes de performance) aux effets (ici les indicateurs de performance qui sont
impactés par ces axes). Une évaluation ascendante des nœuds de ces arbres
s'appuyant sur la méthode multicritères A.H.P. [Saaty, 80] est ensuite utilisée
122
Management des Technologies Organisationnelles : Journées d’Etude 2009
pour évaluer entre 0 (mauvais) et 1 (excellent) et agréger les indicateurs de
performance identifiés.
Figure 3 : Principes de la modélisation des performances
•
Une trajectoire d'évolution est constituée d’une suite d’actions
permettant de conduire l'entreprise de son état courant vers un état
cible fixé par déclinaison des objectifs stratégiques. Chaque action
consiste à appliquer une méthode d’amélioration ciblée dite méthode
opérationnelle notée Mi dans la Figure 4. Ces actions doivent être a
priori menées à bien pour faire évoluer l’organisation, le comportement,
les ressources, etc. de l'entreprise. La construction de ces trajectoires
repose sur deux hypothèses fortes :
o
Les objectifs stratégiques de l’entreprise sont supposés connus
et validés.
o
Il est possible d’évaluer l’impact de chaque action sur la
performance globale au regard de l’état cible souhaité.
Communications MTO’2009
123
Figure 4 : Trajectoires et méthodes opérationnelles
•
Une méthode opérationnelle se décline selon une vision
tridimensionnelle (Figure 4) :
o
La dimension généricité permet de décliner la description d'une
méthode opérationnelle de son niveau le plus générique à son
expression appliquée à une entreprise particulière. Ainsi comme
le montre la Figure 5 une des déclinaisons de la méthode
opérationnelle Just In Time peut faire appel, dans une
entreprise donnée, aux méthodes : formation, S.M.E.D. [Dirk et
al., 02] et Kanban [Shingo, 85].
o
La dimension cycle de vie rend compte des différentes phases
de déploiement d'une méthode opérationnelle allant de
l'appropriation à la mise en œuvre en passant par la
préparation. Par exemple les méthodes opérationnelles
appliquées précédentes sont employées conformément à leur
appartenance aux différentes phases du cycle de vie.
o
La dimension performance traduit l'impact potentiel des
méthodes opérationnelles sur la performance.
Figure 5 : Modèle de méthode opérationnelle
124
Management des Technologies Organisationnelles : Journées d’Etude 2009
Une méthode opérationnelle influence ainsi tout ou partie de la performance
de l’entreprise, de manière positive ou négative. Une trajectoire est donc un
enchaînement cohérent (dans le temps, dans l’espace et en respectant des
contraintes d’éligibilité et de mise en œuvre [Crestani et al., 09]) d’application de
méthodes opérationnelles sélectionnées pour leur intérêt, leur pertinence et leur
applicabilité dans l’entreprise (compétences présentes ou en cours d’acquisition,
temps disponibles, moyens, accompagnement, cycle de vie de la méthode en
adéquation avec le projet global de changement, etc.). Chaque trajectoire est
ainsi un projet potentiel de changement comme schématisé en Figure 6. Le but
de l’approche proposée est ensuite d’évaluer et de comparer toutes les
trajectoires potentielles en analysant leur impact global sur la performance de
l'entreprise, leur durée et leur coût estimé.
Démarche méthodologique
La démarche schématisée Figure 7 est structurée en six principales étapes :
• L'Etape S1 permet, à l'aide de modèles adaptés, de décrire les vues
structurelle, fonctionnelle et comportementale de l'entreprise.
• L'Etape S2 caractérise l'état initial par le biais d'un ensemble
d'indicateurs de performance.
• L’Etape S3 décline les objectifs stratégiques en un état cible à atteindre
à l'issue du processus de changement.
• L'Etape S4 identifie les méthodes de changement applicables en fonction
de leurs conditions d'application.
• l'Etape S5 évalue l'impact du déploiement d'une méthode éligible et
enrichit la trajectoire d’évolution d’un nouvel état.
• L'Etape S6 analyse, s'ils existent, les différentes trajectoires d’évolution
obtenues vis-à-vis de la performance et estime leurs coût et durée.
Figure 6 : Exemples de trajectoires d'évolution (T1, T2 ou T3)
Communications MTO’2009
125
Figure 7 : Démarche méthodologique
La mise en œuvre de cette démarche nécessite un ensemble de moyens de
modélisation d’entreprise et d’évaluation pour formaliser, construire et manipuler
les trajectoires :
• Un modèle de l’entreprise au travers de plusieurs vues classiquement
adoptées dans ce domaine [Penalva, 93] et enrichies pour les besoins
de la construction et de l’évaluation des trajectoires. Pour cela, le cadre
de Modélisation SAGACE-CE, évoqué dans la Figure 8, a ainsi été
proposé et formalisé [Benzaïda, 08].
Figure 8 : Synoptique du cadre de modélisation SAGACE-CE
126
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
•
•
Le modèle de performance présenté plus haut pour, d’une part, estimer
les états courant et cible de l’entreprise, d’autre part, décliner suivant la
démarche illustrée 8, les objectifs stratégiques sous forme d’un arbre
d’objectifs opérationnels et, enfin, évaluer l’impact d’une méthode
opérationnelle sur la performance c'est-à-dire sur le comportement,
l’organisation, les ressources ou les moyens de l’entreprise.
Le modèle de méthode opérationnelle présenté plus haut permettant de
caractériser et de définir les conditions d’éligibilité d’une méthode
opérationnelle pour qu’elle soit potentiellement applicable dans le cadre
de l’entreprise. Ces règles traduisent des contraintes liées à la
pertinence des méthodes opérationnelles vis-à-vis la structure
organisationnelle de l'entreprise [Siebenborn, 05], à la logique de
changement engagée, au lien temporel pouvant exister entre les
méthodes (notion de cycle de vie).
Un environnement logiciel a enfin été développé pour supporter
l'ensemble de cette démarche méthodologique.
OUTILS SUPPORTS
L'architecture logicielle support de cette méthodologie est présentée Figure 9.
Elle peut être divisée en deux parties :
• Un ensemble d'outils permettant à un groupe d’acteurs en entreprise
et/ou au consultant intervenant de décrire l’entreprise, au manager de
décomposer les objectifs stratégiques en objectifs opérationnels, et au
consultant de caractériser l’adéquation de certaines méthodes
opérationnelles avec l’entreprise selon sa nature, son contexte, ses
ressources, etc.
• Un ensemble d'outils permettant de définir explicitement l'état final
souhaité et de construire les trajectoires d'évolution à l'aide d’un outil
baptisé Générateur de Trajectoires d'Evolution GTE. La communication
entre ces deux parties est assurée via des formats neutres d’échange
XML.
Les différents outils de modélisation nécessaires aux étapes S1 à S3 ont été
réalisés en faisant appel au logiciel de méta-modélisation GME (Generic Modeling
Environment) [GME, 04]. Outre la vérification de la cohérence des concepts et
des contraintes, cet outil facilite la génération d'interfaces graphiques pour les
utilisateurs.
Communications MTO’2009
127
Figure 9 : Synoptique de l'environnement logiciel développé
GTE a été développé en code Matlab proche du langage C, choisi pour ses
capacités graphiques. Il met à la disposition de l'utilisateur un ensemble de
fonctionnalités, couvrant les étapes S4 à S6 et lui permettant :
• De choisir les indicateurs de performance pertinents nécessaire à la
représentation de l'état de l'entreprise.
• De définir l'état cible à atteindre.
• De fixer les conditions d'arrêt pour la construction des trajectoires
d'évolution.
• De visualiser pour chaque trajectoire l'évolution des indicateurs de
performance choisis pour définir l'état.
• De choisir les critères de tri des trajectoires générées (solution, non
solution, classement en fonction du coût ou de la durée) lors de la
phase de prise de décision.
CONCLUSION
La conduite de changement est un besoin industriel clairement identifié est
un enjeu de taille : le changement doit être rapide, réactif, pertinent, remis en
cause régulièrement, etc. La démarche d'aide à la décision présentée dans cet
article permet de modéliser une entreprise, de définir une liste d’indicateurs de
128
Management des Technologies Organisationnelles : Journées d’Etude 2009
performance pertinents en rapport avec sa stratégie, et de construire des projets
d’évolution qui la respecte.
D’une part, cette démarche peut être considérée comme générique puisque
qu'elle s'appuie sur un cadre de modélisation de l'entreprise, de la performance
et des méthodes opérationnelles, sur une méthodologie rigoureusement définie
et sur une plateforme d’outils intégrés. D’autre part, elle peut aussi être qualifiée
d'ouverte puisqu'elle peut être facilement enrichie par de nouvelles méthodes
opérationnelles et que le système d'indicateurs de performance construit couvre
l'ensemble de l'entreprise ce qui lui permet d'adresser tout objectif stratégique.
Elle s’appuie actuellement sur une base de données d'une cinquantaine de
méthodes opérationnelles. Cette approche de construction de trajectoire
d'évolution de l'entreprise et les outils supports associés sont actuellement en
cours de validation.
REFERENCES BIBLIOGRAPHIQUES
[ADESI, 04.1] "Action Spécifique ADESI – Aide à la Décision pour l'Evolution Socio-Technique
des Systèmes Industriels", (2004), Rapport de fin d'étude, pp. 1-82.
[ADESI, 04.2] "Action Spécifique ADESI – Aide à la Décision pour l'Evolution Socio-Technique
des Systèmes Industriels", (2004), Annexes, pp. 1-74.
[AMA, 95] http://www.amanet.org/research/archive_1998_1995.htm#1995, (1995), Enquête de
l'American Manager Association.
[Basseti, 03] Bassetti A.L., (2002), "Gestion du changement, gestion de projet : convergencedivergence. Cas des risques en conception et mise en place d’une organisation de
management de l’environnement", thèse en Génie Industriel de l’Ecole Nationale
Supérieure d’Arts et Métiers Centre de Paris.
[Beriot, 92] Beriot D., (1992), "Du microscope au macroscope : l’approche systémique du
changement dans l’entreprise", ESF Editeur, Paris.
[Benzaïda, 08] Benzaïda Y., (2008), "Contribution à la conduite du changement pour l'évolution
du système entreprise", thèse de 3ème cycle, Université Montpellier 2, France.
[Crestani et al., 09] Crestani Didier, Chapurlat Vincent, Ben Zaida Yousra, Durand Bastien,
Toward a Software Environment for the Generation of Enterprise Change
Trajectories, 39th International Conference on Computers & Industrial Engineering
(CIE39), UTT Troyes, 6-8 Juillet 2009
[Délivré, 04] Delivré F., (2004), "Le métier de coach", Edition d'organisation.
[Dirk et al., 02] Dirk V. G., Hendrik V. L., (2002), “Rules for integrating fast changeover
capabilities into new equipment design”, Robotics and Computer-Integrated
Manufacturing, Vol. 18, Issues 3-4, pp. 205-214.
[GME, 04] GME (2004) Generic Modelling Environment (GME) User’s Manual, Release 4-11,
Institute for Software Integrated Systems (ISIS) Vanderbilt University
[Hafsi et al., 97] Hafsi T. et Fabi B., (1997), "Les fondements du changement stratégique",
Transacontinental.
[ISO 9001-2000] Norme européenne NF EN ISO 9001-2000, http://www.iso.org.
Communications MTO’2009
129
[Ishikawa , 85] Ishikawa, K., (1985), “What is Total Quality Control?” The Japanese Way,
Prentice-Hall.
[Le Moigne, 77] Le Moigne J.L., (1977), "La Théorie du Système Général", Les Presses
Universitaires de France.
[Nouiga, 03] Nouiga M., (2003), "La conduite du changement par la qualité dans un contexte
socioculturel : Essai de modélisation systémique et application à l'entreprise
marocaine", Thèse de doctorat, ParisTech.
[Penalva, 93] Penalva J. M., (1993), «SAGACE method: the modelling of human designed
systems», COMETT'93, Rome, Italie.
[Saaty, 80] Saaty, T. L., (1980), “The Analytical Hierarchy Process”, McGraw Hill: New-York.
[Shingo, 85] Shingo S., (1985), "The Revolution in Manufacturing : The SMED System",
Productivity Press Inc.
[Sieberborn, 05] Sieberborn T. (2005), "Une approche de formalisation du processus de
changement dans l’entreprise", thèse de 3ème cycle, Université de Savoie, France.
[TIME GUIDE, 96] Project EUREKA TIME GUIDE European Project EU 1157, (1996), "Tools and
method for the Integration and the Management of the Evolution of industrial
enterprise – GUIDing the Evolution".
[Yatchinkovsky, 99] Yatchinnowsky A., (1999), "L’approche systémique pour gérer l’incertitude
et la complexité", ESF Editeur, Paris.
130
Management des Technologies Organisationnelles : Journées d’Etude 2009
Communications MTO’2009
131
Hyper rationalisation
organisationnelle et technique :
le cas du Voice Picking
Mélanie BURLET et Romain CHEVALLET
ANACT/ Lyon
Thierry PRADERE
ARACT / Montpellier
RESUME
La technologie du guidage vocal, de plus en plus présente dans les activités
de préparations de commandes, pose la question d’un nouveau mode
d’organisation, celui de l’hyper-rationalisation organisationnelle et technique. Dès
lors, une approche interdisciplinaire articulée sur l’analyse du travail permet de
mieux comprendre l’ensemble des effets de cette innovation sur les conditions
de travail et la performance de l’entreprise. Dans ce type d’organisation, la place
de l’autonomie et de la responsabilité est fortement questionnée, ce qui
représente une forme de rupture avec les modèles d’organisation observés
jusqu’alors. Du point de vue des conditions de travail, la pénibilité mentale
devient un enjeu majeur.
INTRODUCTION
Après un succès éprouvé en Amérique du Nord, la technologie du guidage
vocal [1] (voice picking ou VP) se déploie désormais en France depuis quelques
années. Si tous les secteurs logistiques sont concernés, celui de la grande
distribution, à dominante alimentaire, dont la fluidité de la logistique est
déterminante dans la chaîne de la valeur en est le premier utilisateur. Selon la
presse spécialisée et les éditeurs de solutions, qui sont deux acteurs
déterminants dans la construction sociale de ce marché, le VP conduit
132
Management des Technologies Organisationnelles : Journées d’Etude 2009
simultanément à augmenter la productivité (de l’ordre de 15 %), la qualité
(diminution des erreurs de picking) et l’ergonomie, dans la mesure où il libère les
mains du préparateur et permet un meilleur repérage dans l’espace. Il nous
paraît alors nécessaire d’apporter un contrepoint à l’argumentation commerciale
à destination des managers, en observant les conséquences de son usage sur les
pratiques du travail des personnels concernés. Une intervention dans une base
logistique du secteur de la grande distribution nous a permis d’opérer des
observations du point de vue des acteurs impliqués dans l’usage (2007-2008).
Mais relativement à d’autres travaux, nos observations nous conduisent à
considérer que le VP est représentatif d’un modèle de travail caractérisé par
l’hyper-rationalisation organisationnelle et technique. En cela, nous souhaiterions
renforcer l’hypothèse de l’émergence de nouvelles formes de rationalisation,
permises aujourd’hui par l’usage de nouvelles technologies. C’est ce que nous
montrerons dans une première partie. Nous mettrons en évidence, dans une
seconde partie, les effets négatifs du VP sur les conditions de travail pour faire
contrepoint aux effets positifs avancés par l’argumentation commerciale. Plus
radicalement, nous montrerons dans une troisième partie que le VP peut aussi
avoir des effets négatifs sur la performance. Dans chacune des parties, nous
mobiliserons des éléments issus de l’analyse factuelle à partir de nos
observations et des modèles d’interprétations de ces données mobilisant des
éléments de quatre disciplines : ergonomie, sociologie, psychologie et
physiologie.
Sans prétendre conclure à partir du seul cas observé, notre contribution a
pour intention de compléter la littérature sur le VP par des mises en gardes
quant à son usage et ses dérives possibles, tant en matière de conditions de
travail que d’accroissement de la productivité réelle.
UN « NOUVEAU » MODELE D’ORGANISATION ?
Le volet empirique de nos travaux s’appuie en partie sur une intervention
réalisée pour une plate-forme logistique pilote équipée du VP et souhaitant,
conjointement avec les instances représentatives du personnel, faire une analyse
des usages de la technologie, avant d’envisager un déploiement national. Les
objectifs de ce projet VP répondaient bien aux trois objectifs précités : améliorer
productivité, qualité et ergonomie de l’activité de préparation de commandes.
Dans la phase d’analyse détaillée des situations de travail, et après avoir validé
avec le comité de pilotage l’hypothèse d’effets en matière de pénibilité physique
liée à une augmentation de la cadence, nous avons analysé une chronique
d’activité de 30 mn d’un préparateur de commande équipé du voice picking. Il
s’agit de la réalisation d’une commande en secteur conserves. Le préparateur
Communications MTO’2009
133
reçoit les ordres de picking par la vocale, et se déplace de façon linéaire avec
son transcombi d’un hall à l’autre, filme sa palette à deux reprises avant de
lancer l’impression des listings. Ces observations permettent de révéler plusieurs
éléments qui caractérisent ce que nous appellerons un mode d’hyper
rationalisation du processus organisationnel et technique dans lequel s’inscrit
l’opérateur observé et auquel il participe :
Figure 1 : Chronique de 30 mn d’activité d’un préparateur pour
constituer une commande
L’activité est extrêmement rythmée, avec un temps de cycle très court de
l’ordre de 14 secondes en moyenne depuis la réception de l’instruction jusqu’à la
suivante. Le préparateur passe de la conduite, à la descente du transcombi, à la
prise d’un colis, à son chargement sur palette, puis à la remontée sur le
transcombi en 14 s. Le séquencement entre chaque action est extrêmement
rapide et répétitif, de l’ordre d’une poignée de secondes.
On observe aussi l’importance du nombre de « prises unitaires » dans la
mesure où le regroupement de prise de colis n’est plus possible. En effet, tant
que le préparateur n’a pas confirmé la prise de colis en cours, il n’aura pas accès
à l’information lui permettant la prise du colis suivant. Cette impossibilité de
pouvoir anticiper et organiser son activité est révélée également dans cette
chronique au regard du nombre de montées et descentes (78 au total) du
transpalette effectuées, alors que nombreux sont les colis qui se situent à
proximité les uns des autres. Mais, ne pouvant plus organiser son activité par
des regroupements de tâches, le préparateur anticipe l’ordre suivant en montant
sur son transpalette, même si c’est pour le déplacer de quelques centimètres. Le
nombre accru de montées – descentes du transpalette rythmées par la voix
134
Management des Technologies Organisationnelles : Journées d’Etude 2009
augmente les risques de glissades et de chutes. L’effet « travail main libre » est
probablement négativement compensé.
La part des aléas est importante. Celle-ci augmente d’autant la pénibilité
mentale dans la mesure où l’aléa est vécu comme une perte de temps subie, à la
différence des temps de régulation, de prise de souffle, de pauses, décidées par
le préparateur. Ici, les aléas sont essentiellement liés aux dysfonctionnements
des dispositifs techniques, y compris du système vocal, au matériel et aux
produits manquants. Les multiples défauts du système vocal ne peuvent pas être
résolus définitivement au fur et à mesure qu’ils se présentent. Les préparateurs
doivent alors « gérer » au mieux ces défauts récurrents dans l’attente de
modifications éventuelles.
En définitive, dans ce cas précis, l’introduction d’une nouvelle technologie
apparaît comme l’élément structurant d’une transformation des activités de
travail. Dès lors, l’analyse de l’activité des préparateurs de commande permet de
mettre en évidence certaines caractéristiques du modèle organisationnel en
présence.
L’introduction de cette technologie suppose une certaine conception du
travail et de l’individu au travail. En visant une rationalité absolue, cela revient à
remplacer des méthodes empiriques d’organisation, qui privilégient l’adhésion
des individus au travail comme fondement à leur implication, par des principes
scientifiquement organisés. Comme le démontre l’activité réelle des
préparateurs, en découle une division du travail en éléments simples qui
s’enchaînent, impliquant :
• une prescription poussée de l’activité de travail : chaque tâche est
ordonnée par un système technique qui réduit les marges de manœuvre
et n’autorise pas de marges de négociation, ou de façon marginale par
des stratégies de contournement. Cette définition des opérations en
amont est doublée d’un système de contrôle en aval.
• un séquencement d’opérations successives à réaliser : chaque nouvelle
tâche nécessite l’achèvement de la précédente.
• une spécialisation du travail par la limitation de la variabilité des tâches :
l’analyse des processus met en évidence un nombre de tâches très
limité en raison du partage du travail entre l’homme et la machine.
• une dissociation du faire et du savoir, c’est-à-dire une dissociation de ce
qui relève de l’activité de manutention (individu) de ce qui correspond à
l’activité de préparation (machine). Elle dépossède incontestablement le
savoir ouvrier.
Ces évolutions peuvent être considérées d’inspiration taylorienne, car elles
mobilisent l’ensemble de ses principes fondateurs que sont la spécialisation du
Communications MTO’2009
135
travail, l’allocation et l’imposition des temps de travail, la formalisation des
procédés et du contenu du travail et le développement des dispositifs externes
de contrôle de travail. Il ne s’agit plus uniquement d’allouer des temps pour
effectuer les opérations de travail mais d’en décrire, à travers cette technologie,
le contenu. Elles comprennent une volonté nette de structurer les activités de
travail, en définissant les décisions à prendre et les actions à mener, mais aussi
de normaliser les comportements en imposant les moyens qui doivent être
utilisés pour y parvenir. Elles visent précisément la routinisation voire la
robotisation des tâches et des comportements et apparaissent comme des
réponses adaptées en théorie puisqu’elles sont un moyen de contrôler et de
verrouiller les pratiques de travail. Elles donnent le sentiment de réduire les
incertitudes et de pouvoir prétendre réduire la prise de risque.
C’est donc une certaine représentation du travail qui est mobilisée, au sens
d’une « opération », tel que le définit P. Zarifian. Selon lui, cette représentation
du travail est celle d’« une forme objectivée que l’on peut décrire, mettre en
forme, structurer, organiser, indépendamment de la personne qui réalise cette
activité » [2]. Cette forme de rationalisation des activités de travail renoue avec
la conception traditionnelle du travail au sein des secteurs de production et se
présente, par ailleurs, comme novatrice parce qu’elle est la conséquence de
l’application d’une nouvelle technologie.
Si ces évolutions sont d’inspiration taylorienne, elles n’autorisent pas, pour
autant, à conclure rapidement à l’émergence d’un modèle néo-taylorien dans la
mesure où elles interviennent dans un contexte socio-économique avec des
enjeux différents, plus nombreux et contradictoires. Dans ce cas, les objectifs ne
sont pas uniquement productivistes. Comptent également des critères de qualité
et de diversité et de délais, rendant plus complexes les situations de travail.
En outre, comme le rappelle P. Zarifian [3], le taylorisme ne demande en rien
aux salariés d’adhérer aux finalités de l’entreprise. Or aujourd’hui, l’implication,
au sens du dépassement de la relation contractuelle qui suppose un engagement
subjectif et se caractérise par un appel à la responsabilité et l’autonomie, tend à
s’étendre à toutes les catégories de travailleurs (des cadres aux ouvriers). C’est
d’ailleurs là, toute l’ambiguïté d’un système associant des structures et des
discours dont les rationalités sont antagonistes.
Pour ces deux raisons au moins, il n’est pas permis de parler de néotaylorisme sous peine de dissimuler des évolutions substantielles dans les
modèles organisationnels actuels qui posent des questions à la fois sur les
conditions de travail et sur la performance de l’entreprise.
136
Management des Technologies Organisationnelles : Journées d’Etude 2009
LES EFFETS SUR LES CONDITIONS DE TRAVAIL ET LA SANTE
Nous souhaiterions mettre en évidence de façon factuelle les nouvelles
contraintes sociales et humaines induites par un projet centré sur l’implantation
technique au détriment d’une orientation par l’usage. Les effets observés sur les
conditions de travail montrent, parfois de de façon extrême, les situations de
travail auxquelles peut conduire l’hyper rationalisation.
L’intensification du travail et l’augmentation de la pénibilité physique et mentale
Le préparateur est depuis longtemps reconnu comme potentiellement «
exposé » aux risques liés aux ports de charges répétés, aux postures difficiles,
mais aussi aux défaillances et aléas qui peuvent contraindre l’activité (chutes et
bris de colis, rupture de film pendant filmage, ...). Avec le guidage vocal, la
pénibilité physique demeure importante dans la mesure où l’on réalise rarement
les aménagements physiques nécessaires comme une mise à hauteur des
palettes.
Dans le cadre de notre intervention, nous avons pu mettre en évidence que,
dans le contexte d’une activité déjà fortement exposée aux facteurs de pénibilité
physique, augmenter la productivité du magasin par le voice picking passe par
un double mouvement de standardisation et de simplification de l’activité du
préparateur sans opérer d’aménagement physique des situations de travail. Les
gains de productivité sont obtenus par la réduction du temps de cycle et
l’augmentation du nombre de colis portés par jour, qui vont encore accroître les
facteurs de pénibilité physique et l’exposition aux risques. À ce titre, l’utilisation
d’un histogramme décalé [4] a montré que le renouvellement de la population
des préparateurs sur le site avant installation du VP s’opère en 5 années
seulement. Le préparateur ne se maintient pas dans l’emploi.
Le guidage vocal va donc agir potentiellement sur cette usure professionnelle,
à la fois du point de vue de la pénibilité physique, mais également du point de
vue de la pénibilité mentale. La pénibilité mentale est liée à plusieurs facteurs :
la crainte de ne pas atteindre les quotas, la qualité requise et, plus
généralement, à ce que les préparateurs appellent « la routine ». Pour eux,
cette notion renvoie à la répétitivité des tâches d’exécution, des procédures, des
dysfonctionnements qui retardent leur travail dans un contexte où les marges
d’initiatives sont réduites.
La déqualification de la tâche et l’arasement du savoir-faire professionnel
Il est souvent difficile d’objectiver une évolution négative en matière de
mobilisation des fonctions cognitives. Pour ce faire, nous avons mobilisé l’analyse
de l’activité couplée à une formalisation issue du monde de l’ingénieur et du
conseil en organisation : le logigramme d’activité. Partant de l’activité et du
Communications MTO’2009
137
diagramme d’enchaînement des dialogues entre préparateurs et vocale (en tant
qu’artefact), nous avons reconstitué un processus de réalisation de l’activité et
mis en évidence les activités d’arbitrage ou de choix représentés par un losange
(figure 2). Pour l’exposé présent, nous ne nous intéresserons pas au contenu
même des activités (difficilement lisible du fait des contraintes de format), mais à
l’intérêt de passer par cette forme de représentation pour objectiver le nombre
d’activités d’arbitrages (losange) et leur répartition entre l’homme et le système.
Le nombre très limité de losanges côté préparateur révèle un processus
fortement standardisé qui laisse peu de place à la prise d’initiative et au travail
d’organisation. A ce niveau de rationalisation de la tâche, on peut parler d’un
effet d’arasement des savoir-faire dans la mesure où les marges de manœuvre
sont explicitement exclues du processus, de même que la mobilisation des
fonctions cognitives pour anticiper, organiser, et choisir. Ainsi, le préparateur ne
peut plus organiser la réalisation d’une « palette bien faite » , réunir des masses
pour mieux la stabiliser, organiser ses déplacements pour prendre en une fois
plusieurs colis rangés à proximité, réguler avec les caristes pour anticiper une
rupture de stock, etc.
Figure 2 : logigramme d’activité d’une préparation de commande en 3 phases,
avec activités du préparateur (à gauche) et de l’artefact (à droite)
En opposition à une conception du travail tel un « événement » au sens de P.
Zarifian [5], l’introduction de cette technologie prive le préparateur de son
savoir-faire professionnel, et conduit à une déqualification de sa tâche par un
appauvrissement du travail de préparation, d’anticipation et d’arbitrage.
L’individu est considéré comme interchangeable. Ces activités sont non
seulement médiatisées mais également exécutées par la machine, renforçant les
138
Management des Technologies Organisationnelles : Journées d’Etude 2009
caractères traditionnels des « anciens » modèles organisationnels décrits
notamment par P. Veltz et P. Zarifian [6] : « La définition analytique des
opérations repose non seulement sur un découpage fin en sous - opérations,
structurées en gammes opératoires par le bureau des méthodes, mais aussi plus
fondamentalement, sur une procédure sociale et cognitive d’objectivation de
l’activité. Le travail lui-même est traité comme un objet, séparable des personnes
qui le réalisent – ces personnes étant des agents « instructibles » de réalisation
efficiente de ces opérations, tel l’ouvrier moyen de Taylor – et donc formalisable
sous une forme abstraite qui permet de le pré - organiser de manière logique
avant la mise en action en atelier ».
Cette évolution soulève donc au moins deux niveaux de questionnement :
• Dans la lignée des travaux de E. Loarer [7], il est possible de souligner
un appauvrissement et un potentiel vieillissement prématuré des
ressources cognitives. Cet auteur démontre qu’il existe un lien entre
l’activité de travail et l’évolution des ressources cognitives des individus.
Plus précisément, on observe une spécialisation cognitive progressive.
Par exemple, à aptitudes initiales équivalentes, la capacité à résoudre
des problèmes logiques ou la capacité d’attention sélective (maintenir
l’attention sur des tâches répétitives) progressent différemment en
fonction du poste tenu.
• Dans la lignée des travaux de Y. Clot [8], il est possible de s’interroger
sur les effets sur la santé lorsque l’on sait que cette dernière repose sur
le sentiment de porter la responsabilité de ses actes. Or, dans cette
situation, on crée de fait les conditions d’une amputation du pouvoir
d’agir. C’est finalement du côté de l’artefact que se trouvent les activités
qui pourraient favoriser l’engagement subjectif. C’est lui qui ordonnance
l’activité, relance le préparateur en cas de produits manquants pour
qu’ils ne soient pas oubliés dans la commande, transmet l’information
d’un manquant aux caristes.
Mais quel que soit le niveau élevé de contraintes imposées par le système, les
travaux de la physiologie montrent que le cerveau « est une machine proactive
qui anticipe les conséquences de ses mouvements et de ceux du monde » [9].
Aussi, plus le système est contraint et plus l’individu doit mobiliser une activité
subjective pour réprimer cette activité cognitive spontanée du cerveau..
Une entrave au consensus social
Nous avons évoqué précédemment que le système technique se charge
désormais de faire circuler l’information entre préparateur et cariste, médiatisant
Communications MTO’2009
139
ainsi leurs relations fonctionnelles ainsi que la régulation de leurs activités. Mais
on constate aussi que la vocale induit une médiatisation de l’autorité et de la
prescription dans la mesure où la communication entre préparateurs et chefs
d’équipes s’est largement dégradée. Si les entretiens avec les préparateurs
montrent une relation de confiance avec les chefs d’équipes (issus du métier de
préparateur), ils révèlent néanmoins que les réunions d’équipes n’existent
presque plus : on ne parle plus du travail, alors même que celui-ci est en pleine
mutation depuis la mise en place du guidage vocal.
L’analyse de l’activité des chefs d’équipes montrera que celle-ci est passée du
soutien direct aux équipes à un management à distance sur la base des
reportings édités en temps réel par le progiciel de gestion couplé à la vocale. Par
ailleurs, le voice picking met fin à l’étape de « dispatching » des commandes,
autrefois réalisé par un collaborateur et qui constituait un espace de régulation
important. L’un des premiers effets de l’intervention ergonomique sera la mise
en place d’espaces de discussion et d’accord sur le travail tous les matins entre
chefs d’équipes préparateurs et caristes.
L’accord contribue à rendre supportable une situation. Ici, l’échange, la
négociation et la confiance se voient remplacés par une standardisation des
interactions techniques et donc relationnelles [10]. Or, pour les rendre
supportables, les décisions doivent résulter d’un échange social producteur d’un
consensus de composition. Elles sont ainsi contextuelles et personnalisées et
peuvent faire l’objet d’une adhésion. En effet, « la négociation, avec son
donnant-donnant et ses discussions contradictoires est le meilleur garant de la
légitimité d’une solution. Ce qui définit une solution comme juste et bonne, c’est
qu’elle a été adoptée après négociation » [11].
LES EFFETS A NUANCER SUR LA PERFORMANCE ORGANISATIONNELLE
En plus des nouvelles contraintes sociales et humaines induites par le VP, on
peut s’interroger sur l’efficacité d’un système inflexible et producteur d’effets
pervers sur la performance de l’organisation. En effet, si l’objectif d’une
organisation équipée du VP est bien une amélioration de la productivité et de la
qualité, son caractère contraignant, décrit précédemment, induit des effets
contre - performants.
La présence et le rôle des contournements d’usage
L’analyse de l’activité met en évidence des contournements d’usages, des
catachrèses [12] significatives du besoin du préparateur de reprendre la main
sur le système. Par exemple, la présence de papier sur le transcombi révèle une
140
Management des Technologies Organisationnelles : Journées d’Etude 2009
astuce mise en place pour contourner le système lors de l’apparition d’un
manquant et s’exonérer des relances du système, s’exonérer également d’une
situation de dépendance à l’information détenue par celui-ci. En notant sur un
papier les codes liés à un produit manquant (dont le code détrompeur inscrit sur
le rack correspondant), le préparateur peut librement lui dire qu’il a ou non
chargé le produit, et décider de lui-même quand revenir récupérer le produit
manquant. Plusieurs effets négatifs sont induits par ce contournement ; du point
de vue de l’approvisionnement, cela ne permet plus l’information du cariste (qui
passe désormais par le système) et augmente donc le risque de rupture de
stocks ; du point de vue de la qualité, le préparateur peut préférer laisser partir
une palette avec un produit manquant pour pouvoir passer plus vite à la
commande suivante sans avoir à attendre l’arrivée du produit manquant.
Face à un système contraint qui empêche, on va mobiliser son activité pour
empêcher ce qui s’élève spontanément en termes d’activité cognitive et de
mobilisation subjective. Mais cette situation a ses limites. Cette dynamique
psychique va aussi se réinvestir dans des biais détournés comme la catachrèse
qui traduit une volonté du préparateur de reprendre la main sur le système.
Comme indiqué en partie 1, il peut également saisir de maigres espaces
d’anticipation et remonter sur le transcombi avant d’avoir la localisation suivante
: mouvement qui est signe d’une tension vers l’avenir (cit Berthoz). Mais cette
anticipation suivie d’un mouvement systématique de remonter, conduite et
redescente du transcombi (parfois pour 1 mètre parcouru) augmente encore le
risque de chute et n’optimise pas les déplacements.
Enfin, pour trouver un espace de développement dans le travail, il faut
également pouvoir y mettre de soi, bien que la rigidité du VP rappelle sans cesse
au salarié que son travail ne lui appartient pas. Face à cette contradiction, les
catachrèses observées sont vraisemblablement à comprendre au sens d’une ruse
des préparateurs pour défendre et construire leur santé (P.Davezies, A.Deveaux
et C.Torres).
La modification de l’ordonnancement et son effet sur la coopération
Le voice picking impose un dimensionnement maximum de la commande
(deux palettes), alors qu’auparavant le préparateur recevait un ordre de
commande complet concernant un magasin (jusqu'à 12 palettes), ce qui lui
permettait d’organiser son activité en conséquence.
Une commande complète présentait l’avantage d’être composée de sousensembles favorables à l’atteinte d’une productivité (grand volume unitaire d’un
seul produit) et défavorables (nombreux colis unitaires souvent présents en fin
de commande). Une commande de magasin est maintenant scindée en lots de
Communications MTO’2009
141
commandes de 2 palettes maximum qui sont répartis de façon aléatoire vers les
préparateurs (principe d’équité mis en avant face à un dispaching qui pouvait
induire du favoritisme). Mais, là encore, une stratégie de contournement consiste
à observer la nature des commandes récupérées par ses collègues et éviter de
se connecter à la vocale au moment où le risque d’obtenir une fin de commande
(avec de nombreux colis unitaires) est important. Cette stratégie qui, du point
de vue de la santé, permet de trouver un espace d’anticipation, va
progressivement nuire à la coopération, en installant un climat de méfiance.
Du point de vue des coûts de transaction, ce nouvel ordonnancement
augmente le nombre de fois où le préparateur doit passer à l’étape d’impression
des étiquettes, à chaque fin de commande, donc toutes les 2 palettes. Or, cette
étape est source de nombreux aléas liés au dysfonctionnement des imprimantes.
En cas de panne de l’une, on peut se déporter vers les autres. La perte de
temps est conséquente (cf. chronique d’activité, 15 % du temps) et pourrait être
réduite si le préparateur, dans une logique de coopération, signalait
immédiatement le dysfonctionnement au chef d’équipe. Malheureusement, il est
désormais exceptionnel qu’un préparateur prenne la minute nécessaire pour
avertir celui-ci et éviter au fil de l’eau que toutes les imprimantes ne
dysfonctionnent, car moins nombreuses et sur-sollicitées. En d’autres termes,
ces effets sont suscités par le système. Cette forme de rationalisation mobilise
une rationalité instrumentale qui atteint son paroxysme et, ce faisant, produit
des effets contre-productifs.
CONCLUSION
Ce processus de rationalisation procède d’un certain technicisme. Selon la
définition qu’en donne J. Habermas [13], le technicisme fait référence à une
volonté de « faire fonctionner le savoir scientifique et plus encore la technique
qui en est l’application en tant qu’idéologie et en attendre des solutions pour la
totalité des problèmes qui se posent ». En l’espèce, la technique, en tant que
modèle structuré, rationnel, avec tout ce qu’il suppose de rigueur, devient un
modèle à transposer dans les différentes sphères de l’entreprise : les modes de
fonctionnement, les pratiques de travail, les modes d’expression. L’auteur
souligne également que le propre du technicisme est de se présenter comme
étant sans alternative.
Dès lors, l’introduction de cette nouvelle technologie et l’organisation du
travail qui en découle apparaissent en rupture avec les modèles organisationnels
qui émergent dans les années 1990, fondés sur l’implication et l’autonomie. Le
mode de coordination majeur des activités n’est pas l’ajustement mutuel mais
bien une standardisation des activités de travail par la technologie. Pour autant,
142
Management des Technologies Organisationnelles : Journées d’Etude 2009
nous faisons l’hypothèse qu’il n’est pas possible non plus de parler de taylorisme
en raison notamment :
• de la diversité des enjeux économiques (productivité, qualité, etc.)
auxquels ce processus de rationalisation cherche à faire face.
• de la nature des relations hiérarchiques (médiatisation de l’autorité par
l’outil qui donne le sentiment d’objectiver, mais qui, en fait, déconnecte
les prescriptions de la réalité des situations vécues).
• et du développement d’injonctions contradictoires (entre, d’une part, le
discours de l’implication et, d’autre part, la dépossession du savoir-faire
et l’élimination des tâches de réflexion par exemple).
Selon nous, parler de taylorisme aurait pour effet de dissimuler que, plus que
la pénibilité physique, ces évolutions font de la pénibilité mentale l’enjeu majeur.
Enfin, à travers ce cas, on voit bien l’intérêt d’une approche interdisciplinaire
pour mesurer l’ampleur des changements occasionnés par l’introduction de cette
nouvelle technologie.
NOTES
[1]
Le guidage vocal consiste à équiper d’un casque (écouteur et micro) le préparateur
de commande afin qu’il puisse recevoir directement, via une voix de synthèse, les
ordres de commandes à réaliser, et de son côté, confirmer au système sa position
par un code détrompeur et valider les chargements réalisés, via un système de
reconnaissance vocale.
[2]
Zarifian (1995), p 12.
[3]
Zarifian, ibid.
[4]
Comparaison de la pyramide des âges actuelle avec celle de la population de 2002
vieillie artificiellement de 5 années.
[5]
C’est-à-dire comme ponctué de circonstances, de « situations auxquelles les acteurs
sont capables de donner un sens, non pas défini une fois pour toutes, mais relatif
aux finalités poursuivies et aux arbitrages entre ces finalités », Zarifian (1995).
[6]
Veltz, Zarfian (1993).
[7]
Loarer (2008).
[8]
Clot (2008).
[9]
Davezies, Devaux, Torres (2006).
[10]
Luhmann (2006), p. 17 : il ne faut pas « s’attendre à ce que le progrès de la
civilisation technico-scientifique puisse permettre un contrôle des événements et
remplacer la confiance en tant que mécanisme social par une maîtrise des choses
qui la rendrait superflue. On devra plutôt prendre en compte le fait qu’il faudra de
plus en plus faire appel à la confiance afin que l’on puisse supporter la complexité
de l’avenir engendrée par la technique ».
[11]
Reynaud (1997), p 112.
Communications MTO’2009
143
[12]
Terme emprunté à JM Faverge (1970). Il sert à désigner l’utilisation informelle d’un
outil formel ou l’élaboration d’un outil informel dans les situations de travail. La
catachrèse ou contournement d’usage peut permettre une construction de
ressources pour l’action du point de vue de l’usager. C’est le cas ici dans la mesure
où l’usage détourné du système avec le papier permet de redévelopper de
l’autonomie.
[13]
Habermas (1968).
REFERENCES BIBLIOGRAPHIQUES
Berthoz A. (1997), Le sens du mouvement, Paris, Odile Jacob.
Clot Y. (2008), Travail et pouvoir d’agir, Paris, Le travail humain.
Davezies. P., Devaux. A., Torres. C., (2006), Repères pour une clinique médicale du travail,
Archives des Maladies Professionnelles et de l’environnement, pp.119-125.
Habermas J. (1968), La technique et la science comme idéologie, Mesnil-sur-l’Estée, Gallimard,
1968
Loarer E. (2008), Communication au Comité scientifique Gestion des Ages, ANACT.
Luhmann N. (2006), La confiance, Paris, Economica.
Reynaud J.D. (1997), Les règles du jeu, Armand Colin.
Veltz P., Zarifian P. (1993), « Vers de nouveaux modèles d’organisation ? », Sociologie du
travail, N°1/93.
Zarifian P. (1995), Le travail et l’événement, Paris, L’harmattan.
144
Management des Technologies Organisationnelles : Journées d’Etude 2009
Communications MTO’2009
145
Comment aligner l’outil de gestion
d’une PME sur sa stratégie ?
Marie-Françoise COMBAZ
Consultante
MFC Consultant / Clapiers
RESUME
La mise en œuvre d’un nouvel outil informatique de gestion dans une PME
doit servir la stratégie de l’entreprise qui en reste le fil conducteur. Cependant,
de nombreux projets sont abordés selon un axe prioritaire comme la description
des processus, le travail sur ce qui est perçu comme les spécificités de
l’entreprise, la description des besoins des utilisateurs. Ces méthodes permettent
d’entrer dans le vif du sujet, en particulier dans les cas où la stratégie de la
direction n’est pas totalement formalisée, parfois même mal définie, et où le
besoin de nouveaux outils de gestion semble évident d’un point de vue
opérationnel. Comment, dans ces cas, intégrer malgré tout une dimension
stratégique au projet ?
A partir de l’analyse de cas réels, nous proposerons une piste pour aborder
de manière pragmatique un projet tout en l’insérant dans la stratégie de
l’entreprise.
INTRODUCTION
Le logiciel de gestion, outil au service de la stratégie
La première hypothèse retenue dans la réflexion présentée est que
l’alignement stratégique doit être le fil conducteur d’un projet d’évolution de
l’outil informatique de gestion d’une entreprise.
146
Management des Technologies Organisationnelles : Journées d’Etude 2009
L’alignement stratégique de l’ERP*, et plus largement du SI*, est une
condition indispensable pour pérenniser l’investissement que représente le
projet, et le transformer en véritable outil au service de la stratégie. Décliner la
stratégie* de l’entreprise permet de prendre des décisions concernant les
orientations du SI, d’avoir une vision globale des conséquences sur la gestion et
l’organisation de l’entreprise, de caractériser les priorités.
Il existe un autre lien entre stratégie et SI. Une définition pragmatique de la
stratégie d’une entreprise, c’est « l’ensemble des décisions » qui :
• Détermine les objectifs de l’entreprise
• Engendre les principaux plans pour les atteindre
• Définit les domaines d’activité
• Induit les choix d’organisation
• Fixe les contributions de l’entreprise à son environnement »
La pratique s’est totalement répandue d’associer à des objectifs des
indicateurs qui permettent de suivre l’activité et vérifier qu’on se rapproche bien
des objectifs fixés. Or, un logiciel de gestion manipule des données à partir
desquelles ont peut construire des indicateurs chiffrés de l’activité, il serait
dommage de s’en priver. Enfin, élaborer une stratégie, l’exprimer et la traduire
en objectifs, indicateurs, projets, cela nécessite une réflexion approfondie et cela
prend du temps.
Première particularité de la PME* : projet complexe et limite des moyens
Comme pour toute entreprise, le SI de la PME doit lui permettre de mieux
gérer l’ensemble de ses activités et ses relations avec les partenaires externes.
Aller vers un système intégré s’appuyant sur une base de données unique et
accessible pour tous est un argument majeur d’efficacité.
Il en résulte qu’un projet d’évolution du SI travaille sur un système
complexe* : multiplicité des acteurs, multiplicité des champs d’application,
multiplicité des informations, multiplicité des enjeux, multiplicité des contraintes,
approche qui doit être à la fois organisationnelle, technique, économique et
sociale, interférences multiples entre ces données et présence systématique
d’incompatibilités.
Parallèlement, l’équipe qui pilote la PME est souvent directement impliquée
dans l’opérationnel, elle ne dispose pas toujours du temps et de la disponibilité
d’esprit nécessaires pour prendre du recul par rapport à l’activité, élaborer une
stratégie sur le moyen ou long terme et la décliner en projets structurés.
Communications MTO’2009
147
L’analyse de plusieurs dizaines de demandes d’intervention en PME pour la
mise en place d’outils de gestion, soit en tant que conseil, soit en tant qu’expert
auprès des DRIRE dans le cadre de programmes d’accompagnement des projets
de PME, montre que majoritairement, le besoin opérationnel est le moteur, la
priorité annoncée, parfois pour un délai très court. Ce n’est généralement que
dans un second temps que le besoin de servir la stratégie est abordé,
principalement quand la question est posée de l’extérieur.
Deuxième particularité de la PME : une stratégie d’adaptation
Si certaines directions de PME ont une vision claire de leur stratégie, nombre
de PME, et en particulier de micro-entreprise* ont un métier, et une obligation
de survivre dans un marché concurrentiel, mouvant en particulier en temps de
crise, où l’innovation est un moteur important de la croissance. Leur stratégie est
en partie imposée par leur environnement, les décisions concernent souvent des
ajustements par rapport à la pratique précédente.
Si une stratégie à long terme ne peut être décrite, c’est le besoin
d’adaptation permanente qui constitue une caractéristique à intégrer dans la
construction d’un SI.
Comment intégrer la vision stratégique à un projet SI dans une petite PME ?
Intégrer la vision stratégique est à la fois indispensable et une nécessité
évidente du fait même de l’utilisation possible des informations gérées.
Parallèlement, cette approche ne semble pas prioritaire à la direction d’une petite
PME, souvent préoccupée par l’opérationnel, soumise aux aléas du marché,
disposant de peu de disponibilité de temps, d’esprit et de moyens financiers pour
aborder le projet.
Quelles approches sont-elles donc possibles pour que le SI soit pérenne et
que le projet dans son ensemble non seulement serve la stratégie, mais
permette si possible de la préciser, et en soit une première application ?
Ce sont des questions que peuvent se poser le dirigeant, le DSI*, mais aussi
le consultant appelé pour un accompagnement au pilotage du projet.
CONSTRUIRE UN PROJET SI DE GESTION EN PME : THEORIE OU PRAGMATISME ?
Rédiger un cahier des charges
L’objectif est de définir parfaitement le besoin de l’entreprise et le cadre dans
lequel il s’insère (objectifs, contraintes, moyens) afin de construire ensuite une
solution réellement adaptée, optimisant la création de valeur.
148
Management des Technologies Organisationnelles : Journées d’Etude 2009
La méthode préconisée pour la rédaction d’un cahier des charges fonctionnel
s’applique aussi bien à la réalisation d’une nouvelle application informatique
qu’au choix d’outils standards et paramétrables du marché. L’étude des besoins
donnera lieu à un cahier des charges fonctionnel, qui se distingue d’un cahier
des spécifications techniques en cela qu’il n’augure pas des solutions qui
pourront être choisies : il présente les besoins du point de vue de l’utilisateur. La
norme NF X50-151 revue en septembre 2007 qui présente les conditions et
contenus d’un cahier des charges fonctionnel intègre la « définition des
éléments stratégiques » au même niveau que la définition globale et la
consolidation des besoins. Cependant, même si les cahiers des charges se
présentant comme des listes de fonctions ont quasiment disparu, les cahiers des
charges intègrent rarement l’ensemble des aspects proposés par la norme. Les
raisons en sont certainement le manque de temps, de moyens et de
compétences.
Un autre aspect est à prendre en compte : l’évolutivité de la demande, très
fréquente dans un projet mené par une PME. Nous notons 2 raisons à cela,
complémentaires :
• La demande n’est pas alignée sur des objectifs stratégiques, mais sur un
besoin opérationnel plus facilement lié à des objectifs à court terme qui
évoluent avec la vie de l’entreprise ;
• La méconnaissance (relative, mais fréquente) des possibilités des outils
de gestion proposés sur le marché, qui fait que la réflexion est finalisée
lors de l’étude des solutions proposées en réponse au cahier des
charges.
Aller droit à l’essentiel
Devant ces difficultés, plusieurs méthodes très pragmatiques sont utilisées,
chacune avec son intérêt et ses limites.
Décrire les processus
L’accent est alors mis sur l’aspect organisationnel d’un
renouvellement des outils informatiques de gestion.
projet de
La démarche est intéressante en cela qu’elle permet de poser de nombreuses
questions :
• La description des processus existants doit être complétée par une
étude des améliorations possibles du fait de l’installation de nouveaux
outils informatiques ;
Communications MTO’2009
•
•
149
Décrire un processus, c’est donner un certain nombre d’informations sur
chaque étape : quelles sont les plus pertinentes ?
La démarche favorise une approche transversale, il est alors important
de monter des équipes représentant les différents services et
directement chargés de la réalisation.
La question de l’objectif de chaque processus est en principe présente, mais il
existe cependant un risque de ne pas se poser celle de sa pertinence dans le
cadre d’une évolution globale des processus de l’entreprise, et dans le cadre
d’une stratégie définie.
Analyser les spécificités
Tous les ERP et autres produits associés proposent aujourd’hui des modules
et fonctions semblables dans les grandes lignes et répondant, a-t-on coutume de
dire, à 80% des besoins des entreprises.
Le choix se fait donc sur :
• Le prix,
• La qualité de l’installateur, sa connaissance du métier,
• La capacité à traiter les spécificités
• L’ergonomie, qui doit être adaptée (ou adaptable) au métier et aux
attentes.
On peut donc quasiment formuler la demande uniquement sur ces
spécificités, par exemple sous la forme d’un jeu d’essai. Cette méthode est
intéressante car elle est rapide, et elle ne demande pas un temps de réflexion
important : les personnels sont sollicités principalement pour restituer ce qu’ils
font déjà, avec leurs outils habituels. La solution devra calquer ce
fonctionnement. Dans ce cas, la méthode n’intègre pas obligatoirement une
réflexion sur l’alignement stratégique, elle peut même en détourner le regard.
Maquettage
Cette méthode est issue du Rapid Application Development : elle consiste à
réaliser un prototypage basé sur la définition des écrans souhaités. Elle peut
venir compléter les 2 démarches présentées précédemment.
Le formalisme est très visuel, rapide à comprendre, et permet une implication
forte des futurs utilisateurs qui adopteront sans problème les nouveaux outils
mis à leur disposition puisqu’ils ont participé à la conception.
150
Management des Technologies Organisationnelles : Journées d’Etude 2009
Là encore, la méthode n’intègre pas obligatoirement une réflexion sur
l’alignement stratégique et peut même en détourner le regard.
COMMENT TRADUIRE LA STRATEGIE EN OUTIL DE PILOTAGE ?
La prédominance des budgets
Une analyse de l’utilisation des budgets dans des organisations publiques ou
privées est effectuée par P. Jaulent et M.-A. Quarès : « Aujourd’hui encore, le
management s’effectue principalement à partir du budget idéal dans un monde
où le changement serait un processus lent et progressif, ce qui n’est plus vrai ».
Ils citent plusieurs problèmes liés à cette utilisation du budget comme outil de
pilotage et de suivi :
• « le processus budgétaire gèle un budget de fonctionnement pour
l’année, …
• Le processus budgétaire est beaucoup trop long et consomme trop de
ressources. …
• Le processus budgétaire est essentiellement basé sur des indicateurs
financiers en favorisant la gestion des dépenses (…) au lieu de se
centrer sur ce qui devrait être fait,
• Le processus budgétaire est construit d’un point de vue fonctionnel alors
que les ressources sont consommées par les processus qui enjambent
les frontières fonctionnelles de l’organisation,
• Le budget couvre une période trop courte pour la stratégie … »
La Balanced Scorecard
La Balanced Scorecard a évolué au cours de la deuxième moitié du 20ème
siècle et jusqu’en ce début de 21ème siècle. Cette méthode de référence associe
une carte des priorités stratégiques présentant des objectifs clairs à des
indicateurs associés permettant de mesurer l’avancée vers les objectifs définis.
P. Jaulent et M.-A. Quarès proposent dans leur Modèle Triple Impact de
visualiser et analyser les liens entre les différents niveaux d’objectifs et les
indicateurs associés afin de mettre en évidence la progression du déroulement
de la stratégie et les liens de causalité. Ils proposent de regarder l’effet de la
stratégie proposée en regardant l’impact qu’elle aura : impact immédiat, impact
intermédiaire, impact ultime.
Ces outils demandent de prendre le temps de l’approfondissement, de
l’abstraction, puis de la déclinaison dans les différents métiers de l’entreprise
pour élaborer des plans d’actions, concevoir la mise en œuvre, en suivre
Communications MTO’2009
151
l’avancement et l’orientation. Le SI peut alors prendre sa place dans un
ensemble cohérent … à la fin de la réflexion.
La démarche est très satisfaisante mais une petite PME n’en a généralement
ni le temps, ni les outils et parfois pas les compétences.
Objectifs et indicateurs
Si l’on revient à la définition de la stratégie on pourra dire que la stratégie
s’exprime avant tout par un ou plusieurs objectifs stratégiques, eux-mêmes
déclinés en objectifs opérationnels qui orienteront la construction d’un plan
d’actions.
La définition d’indicateurs permet de caractériser la situation de départ,
préciser la situation d’arrivée souhaitée et, éventuellement, les étapes
intermédiaires.
Les indicateurs peuvent être de différents types (d’efficacité ou d’efficience,
de risque, de mesure de l’impact ou du résultat), mais il est important qu’ils
soient pertinents, c’est à dire qu’ils donnent réellement la mesure de ce que l’on
veut évaluer, et si possible qu’ils permettent de lancer les actions correctives en
cas de dérive. De ce fait, les indicateurs financiers ne sont pas obligatoirement
les plus appropriés.
Le choix des indicateurs est d’autant plus délicat qu’il est important.
Afin de favoriser une réflexion stratégique préalable à un projet SI dans les
PME qui sollicitaient une aide financière pour le mener à bien (procédure ATOUT
LOGIC), l’état a, pendant des années, demandé à la direction de ces PME de
définir 3 objectifs, associés à 3 indicateurs de performance. Afin d’être très
pragmatique, une liste d’objectifs et d’indicateurs associés était proposée.
Notre constatation est contrastée :
• Cette procédure imposée avait le mérite de faire réfléchir à l’objectif
poursuivi avant d’aborder la question de la solution envisagée ;
• Cependant, les objectifs proposés étaient principalement de type
opérationnel (réduire les coûts de revient, réduire les délais de
facturation, diminuer le taux de rebut, …) mélangés à quelques objectifs
plus directement liés à la stratégie (aller vers une certification ISO) ;
• La réflexion était menée avant le début du projet pour l’élaboration du
dossier qui était souvent par le consultant hors mission sans avoir
obligatoirement le temps d’approfondir ;
• Le suivi de ces objectifs et indicateurs n’était pas toujours assurés en
cours et fin de projet.
152
Management des Technologies Organisationnelles : Journées d’Etude 2009
COMMENT PARLER STRATEGIE ?
Quelques exemples riches d’enseignements
Tous les cas étudiés ont été abordés en 2 étapes : une étude de faisabilité
qui a précédé une étape de réalisation du projet d’évolution du SI.
Travailler sur les tableaux de bord
« Un tableau de bord est un document rassemblant des indicateurs
financiers et économiques d'une entreprise » (http://definition.actufinance.fr/).
Une entreprise d’environ 900 personnes souhaite renouveler son SI et le
centrer sur un ERP standard du marché. Deux démarches sont menées en
parallèle :
• La description et une réflexion sur l’optimisation des processus réalisées
directement par le personnel concerné ;
• L’analyse des besoins, et en particulier celui de tableaux de bord pour la
direction.
•
On constate :
• Une forte mobilisation du personnel : pour la première fois semble-t-il,
ce travail réunit des personnels de différents services sur la question de
l’organisation du travail et met l’accent sur la transversalité de certains
processus ; cette approche va permettre d’envisager des solutions
globales nettement plus efficaces ;
• Une grande difficulté à obtenir de la direction les tableaux de bord
souhaités, et parfois même ceux utilisés, visiblement par manque de
temps ;
• Les premières réponses viennent de la direction financière et de la
direction commerciale, mais mettent en évidence une difficulté à
travailler sur une définition commune d’une information aussi essentielle
que le chiffre d’affaire mensuel : là encore, un travail en commun
s’avère nécessaire.
Dans une autre entreprise d’une centaine de personnes, chaque directeur de
service fait la demande d’au moins une dizaine de tableaux de bord. Un travail
important sera fait pour analyser la construction de chacun, et en dégager
l’intérêt et les points communs afin d’en réduire le nombre global. La présence
d’informaticiens dans l’entreprise fait que rapidement, les nouvelles demandes
pleuvent.
Communications MTO’2009
153
Ce phénomène, très habituel, peut être rapproché d’un autre : Tout ERP
propose des dizaines, voire des centaines de tableaux de bord plus ou moins
standards ; or la direction veut créer ses propres tableaux de bord, présentant
les informations (souvent les mêmes que dans les tableaux de bord proposés) de
manière personnalisée.
Il semble que ce soit le reflet des difficultés rencontrées par la Direction pour
prendre le temps de réfléchir aux informations significatives de l’évolution de
l’entreprise, réflexion qui n’a pas toujours été menée à son terme auparavant, et
en même temps de la conscience que travailler sur un tableau de bord, travail
très pragmatique en fait, va l’aider à se poser les bonnes questions et qu’il est
donc souhaitable de faire, enfin, cette démarche d’approfondissement.
Commencer par l’architecture technique, reflet de la
politique générale de communication
Un groupe implanté dans plusieurs pays souhaite renouveler l’ERP du siège et
l’implanter dans d’autres entreprises du groupe.
1er essai : Le consultant réalise une cartographie des processus, Les
employés d’une des unités de production sont très inquiets, estimant que les
spécificités de leur métier ne sont pas prises en compte et que les processus,
décrits de manière très synthétique par le consultant, ne reflètent pas la
complexité des informations qu’ils manipulent et de leur travail. Ils réalisent un
cahier des charges de leurs spécificités. Blocage du projet.
2ème essai : Un autre consultant commence par étudier l’aspect technique
du projet. Pour ce faire, il étudie les communications entre les entreprises du
groupe et leurs partenaires. Automatiquement, se posent les questions sur
l’évolution de ces communications, en lien direct avec la stratégie élaborée par la
direction du groupe.
Le pilotage par une équipe projet « incompétente »
Une association de soins à domicile d’une centaine de personnes souhaite
déployer dans les différents services et établissements le logiciel de gestion
utilisé par les services administratifs, mais disposant de fonctionnalités pour
gérer l’activité métier. La conscience est forte que l’impact sur les personnels
soignants risque d’être important.
La décision est donc prise de mettre l’accent sur la sécurisation des parcours
professionnels des personnels en leur apportant des compétences nécessitées
par l’évolution incontournable des méthodes et outils de gestion de leurs
154
Management des Technologies Organisationnelles : Journées d’Etude 2009
prestations. Une équipe pilote est montée, qui réunit des personnels soignants et
administratifs. Elle sera formée au pilotage du projet.
Le premier sujet abordé en formation est celui de l’alignement stratégique du
projet. Un travail pratique fait ressortir :
• Une liste d’objectifs soit stratégiques, soit opérationnels et des
indicateurs associés ;
• Qu’à partir de ces objectifs, il a été facile de poser la question de leur
signification commune, de l’orientation qu’ils donnaient à la structure ;
• Et que la réponse a parfaitement défini une orientation stratégique sur
le long terme, le projet d’évolution du SI prenant sa place dans une
démarche plus globale.
En fin de formation, les personnels demandent que soit prolongée la
formation afin d’approfondir les notions d’indicateurs (et en particulier apprendre
à les suivre), de risques, et de communication interne et externe sur un projet :
le message est bien passé.
Quelles pistes retenir pour garantir l’alignement stratégique d’un projet SI en
PME ?
Chaque méthode présentée comporte des avantages et inconvénients.
La démarche descendante qui consiste à élaborer une stratégie, puis en
déduire des objectifs opérationnels et indicateurs associés, puis définir les
besoins, puis étudier les moyens à mettre en œuvre est parfois mal perçue, trop
longue, en particulier pour une petite PME, ou à plus forte raison une microentreprise. Ce sentiment est conforté par l’adaptation souvent permanente de la
stratégie à l’environnement qui empêche d’avoir des lignes directrices
« évidentes » rapides à préciser.
Les autres approches offrent une vision partielle du problème, et n’intègrent
pas a priori l’approche stratégique.
Des lignes directrices
Il semble cependant possible de retenir quelques lignes directrices :
• Parler stratégie, c’est avant tout parler objectifs et indicateurs ;
• La stratégie, c’est l’affaire de tous : d’une part parce que son application
aura des conséquences sur le travail de chacun, mais aussi parce que
tout le monde doit y adhérer et comprendre en quoi son travail sert la
stratégie de l’entreprise ; de plus, en particulier dans une petite PME,
Communications MTO’2009
•
•
•
•
155
l’expérience de chacun peut être utile pour construire une stratégie
adaptée et viable ;
Faire évoluer un SI, c’est aborder une multiplicité de questions, il faut à
la fois en avoir conscience mais aussi avoir conscience qu’on ne pourra
tout faire : des choix seront nécessaires ;
La mise en œuvre d’un nouveau SI crée des modifications multiples
dans l’organisation du travail, et préparer le changement impose
d’impliquer les personnels ;
Si l’approche doit souvent répondre rapidement à des soucis d’ordre
opérationnel, il existe de multiples manières d’aborder la question de la
stratégie ;
Et si la stratégie n’est pas explicitement définie, elle est souvent latente,
et des lignes directrices peuvent facilement émerger d’une réflexion bien
menée.
Lors d’un projet d’évolution d’un SI, il semble donc possible d’aborder la
question de la stratégie non seulement avec la direction, mais également avec
des équipes impliquées.
Quelles entrées ?
Elles sont en fait multiples. Dans certains cas, l’approche frontale par la
définition des objectifs peut être comprise, et même être rapide.
Dans d’autres cas, on peut privilégier une approche détournée à condition
d’avoir la volonté de s’appuyer sur une réflexion pour aborder la question des
objectifs à long terme, et resituer les réponses dans le cadre d’une stratégie
générale. Pour cette approche détournée, les points d’entrée sont multiples :
• L’analyse et l’optimisation des processus pose la question de leur
résultat, et de la transversalité du processus ;
• L’analyse des spécificités permet de poser la question de l’intérêt, de la
réalité et de l’avenir des spécificités par rapport à la concurrence ;
• La construction de tableaux de bords pose la question des informations
significatives de l’activité et de son évolution ;
• La construction de l’architecture du SI doit permettre une
communication optimale en interne et avec les partenaires et pose la
question du positionnement sur le marché ;
• La définition de critères de choix de la solution pose la question de ce
qui est essentiel pour les années à venir ;
• Etc.
156
Management des Technologies Organisationnelles : Journées d’Etude 2009
On constate donc que l’essentiel n’est peut-être pas la méthode, les outils
que l’on va utiliser, mais plutôt la conscience et la volonté d’avoir une approche
globale de la définition du SI.
Par où commencer, comment procéder ?
Il semble donc essentiel de construire une méthode adaptée à l’entreprise, à
ses préoccupations, à ses capacités.
Un pré-diagnostic permet :
• D’analyser le contexte :
• la maturité de la réflexion,
• les problèmes opérationnels immédiats,
• l’organisation, les compétences, les jeux de pouvoir, tout ce qui
caractérise la communication interne,
• les disponibilités,
• etc.
• De sélectionner les axes de travail prioritaires et de construire le plan
d’action.
La rédaction d’un cahier des charges fonctionnel qui soit un reflet complet de
la stratégie et intègre le contexte, les enjeux, les moyens, … est parfois difficile à
réaliser dans les délais imposés par le besoin opérationnel. Cela n’a pas
obligatoirement d’importance à condition :
• De considérer le cahier des charges comme un dossier de consultation
pour la recherche des solutions techniques et partenaires ; il intègre les
informations nécessaires à une bonne compréhension par ces derniers ;
il aura une triple fonction :
• construction de la solution,
• chiffrage,
• après d’éventuels compléments, il devient contractuel ;
• De consigner dans un document à usage interne (Schéma Directeur
Informatique et de Communication) l’ensemble des réflexions menées
avec l’entreprise pour situer le projet dans le cadre de sa stratégie, et
l’aider à dérouler son plan d’action au-delà des premières étapes.
La valeur ajoutée du consultant
Dans un projet d’évolution du SI d’une PME, le consultant est souvent
attendu pour :
• L’organisation du projet,
• Un apport méthodologique,
Communications MTO’2009
•
•
157
Une connaissance technique,
La charge de travail qu’il assume.
Au-delà de ces attentes habituelles, on peut se demander si l’apport du
consultant n’est pas bien sûr de savoir construire et accompagner un projet avec
toute la rigueur attendue et répondre aux objectifs fixés, mais également d’aider
l’entreprise à créer une vraie dynamique pour définir sa stratégie et l’appliquer.
Ce qu’on sous-entend peut-être lorsqu’on dit que le consultant « a un regard
extérieur », « aide à prendre du recul ».
CONCLUSION
Pour mener à bien un projet d’évolution du SI, on dispose d’outils, on sait les
passages obligés, mais il est souvent difficile d’aller au bout des questions
soulevées, en particulier en PME ou micro-entreprise. Le sentiment de survoler
des questions importantes est inéluctable car lié à la nécessité d’aller vite malgré
la complexité et la transversalité du projet.
Cependant, un pré-diagnostic doit permettre de caractériser ce qu’est l’enjeu
essentiel du projet et permettre de définir une tactique pour passer par les
passages obligés habituels, mais également pour aborder les questions
essentielles liées à la construction de l’avenir de l’entreprise. Ces questions ne
seront certainement pas totalement approfondies, mais elles doivent être
posées, la réflexion doit être ouverte.
Le consultant en charge d’un projet de renouvellement du SI n’est pas
toujours mandaté pour cette démarche, il peut même savoir qu’elle ne serait pas
souhaitée. S’il est cependant persuadé de son importance, aura-t-il d’autre
solution que d’utiliser la ruse ?
LEXIQUE
DRIRE : Direction Régionale de l’Industrie, de la Recherche et de l’Environnement
DSI : Direction (ou Directeur) des Systèmes d’Information d’une entreprise.
ERP : Outil informatique permettant la gestion informatisée des principales fonctions de gestion
de l’entreprise, en s’appuyant sur une base de données unique garantissant l’unicité des
données et la mise à jour en temps réel.
PME : Petite et Moyenne Entreprise
•
« Les micro, petites ou moyennes entreprises sont définies en fonction de leur effectif
et de leur chiffre d'affaires ou de leur bilan total annuel.
158
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
Une moyenne entreprise est définie comme une entreprise dont l'effectif est inférieur
à 250 personnes et dont le chiffre d'affaires n'excède pas 50 millions d'euros ou dont
le total du bilan annuel n'excède pas 43 millions d'euros.
•
Une petite entreprise est définie comme une entreprise dont l'effectif est inférieur à
50 personnes et dont le chiffre d'affaires ou le total du bilan annuel n'excède pas 10
millions d'euros.
•
Une microentreprise est définie comme une entreprise dont l'effectif est inférieur à 10
personnes et dont le chiffre d'affaires ou le total du bilan annuel n'excède pas 2
millions d'euros. »
•
http://europa.eu/legislation_summaries/enterprise/business_environment/n26026_fr.h
tm
SI : Système d’Information.
•
« Un système d'information () représente l'ensemble des éléments participant à la
gestion, au stockage, au traitement, au transport et à la diffusion de l'information au
sein d'une organisation. »
•
Un S.I est un réseau complexe de relations structurées où interviennent hommes,
machines et procédures qui a pour but d’engendrer des flux ordonnés d’informations
pertinentes provenant de différentes sources et destinées à servir de base aux
décisions » selon Hugues Angot.
•
http://fr.wikipedia.org/wiki/Syst%C3%A8me_d%27information
Stratégie d’entreprise « Pilotage des modifications des relations du système entreprise avec
son environnement et de la frontière de ce système avec ce qui n'est pas lui. » Harry Igor
Ansoff, Corporate strategy, 1965.
Système complexe «A “complex system” is in general any system comprised of a great
number of heterogeneous entities, among which local interactions create multiple levels of
collective structure and organization.» French Roadmap for complex Systems Par : David
Chavalarias le : mar. 03 mars, 2009 - French Roadmap for complex Systems 2008-2009 http://hal.archives-ouvertes.fr/hal-00392486/en/
REFERENCES BILIOGRAPHIQUES
P. Jaulent et M.A. Quarès, Pilotez vos performances, Afnor Editions, 2008, 153 pages.
PM. Riccio, Une approche communicationnelle de projets innovants, Université Montpellier III
Paul Valéry, 2003, 294 pages.
C. Salzman, Informatique : Faut-il encore des cahiers des charges ? – Le management face aux
nouvelles technologies – Avril 1999 – 4 pages.
C. Boisseau, Marketing1stratgie_1108043470913.ppt, 2003/2004.
http://www.u-paris10.fr/26803430/0/fiche___pagelibre/&RH=boisseau_c?RF=boisseau_c
http://www.boutique.afnor.org
F. Mantione, Management et Ruse, http://www.cerom.org/mto_sept_2008/publications/, 2003.
Communications MTO’2009
159
Analyse des conditions permettant
qu’une innovation trouve son usage
dans le cadre de la création
d’entreprise
Marc BIGRET
Consultant
MMV Conseil / Montpellier
RESUME
Partant de l’hypothèse qu’une innovation est réussie lorsqu’elle trouve son
usage, nous avons étudié, dans le cadre de la création d’entreprise à fort
contenu technologique, les conditions conduisant à ce qu’une technologie
organisationnelle pénètre les marchés pour lesquels elle a été développée.
Pour réaliser cette intervention, nous avons procédé à plusieurs études de
cas de création d’entreprise, fondés sur l’émergence de technologies à fort
potentiel. Il est apparu dans chacun des cas étudiés, qu’une technologie
organisationnelle même si elle est aboutie, ne constitue pas une condition
suffisante pour permettre un développement de l’entreprise, dans les conditions
et les délais prévus dans le plan d’affaires initial.
Ainsi, après avoir validé l’intérêt du dispositif technique proposé, l’importance
du couple besoin/fonction a été soulignée, pour en valider le bien-fondé. Il
ressort de cette analyse qu’une proposition du produit/service insuffisamment
adaptée à l’attente du marché (le couple besoin/fonction, donc) conduit à ce que
l’innovation ne trouve pas son positionnement.
L’analyse des situations étudiées a conduit à évaluer la diffusion de
l’Innovation au travers de sa validation commerciale, et à porter un diagnostic
sur la situation, en identifiant les difficultés et les freins rencontrés. Enfin, sur la
base du résultat du diagnostic réalisé, des préconisations sont proposées.
160
Management des Technologies Organisationnelles : Journées d’Etude 2009
INTRODUCTION
L’activité de conseil en entreprise offre une position d’observation particulière
sur la façon dont la création d’entreprise innovante est gérée par son (ses)
créateur(s). Dans cette communication, nous avons voulu mettre à profit le
résultat de ces observations, pour poser le problème de la juste estimation de la
résistance d’un marché à l’adoption d’une technologie organisationnelle
innovante, sur laquelle repose une création d’entreprise. Autrement dit, nous
avons mis en exergue, sur la base de nos observations de terrain, les
opportunités et les freins au développement d’une entreprise créée sur la base
d’une innovation, à contenu organisationnel.
Au delà de la validité du couple besoin/fonction qui doit toujours être vérifié
(adaptation du produit/service proposé à la demande du marché, formulée ou
non), nous avons analysé, au travers de cas concrets, les difficultés particulières
rencontrées par le créateur lorsqu’il décide de promouvoir une technologie
engendrant une perturbation sur le marché auquel elle est destinée.
CADRE THEORIQUE ET METHODOLOGIQUE
Une étude bibliographique nous a permis, dans un premier temps, de définir
le champ dans lequel se positionne notre communication.
Dans un second temps, nous avons conduit deux études de cas de création
de sociétés, développant des technologies organisationnelles. En utilisant une
matrice SWOT (Forces, Faiblesses, Menaces, Opportunités) nous avons réalisé
une analyse qui a conduit à mettre en évidence les opportunités saisies, les
difficultés rencontrées, et les avancées réalisées. Nous avons ensuite formulé des
recommandations, sur la base du diagnostic posé.
REVUE DE LITTERATURE
L’INNOVATION : SOURCE DE PERTURBATIONS
Dans le champ de la technologie, l’OCDE (Organisation de Coopération et de
Développement Economique) définit l’innovation de la façon suivante « On
entend
par
innovation
technologique
de
produit
la
mise
au
point/commercialisation d’un produit plus performant dans le but de fournir au
consommateur des services objectivement nouveaux ou améliorés. Par
innovation technologique de procédé, on entend la mise au point/adoption de
méthodes de production ou de distribution nouvelles ou notablement améliorées.
Elle peut faire intervenir des changements affectant – séparément ou
Communications MTO’2009
161
simultanément – les matériels, les ressources humaines ou les méthodes de
travail ».
Son rôle primordial dans l’économie place l’innovation au centre des
politiques économiques des grands pays industrialisés, car c’est un levier
essentiel de :
• L’indépendance nationale et de la maitrise des grandes filières
technologiques ;
• La croissance économique à long terme.
Les sources de l’innovation sont multiples et largement décrites dans la
littérature. La notion de sérendipité (tiré du terme américain "serendipity") est
souvent citée, car elle constitue un ingrédient de première importance dans le
processus d’innovation. Pasteur, en indiquant que « le hasard ne sourit qu’aux
esprits préparés », en fournissait une excellente définition. En effet, l'innovation
vient souvent des rencontres imprévues entre différents acteurs. Ainsi, créer les
conditions de la sérendipité, par exemple en mettant en place des lieux de
rencontre entre acteurs qui ne se côtoient généralement pas dans le quotidien,
peut être source d'innovation.
Nous verrons que dans les cas étudiés dans cette communication, la
sérendipité a joué un rôle important.
Deux catégories d’innovations sont généralement décrites :
• L’innovation de rupture : Elle modifie profondément les conditions
d’usage et s'accompagne d'un bouleversement technologique. On peut
citer à titre d’exemples d'innovation de rupture : l’apparition de
l'imprimerie, le passage du moteur à vapeur au moteur à explosion, du
télégraphe au téléphone, du téléphone à l'Internet, etc.
• L’innovation incrémentale : Elle ne bouleverse ni les conditions d'usage
ni l'état de la technique, mais y apporte une amélioration sensible. Elle
ne change généralement pas les fondamentaux de la dynamique d'une
industrie, ni ne requiert un changement de comportement des
utilisateurs finaux. Deux illustrations récentes en sont le remplacement
des souris d'ordinateur à bille par des souris optiques, ou lorsque le
téléphone fixe a été libéré de son cordon pour devenir le téléphone sans
fil.
Dès 1950, J. Schumpeter, dans son ouvrage « Capitalisme, socialisme et
démocratie » emploie le terme de « destruction créatrice ». Par exemple,
Schumpeter retient les transformations du textile et l'introduction de la machine
à vapeur pour expliquer le développement des années 1798-1815 ou le chemin
162
Management des Technologies Organisationnelles : Journées d’Etude 2009
de fer et la métallurgie pour l'expansion de la période 1848-1873. La "destruction
créatrice" est donc la caractéristique d’un système qui résulte du caractère
discontinu des innovations, en créant et détruisant simultanément des pans de
l’économie.
Plus récemment, Clayton M. Christensen (1997) décrit, suivant la même ligne
de réflexion, la théorie des Technologies "perturbatrices".
Elles peuvent
conduire à l’obsolescence des organisations et industries, par l’émergence de
nouvelles technologies, changeant l'entièreté du mode de fonctionnement des
secteurs auxquels elles s’adressent.
Initialement sous-performante par rapport aux attentes du marché, la
technologie "perturbatrice", grâce aux progrès qu’elle réalise, répond finalement
à celles-ci, tandis que la technologie dominante devient sous-performante. Ces
technologies émergentes peuvent être extrêmement dangereuses pour une
entreprise leader sur sa technologie, mais qui innove peu, ou qui n’organise pas
sa veille technologique. En effet, elle perdra le bénéfice de ses produits leader
car l’émergence de la technologie est arrivée au niveau des produits "maintenant
dépassés" qui rapportaient tant, en déplaçant le marché. Les parades possibles
consisteront alors soit à traire la "vache à lait" ou, au contraire, à développer des
produits de niche, pour sauvegarder ses clients, et ses marges.
On voit donc l’impérieuse nécessité de manager le développement
de technologies perturbatrices, fussent-elles dans le champ de
l’organisation, pour réussir leur introduction dans les marchés
auxquels elles sont destinées, en anticipant et comprenant les
perturbations qu’elles vont engendrer. C’est la première idée qui soustend l’étude des cas concrets présentés dans cet article.
L’ENTREPRENEURIAT : VEHICULE DE L’INNOVATION
Du fait des formes tellement différentes que peut prendre l’entrepreneuriat, il
est difficile, voire impossible de se limiter à une définition unique. Toutefois,
alors que Verstraete (2001) propose une modélisation du phénomène
d’entrepreneuriat, Loué et Laviolette (2006) proposent trois conceptions
complémentaires :
• La première conception consiste à créer une opportunité d’affaires
(Venkataraman et Shane, 2000) ;
• La deuxième conception est celle de l’émergence organisationnelle,
c’est-à-dire le processus qui conduit à la création d’une nouvelle
organisation. Elle a été fondée par Gartner (1988) puis, développée et
reprise par d’autres auteurs (Sharma et Chrisman, 1999, entre autres) ;
Communications MTO’2009
•
163
La troisième conception est celle de création de valeur que Bruyat
(1993) définit comme une dynamique de changement où l’individu est à
la fois acteur de la création de valeur dont il détermine les modalités, et
objet de la création de valeur, qui par l’intermédiaire de son support
(projet, structure, etc.) l’investit voire le détermine.
Ces trois conceptions sont complémentaires, et aucune d’entre elles ne suffit
seule à qualifier l’entrepreneuriat :
• L’approche par la création d’une opportunité d’affaires formalise le stade
d’émergence de l’idée en une opportunité, en ne se focalisant que sur
l’opportunité comme objet ;
• Par contraste, l’approche par la création d’une organisation réintroduit
l’action d’ordonner ou de structurer le réel sous des multiples formes
organisées : business modèle, plan d’affaires, prototype de produit ;
• L’approche par la création de valeur complète les deux notions
précédentes, en réintroduisant un principe essentiel de l’entrepreneuriat
depuis Schumpeter, celle du degré d’innovation et de la valeur crée via
l’organisation.
En définitive, ces trois approches peuvent être conciliées dans la
définition suivante : L’entrepreneuriat est une dynamique de création
et d’exploitation d’une opportunité d’affaires pouvant reposer sur une
innovation, par un ou plusieurs individu(s) via la création de nouvelles
organisations, à des fins de création de valeur. C’est le second principe
sur lequel repose l’illustration de notre propos dans l’étude de cas qui
suit.
PRESENTATION DES MATERIAUX DE TERRAIN
A la lumière des deux notions de base précédemment citées, à savoir,
l’analyse des perturbations envisageables par une innovation, dès lors qu’elle va
trouver son usage, d’une part, et la dynamique entrepreneuriale, dans sa logique
d’organisation et de création de valeur, d’autre part, nous avons interviewé deux
créateurs d’entreprise, afin de comprendre l’origine de la création d’entreprise et
leurs motivations. Nous avons ensuite dressé un bilan des actions menées, sous
la forme d’une analyse SWOT, afin d’établir un état des lieux de leur situation,
avant d’aborder les perspectives de développement de leurs entreprises.
164
Management des Technologies Organisationnelles : Journées d’Etude 2009
SOCIETE A
Commercialisation d’un test de suivi de la fermentation des sucres, pour la
filière vinicole. Technologie organisationnelle permettant à l’agriculteur de
réaliser lui-même ses analyses, dont le résultat, obtenu en temps réel sans l’aide
de tiers extérieur, rend possible une conduite fine de la vinification. Son principe
de fonctionnement consiste à réaliser une réaction enzymatique pour la
transformer en un signal électrique, dont l’intensité dépend de la concentration
en sucre, qui en est le substrat.
Contexte de la rencontre : Le créateur d’entreprise, sans emploi après son
retour d’un stage postdoctoral au Japon, a identifié, dans le laboratoire où il a
effectué sa thèse (en tant qu’enseignant chercheur contractuel pendant 2 ans),
une technologie innovante, imaginée par le directeur du laboratoire.
Bien que n’ayant pas initialement la volonté de créer une entreprise, le
créateur a considéré que les ingrédients étaient réunis pour tenter cette
aventure :
• Volonté du directeur du laboratoire de valoriser sa recherche au travers
de la création d’une entreprise ;
• Preuve du concept validée, et prémices de développement industriel
réalisé ;
• Disponibilité, puisqu’au chômage ;
• Probabilité importante d’obtenir des fonds grâce au concours national
Oséo, en Emergence, pour financer une étude de marché et une étude
de faisabilité.
•
Historique :
• Obtention de l’aide d’Oséo, en 2003, et relocalisation au sein d’un
incubateur, suite à un conflit avec le concepteur de la technologie ;
• Lauréat au concours Oséo en Création – Développement, en 2005, et
création de la société au sein de l’incubateur ;
• Le créateur s’est alors associé avec une personne désireuse de prendre
en charge le développement commercial de la société. Un chercheur a
été recruté, pour finaliser les aspects techniques de l’appareil de
mesure ;
• Après 22 mois dans l’incubateur, le créateur a souhaité relocaliser son
entreprise dans les Pyrénées Orientales, où elle est encore située
aujourd’hui.
• Son associé a quitté la société, et le créateur est maintenant seul.
Communications MTO’2009
165
Difficultés rencontrées : La première difficulté rencontrée par le créateur a
été le problème de la nécessaire désappropriation de la technologie par son
inventeur, pour son exploitation commerciale. Cette difficulté a conduit à une
situation de rupture avec le laboratoire d’où était issue la technologie,
provoquant le déménagement du projet, et un retard d’une année du
programme de développement.
Dans un registre voisin, une autre difficulté à laquelle a été confronté le
créateur, a été d’avoir à gérer le fait que le chercheur embauché n’appréhendait
pas la nécessité d’une recherche à finalité commerciale, contradictoire avec sa
conception plus fondamentale de la recherche.
La plus grosse difficulté rencontrée tient toutefois à l’adéquation du couple
besoin/fonction. Plus particulièrement, les éléments suivants peuvent être cités :
• Les mesures des paramètres de suivi de vinification sont, dans leur très
grande majorité, réalisées par des laboratoires tiers qui associent le
conseil aux résultats d’analyse. La technologie de la société A se trouve
donc en concurrence frontale avec ces laboratoires, très bien implantés
sur ce marché ;
• La majorité des vignerons, qui dans le passé travaillaient seuls, sont
maintenant habitués à être conseillés, avec cette position particulière,
consistant à souhaiter l’autonomie, tout en recherchant l’avis d’experts
extérieurs, dont ils dépendent. Le retour à une autonomie plus grande,
rendue possible grâce à la technologie proposée par la société A,
constitue un retour en arrière, à leurs yeux. Ce qui laisse apparaître
qu’au-delà du produit, il y aurait nécessité à proposer un service de
diagnostic associé ;
• La résistance au changement est forte dans ce domaine, car le poids des
traditions est très ancré ;
• Le créateur ne dispose pas de référence particulière sur ce marché, qui
lui octroierait une légitimité dans ce secteur d’activité.
Analyse SWOT :
Forces :
•
•
•
Compétence technique du créateur ;
Une partie des vignerons aspirent à une autonomie vis-à-vis des
laboratoires conseil. Cette population constitue un marché réel pour la
technologie ;
La typologie de l’entreprise (Taille, besoins, ambition) peut se satisfaire
de ce marché de niche, pour un développement raisonnable ;
166
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
La technologie repose sur un principe innovant, qui moyennant quelques
développements, offre la possibilité d’une déclinaison de gamme.
Faiblesses :
•
•
•
•
Solitude du créateur, conscient de ses faiblesses au plan commercial, et
au plan de la gestion du personnel ;
Nécessité de fournir un service de conseil associé au produit ;
Fragilité de la société, du fait de sa taille et de ses moyens financiers ;
Marché en crise et très résistant au changement.
Opportunités :
•
•
Pour l’instant, seuls certains vignobles ont été prospectés. Certains
secteurs, demandeurs de solutions du type de celles apportées par la
société A, doivent encore être prospectés ;
Signature d’un contrat de distribution en cours.
Menaces :
•
La sous capitalisation et une trésorerie tendue exposent la société à une
cessation d’activité.
•
Diagnostic : En mésestimant la solidité de l’offre en place, d’une part, et la
résistance au changement du marché auquel elle s’adressait, d’autre part, la
société a sous-évalué les difficultés à convaincre son marché de l’opportunité
d’utiliser sa technologie, qui bien qu’elle apporte un avantage indubitable à la
conduite de la vinification, induit des changements de comportements.
Une étude fine des facteurs de succès aurait conduit à définir une stratégie
de niche, adaptée à l’entreprise, et mettant en exergue les avantages
concurrentiels d’une offre adaptée.
Un déploiement à l’export, bien que difficile à mettre en place, compte-tenu
des moyens limités de l’entreprise, peut constituer une opportunité de
croissance. La mise au point d’une gamme élargie de tests, permettant une
gamme plus large d’analyses, constituent une autre voie de développement.
SOCIETE B
Un système de mesure et de contrôle des données culturales pour permettre
à l’agriculteur de planifier les interventions adaptées au moment le plus propice.
Cette technologie constitue un outil de pilotage des intrants culturaux. Son
fonctionnement repose sur la mesure des paramètres culturaux dans une
parcelle, et leur transmission sur l’ordinateur de l’agriculteur. Celui-ci étant
Communications MTO’2009
167
connecté à un serveur, les données seront accessibles à la communauté
concernée : agriculteur, conseillers agricoles, coopératives, etc.
Contexte de la rencontre : Le créateur d’entreprise, de formation Ingénieur
Microélectronique et DEA a travaillé pendant 6 ans dans une entreprise de
microélectronique. Suite à la fermeture de l’entreprise, il a cherché à valoriser
ses connaissances dans un secteur où il existait un besoin non satisfait. Partant
du principe que les TIC peuvent permettre à une communauté d’échanger de
l’information, en augmentant la valeur de cette information, en l’enrichissant, il a
identifié un besoin en agriculture, pour le suivi cultural, au niveau de la parcelle.
Historique : Après une formation complémentaire de 12 mois, le projet a été
formalisé en 2006, et sa faisabilité technico-économique confirmée. L’entrée à
l’incubateur Via Innova de Lunel date de 2007 et la création de 2008.
Difficultés rencontrées : La technologie, en mutualisant les données obtenues
et en permettant une analyse statistique de ces dernières, apporte davantage
d’informations à la communauté à laquelle appartient l’agriculteur (Groupement
de producteurs (AOP, par exemple), coopératives, collectivités, syndicats, etc.)
qu’à l’agriculteur lui-même. La principale difficulté réside donc dans le fait que le
prescripteur n’étant pas l’utilisateur, il a donc besoin d’accumuler des données,
pour s’assurer du bien-fondé de la démarche et déployer un argumentaire
convaincant auprès des utilisateurs. Ce qui nécessite de conduire des essais tests
avant d’adopter définitivement la technologie. L’échelle du temps des
décisionnaires est alors difficilement compatible avec celle de la start-up, compte
tenu des moyens financiers dont elle dispose.
Pour rendre plus crédible la technologie, il y a nécessité de la déployer au
sein de filières de productions diverses. La seconde difficulté consiste à déployer
des moyens humains, dont la société ne dispose pas, pour diffuser cette
technologie. A nouveau, la question des moyens financiers de l‘entreprise se
pose.
Analyse SWOT :
Forces :
•
•
•
Compétences élargies du créateur, soutenues par l’incubateur qui
l’accompagne ;
Modèle économique validé ;
Expression du besoin par les prescripteurs ;
168
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
Technologie mature, permettant d’améliorer la reproductibilité des
productions, et d’orienter la qualité du produit fini.
Faiblesses :
•
•
•
•
•
Moyens humains et financiers limitant la croissance de l’entreprise ;
Le prescripteur est différent de l’utilisateur ;
Temps de réponse du marché ;
Installation des équipements (Boitier dans la parcelle, antenne sur le toit
de la maison de l’agriculteur) ;
Marché résistant au changement.
Opportunités :
•
•
•
Numérisation de l’agriculture en cours (comparée par le créateur à la
mécanisation de l’agriculture des années 20-30) ;
Très forte sensibilité du marché à la gestion des intrants, dans le cadre
d’une agriculture durable : Eau, Produits phytosanitaires, etc. ;
Traçabilité.
Menaces :
•
La sous capitalisation et une trésorerie tendue limitent les possibilités de
développement de la société.
Diagnostic : La technologie développée par la société B modifie l’organisation
des pratiques culturales, en fournissant les outils d’une conduite raisonnée des
entrants, en temps réel. Son développement passe par une implantation la plus
large possible des équipements, nécessitant des moyens humains dont
l’entreprise ne dispose pas, pour l’instant. La signature d’un premier contrat lui
fournirait les moyens de ses ambitions.
DISCUSSION
Bien que réels, nous avons conscience que les deux cas étudiés ne sont pas
statistiquement représentatifs de l’ensemble des créations d’entreprise, dont on
sait que leurs typologies sont très variées.
Ils montrent toutefois d’illustrer de façon pratique que la mise en place d’une
technologie organisationnelle, lorsqu’elle est à l’origine d’une création
d’entreprise, nécessite de s’assurer de la validité d’un certain nombre de
fondamentaux :
Communications MTO’2009
•
•
•
•
•
169
S’assurer que le concepteur de la technologie va accepter se la
désapproprier, dès lors que des adaptations au marché seront
nécessaires, pour en assurer son acceptabilité ;
Evaluer avec la plus grande précision les perturbations engendrées par
l’innovation, en réalisant une étude fine du couple Besoin/Fonction, afin
de déterminer les avantages et les inconvénients qui vont s’en dégager ;
Réaliser une analyse des facteurs clés de succès, suivant la théorie des
cinq forces de Porter (1986), par exemple, afin de positionner son offre
pour qu’elle trouve son marché, et son usage, par la validation du
couple Produit/Marché ;
Anticiper les actions à mettre en place pour limiter les effets de la
résistance au changement attendue ;
Vérifier finalement, que l’innovation et la création d’entreprise qui y est
associée, seront créatrices de valeur.
Le plan d’affaires doit donc prendre en compte ces éléments, afin de prévoir
une stratégie d’entreprise centrée autour de ces questions fondamentales. De
même, les structures d’accompagnement de sociétés en création joueront leur
rôle de conseil, en sensibilisant les créateurs d’entreprises à ces éléments, de
nature à ralentir, voire compromettre le projet.
CONCLUSION
Selon P. Drucker (1970), « L'entreprise a deux fonctions essentielles, et deux
seulement : le marketing et l'innovation. Le marketing et l'innovation produisent
des résultats, le reste n'est que dépenses ».
J. Schumpeter (1950), quant à lui, place l'entrepreneur au cœur du système
capitaliste, pour réaliser des innovations (de produits, de procédés, de marchés,
etc.).
Alors que l’innovation n’est pas une condition sine qua none à la création
d’entreprise, ces deux affirmations restent valables. Toutefois, dès lors que l’on
se situe dans le champ de l’entrepreneuriat pour développer une technologie qui
va modifier l’organisation du marché dans lequel elle va trouver son usage, les
perturbations engendrées devront être prises en compte et intégrées dans le
plan de développement.
La résistance au changement que peut engendrer une technologie
organisationnelle, en impactant le plan de développement de l’entreprise, va la
déstabiliser, en mettant sa survie en péril, car il faut pouvoir durer, pour
survivre.
170
Management des Technologies Organisationnelles : Journées d’Etude 2009
REFERENCES BIBLIOGRAPHIQUES
C. Bruyat,
Création d’entreprise: contributions épistémologiques et modélisation, Thèse de
doctorat ès sciences de gestion, Université Pierre-Mendez-France, Grenoble 2,
(1993).
C.M. Christensen, The Innovator’s dilemma: When new technologies cause great firms to fail –
Harvard Business School Press, (1997).
P. Drucker, "Entrepreneurship in Business Enterprise", Journal of Business Policy, vol. 1, (1970).
W.B. Gartner, J. Katz, Properties of emerging organization, Academy of Management Review
13(3), (1988), 429-442.
C. Loué, M. Laviolette, Extrait de l'étude " Les compétences entrepreneuriales : définition et
construction d'un référentiel ", octobre 2006.
M. Porter, « L’avantage concurrentiel », InterÉditions, Paris, (1986), 647 pages.
J. Schumpeter, Capitalism, Socialism, and Democracy, 3rd edition, Harper and Row, New York,
(1950).
P. Sharma, J.J. Chrisman, Toward a reconciliation of the definitional issues in the field of
corporate entrepreneurship. Entrepreneurship Theory and Practice, 23(3), (1999),
11-26.
S. Venkataraman S. Shane, The promise of entrepreneurship as a field of research, Academy of
Management Review. Vol. 25 (1), (2000), 217-226.
T. Verstraete, Entrepreneuriat : modélisation du phénomène, Revue de l’Entrepreneuriat, Vol. 1,
N°1 (2001).
REMERCIEMENTS
Nous tenons à remercier le dirigeant de la société AGRISCOPE pour sa
contribution à la rédaction de cette communication.
Communications MTO’2009
171
L'apport de la notion de réseau et de
modèle économique aux
problématiques de mise sur le
marché d’une innovation
André DELAFORGE et Nicolas MOINET
CEREGE
Institut d’Administration des Entreprises / Université de Poitiers
RESUME
Deux pistes d’exploration permettent de mieux appréhender les conditions de
réussite de mise sur le marché d’une nouvelle technologie. Ainsi, la figure du
réseau constitue-t-elle une grille d’analyse qui permet d’analyser comment des
acteurs sont « intéressés » dans un processus de création et de mise sur le
marché d’une innovation. Au-delà, les conditions de succès de la mise sur le
marché d’une innovation reposent sur la constitution ou le déploiement d’un
réseau dès lors qu’il est appelé à générer ou rejoindre un écosystème d’affaires.
INTRODUCTION
Si l’innovation est un sujet largement étudié, force est de constater que les
recherches la concernant s'intéressent essentiellement à sa genèse ou au
résultat produit.
Ainsi, une littérature abondante explore l’origine de l'innovation sous l’angle
de la problématique de génération des idées et des liens avec la R&D (Amabile,
2002, Farson 2002, Yoon 1985, Wolpert 2002...). Les produits ou services issus
de celle-ci font également l’objet de nombreux travaux.
Mais malgré l'échec constant du lancement d'un grand nombre de produits
[1], la phase de mise sur le marché d’une innovation fait l'objet de peu de
172
Management des Technologies Organisationnelles : Journées d’Etude 2009
travaux : « product launch has been relatively under resarched in the product
literature » (Di Benedetto, 1999, p. 530).
Ce « moment de vérité » pour s’approprier une expression du marketing des
services (Lovelock, 1999), apparaît pourtant comme une période charnière,
rencontre entre des utilisateurs et une offre qui vient le bouleverser, remettant
ainsi en cause un équilibre définissant le Marché.
LE RESEAU COMME ECO-SYSTEME
Notre contribution pose comme hypothèse que le concept de réseau, tel qu'il
est notamment proposé par Calon et Latour (Callon, Latour, 1991), permet de
mieux appréhender ce qui se passe lors de la mise sur le marché d’une
innovation.
Le mot « réseau » désigne primitivement un ensemble de lignes entrelacées
et on appelle "nœuds" du réseau toute intersection de ces lignes. Les lignes sont
considérées, le plus souvent, comme des chemins d'accès à certains sites ou des
voies de communication le long desquelles circulent, selon les cas, des éléments
vivants, matériels ou immatériels. Se propagent ainsi des flux, parfois
quantifiables le long d'arcs agencés selon certaines structures, identiques ou
variables (mailles), obéissant à une loi de causalité complexe (Parrochia, 1993).
Dans le domaine qui nous intéresse, nous insistons sur l’idée essentielle de
projet commun autour duquel se fédèrent des acteurs travaillant ensemble pour
former un système, un dispositif intelligent. Car sans projet, il ne peut y avoir de
véritable réseau. L’existence de relations entre des acteurs ne suffit pas pour
affirmer l’existence d’une stratégie-réseau (Marcon, Moinet, 2000).
Ainsi comprise, la notion de réseau permet d’explorer comment se mettent en
place des interactions entre des individus mais aussi des « non-humains »
(réseaux hybrides), lesquels agissent comme médiateurs ou intermédiaires les
uns avec les autres (Latour, 1992). Par exemple, un réseau associe dans le cadre
d’un système de paiement, un utilisateur, un organisme financier, des instances
de régulation, des technologies de sécurité informatiques, des cartes bancaires
et des automates.
Un réseau peut alors se définir comme un écosystème, un environnement
dans lequel vient s’insérer un objet ou un service. Une première piste de
recherche serait que les modalités de l’innovation sont directement liées à la
maîtrise ou, tout au moins, à la perception juste de celui-ci. Un des facteurs du
succès de l’iPod est ainsi de s’être appuyé sur un écosystème existant pour en
créer un nouveau. Le succès du lancement de l’iPod s’appuie sur un triptyque
produit (design), modèle économique (iTunes) et des usages déjà existants (la
consommation de musique « en déplacement »).
Communications MTO’2009
173
Comme les marchés, un réseau définit un statu quo ou un équilibre où
chacun des acteurs agit dans le sens de son intérêt en attendant que les autres
agissent de même (Chakravorti, 2004, p. 62). Steve Jobs s’appuie sur des
technologies existantes (stockage, communication, paiement) pour déployer une
valeur basée sur la combinaison de ces éléments. Il « intéresse » d’autres
acteurs qui viennent renforcer son offre en proposant des éléments
complémentaires.
Gueguen avait déjà analysé, dans des travaux précédents (Gueguen, 2001),
la mobilisation collective d'actions et de ressources tendues vers l'achèvement de
buts partagés par les membres du réseau. La notion d'industrie vient alors se
substituer à celle d'écosystème d'affaires, défini par Gueguen et Torres comme «
une coalition hétérogène d'entreprises relevant de secteurs différents et formant
une communauté stratégique d'intérêts ou de valeurs structurée en réseau
autour d'un leader qui arrive à imposer ou à faire partager sa conception
commerciale ou son standard technologique ». Cette mobilisation se traduit par
l’évolution (parfois dans des directions opposées, constituant dés lors des
orientations stratégiques) des différentes parties impliquées, renvoyant au
modèle "rupture/filiation" proposé par Aydalot (1988), et identifiant la naissance
de l'entreprise avec le moment de la "rupture".
L’exemple pris par cet auteur portait notamment sur celui de la création de
petites entreprises, dont la naissance est liée à l'introduction d'une innovation, à
l'adaptation d'un produit destiné à un marché ou à l'adoption d'une technologie
particulière à l'intérieur d'un process de production.
On constate, dés lors, que la figure du réseau présente ce paradoxe d'être à
la fois un facilitateur pour la diffusion d'une innovation, et une barrière (à cause
de l'interdépendance entre les différents acteurs) pour les nouveaux entrants
(Chakravorti, 2004, p.60). L’intéressement des différents acteurs permet à la fois
un accroissement de la valeur ajoutée et un renforcement du caractère unique
de la proposition.
On pressent, également, que la modalité de mise sur le marché d’une
innovation réside dans cette capacité à saisir des opportunités. Dans le cas de
l’iPod, iTunes la plateforme d’achat de musique en ligne apparaissait, au moment
de son lancement, comme une réponse à la problématique d’échanges de
fichiers illégaux, comme par exemple Napster. En proposant un achat de titre à
l’unité, Apple s’assurait le support des majors de l’industrie musicale qui voyaient
dans cette offre une réponse positive et concrète au problème de piratage et
assurait ainsi le succès de sa nouvelle offre. A la suite d’une série de traductions,
elle réussit à intéresser un nombre d’alliés de plus en plus grand. C’est l’étendue
174
Management des Technologies Organisationnelles : Journées d’Etude 2009
et la solidité du réseau et non la pertinence de la solution technique qui permet
d’expliquer le succès d’une innovation (Flichy, 2006).
Abordée sous l’angle de la notion de réseau, la diffusion d'une innovation
peut donc s’appréhender par la mise en place d'une nouvelle chaîne de valeur
supportée par différents acteurs. Ainsi la complémentarité entre acteurs de
l'informatique et des imprimantes personnelles a facilité le développement de la
photo digitale, créant un nouvel équilibre disqualifiant l'univers de la photo
argentique.
Cooke et Morgan (1993) se sont appuyés sur le « paradigme de réseau »,
pour montrer que la place la plus essentielle de réseaux d'information à
l'intérieur d'un lieu donné faisait apparaitre des comportements nouveaux de la
part de divers acteurs impliqués.
Ainsi que l’explique Patrice Flichy, ce n’est pas l’invention de l’ordinateur qui a
marqué la fin du 20èmesiècle mais sa diffusion. Et pourquoi l’informatique se
diffuse t-elle alors autant ? Car parallèlement, il va y avoir des mutations
organisationnelles profondes dans les entreprises. N’oublions pas que
l’informatique entre d’abord dans les entreprises via la comptabilité et la paie : il
s’agit de tâches simples et répétitives. La première révolution de l’information qui
fait la réussite d’IBM est celle de l’association de la machine à écrire et du calcul
mécanographique (cartes perforées). En termes d’organisation, le taylorisme a
pu voir le jour car l’organisation scientifique du travail n’aurait pas été possible
sans tous ces documents écrits. Donc la machine de traitement du papier et le
système taylorien sont indissociables. A la fin du 19ème siècle, la diffusion des
technologies de la première révolution de l’Information a modifié les modalités
de gestion de l’entreprise. Au-delà, l’électronique comme les technologies de
l’information et de la communication investissent sans limites une multitude de
domaines d’activités. L’informatique distribuée induit des modalités
d’organisation plus transversales et un management par projet où la disposition
de l’information à la base doit être favorisée.
LE POSITIONNEMENT MARKETING COMME POSITION SUR UN RESEAU
Une autre implication de la théorie des réseaux est l’extension du concept de
positionnement marketing. Le positionnement peut se définir comme
«l’ensemble des attributs saillants et distinctifs qu’une entreprise cherche à
associer à un objet (produit, marque, entreprise, etc.) pour la distinguer de la
concurrence et toucher une cible particulière » (Lendrevie, 2006). En un mot, le
positionnement est l’image que l’on veut que les clients aient d’une offre.
Communications MTO’2009
175
Dans la perspective de notre lecture s’appuyant sur le réseau, il apparaît qu’il
convient d’élargir cette définition. Il nous semble que le positionnement des
produits ne devrait pas se limiter aux seuls consommateurs mais s’étendre aux
acteurs avec laquelle la technologie interagit. Dans ce contexte, il faudrait
étudier comment une technologie ne s'appuie pas seulement sur des utilisateurs
finaux mais sur la construction de partenariats qui viennent renforcer l'offre de
chacun des acteurs impliqués.
Le succès de l'ordinateur personnel associe le succès d'un fabricant de
microprocesseur (Intel…), d'un fabricant de systèmes d’exploitation
(Microsoft…), de fabricant de souris et de claviers (Logitech) et d'applications
(SAP, Firefox...).
On est, dès lors, amené à s’interroger sur la nature même des frontières
d’une entreprise et la place de l’interaction avec l’extérieur : dois-je, et avec qui,
coopérer ?
De la notion de marché, on évolue vers celle de territoire, « configuration
concrète qui ne se réduit pas aux seuls aspects de la dynamique économique, de
la concurrence, de la formation des prix ou des préférences des clients »
(Thoenig, 2005). Dans une perspective constructiviste suggérée par le concept
de réseau, les différents constituants du réseau interagissent entre eux et avec
le territoire qu’ils contribuent à façonner. On dispose, dés lors, d’un véritable
outil d’analyse, qui nous permet de comprendre pourquoi tel technologie de
porte-monnaie électronique, ne rencontre pas son public ; par manque
d’intéressement des interlocuteurs concernés. C’est ici qu’il est intéressant de
faire appel à la notion de milieu innovateur, celui-ci permettant de croiser les
concepts d’interactions et d’apprentissage.
Issue des travaux de l’économie industrielle, la notion de milieu innovateur
souligne le rôle essentiel de la composante territoriale dans les processus de
création de nouvelles ressources. Le territoire n’est plus considéré comme un
simple support de facteurs de localisation (main d’œuvre qualifiée, centres de
recherche, agréments culturels, voies de communication, etc.) mais comme un
ensemble territorial d’agents et d’éléments économiques, socioculturels,
politiques, institutionnels possédant des modes d’organisation et de régulation
spécifiques. Qu’il s’agisse d’une entreprise ou d’un territoire, un milieu innovateur
ne se décrète pas, même lorsque l’innovation naît ex nihilo. En effet, le territoire
n’est pas construit a priori, mais résulte à la fois d’une logique d’interaction et
d’une dynamique d’apprentissage. La logique d’interaction vise à développer les
coopérations entre acteurs (logique horizontale) et la dynamique d’apprentissage
consistant à stimuler un savoir-faire spécifique (logique verticale). Selon le
modèle des milieux innovateurs, 4 cas peuvent alors être mis en évidence : pas
176
Management des Technologies Organisationnelles : Journées d’Etude 2009
de milieu et peu d’innovation ; un milieu potentiellement innovateur ;
l’innovation sans milieu ; un milieu innovateur.
Figure 1 : Typologie des milieux innovateurs (source : Denis Maillat (1995), p 42)
« Pour qu’il existe une chirurgie au laser, analyse Marc Giget (1998, p 33), il
a fallu que des entreprises s’impliquent dans la simplification de la mise en
œuvre de la technologie du laser, qu’elles la fiabilisent, la miniaturisent, la
banalisent, qu’un entrepreneur rencontre des chirurgiens, qu’ils dialoguent des
possibilités du laser, des besoins particuliers de la chirurgie. Chacun s’est
approprié une partie des compétences de l’autre, et les itérations entre eux ont
abouti, après plusieurs échecs, à un système adapté, produit à un coût
acceptable, avec une qualité absolue. » La logique d’interaction (par exemple
entre ingénieurs et chirurgiens) et la dynamique d’apprentissage (enseignements
tirés des échecs) participe donc de cette intelligence du terrain et des situations
qu’est la stratégie en général et la stratégie d’innovation en particulier.
LES CONSEQUENCES DE L’APPROCHE RESEAU
En prolongeant encore plus loin cette réflexion, on peut poser comme
hypothèse que l'écoute des consommateurs n'est plus source d'innovation
(Leonard, 2002 [2]) puisque ceux-ci sont dans un réseau existant, en état
d'équilibre.
Dés lors, on cherchera à caractériser quel est le réseau dans lequel s’inscrit
un utilisateur potentiel, en allant au-delà de ses simples déclarations. L’analyse
sous l’angle du réseau, en cherchant à appréhender la topographie du territoire
Communications MTO’2009
177
dans lequel évolue un consommateur appelle à un renouvellement des études
marketing en justifiant pleinement par exemple les approches ethnographiques
où le consommateur potentiel est « saisi » dans son univers.
En étendant cette réflexion à l’analyse des canaux de distribution, on
appréhende l’importance des dispositifs d'intéressement (Alkrich, 1988), au sens
propre comme au sens figuré, qui permettent d'ancrer une technologie ou de
déployer un réseau.
L’adoption d’une technologie innovante ne s’explique pas simplement par
l’adéquation d’une offre à une demande. Ainsi, la trajectoire de la technologie
RFID (Radio Frequency Identification) montre qu’il n’existe pas d’innovation
réussie sans co-construction de connaissances partagées par l’ensemble des
acteurs intéressés au sein d’un espace public. Travailler sur l’innovation nécessite
donc de parcourir cette chaîne qui transforme de l’information en connaissances
par un processus complexe de communication (Delaforge, Moinet, 2008).
BUSINESS MODEL
La notion de business model (« les choix effectués par une entreprise pour
générer des revenus » Demil, 2004) nous apparaît également comme fortement
corrélée avec le succès du lancement des innovations durant ces dernières
années.
Le développement du téléphone mobile est apparu avec l’apparition du «
forfait » qui permet de bénéficier d'un crédit de communication mensuel
forfaitaire ainsi que d’un terminal à prix facial réduit.
C’est la combinaison d'un modèle économique et d'une technologie qui
permet à une innovation de créer un nouvel équilibre. Ainsi, quand des
entreprises lancent des produits radicalement nouveaux reposant sur des
technologies nouvelles (par exemple en Biotechnologies) elles s’appuient sur de
nouveaux modèles économiques qui détermine comment la valeur ajoutée sera
créée (Vanhaverbeke, 2006).
Ces dernières années ont été riches en termes de création de nouveaux
modèles économiques liées à des innovations. On pourra en citer deux. Le
modèle économique de Google est basé sur une équation complexe basée sur la
fréquence de recherche de mots-clés (Levy, 2009), introduisant une notion de
variabilité directement liée à l’intéressement pour un sujet ou une marque.
Google tire profit de la dynamique exprimé au travers d’un réseau pour ajuster le
prix de son offre en fonction de la dynamique de la demande.
Le deuxième modèle économique qui nous semble intéressant est celui du «
rasoir inversé ». On connaît le modèle économique du pseudo-gratuit : un «
package » est proposé à un prix attractif, la marge étant réalisée sur les ventes
178
Management des Technologies Organisationnelles : Journées d’Etude 2009
de consommables. Ce modèle, classique est utilisé dans les produits de grande
consommation : rasoir, filtre anti-calcaire, imprimantes…
Le modèle du « rasoir inversé » vise, au contraire, à s’appuyer sur une marge
forte réalisée sur le package de départ (par exemple un iPod ou un iPhone) et à
laisser d’autres acteurs de l’écosystème tirer profit des ventes sur les «
consommés », que cela soit des morceaux de musique ou des minutes de
communication, tout en préservant une marge sur celles-ci. Dans ce dernier cas,
le modèle économique apparaît comme ouvert à des partenaires, qui viennent
renforcer l’offre et se trouvent naturellement ‘intéressés ‘.
CONCLUSION
Nous avons posé l’hypothèse que les conditions de succès de la mise sur le
marché d’une innovation reposaient sur la constitution ou le déploiement d’un
réseau appelé à constituer ou rejoindre un écosystème d’affaires. Cette
hypothèse permet de comprendre comment s’articulent, localement et
globalement des synergies qui viennent donner à une innovation son ancrage et
susciter l’intérêt conjoint des partenaires et des clients finaux.
La deuxième hypothèse est que le choix et la pertinence du modèle
économique déterminent la réussite d’une innovation.
Au final, ces deux pistes de réflexion s’inscrivent dans un programme de
recherche en gestation visant à étudier les conditions de succès et d’échecs
d’une innovation.
NOTES
[1]
Booz, Allen & Hamilton estimate that almost half of the resources spent on new
products are allocated to products that are never successful in the market. (Yoon,
1985, pages 135)
[2]
« Discerning the difference between what customers are able to say and what they
want, and then acting on those unspoken desires, demands that companies learn to
go well beyond listening »
REFERENCES BIBLIOGRAPHIQUES
Akrich, M., Callon, M. et Latour, B., 1988, « A quoi tient le succès des innovations ? 1 : L’art de
l’intéressement », in Gérer et comprendre, Annales des Mines, 11, pp.4-17.
Akrich, M., Callon, M. et Latour, B., 1988, « A quoi tient le succès des innovations ? 2 : Le choix
des porte-parole », in Gérer et comprendre, Annales des Mines , 12, pp.14-29.
Amabile, T., Constance N. H., & Steven J. K. (2002). « Creativity under the gun » in Harvard
Business Review, 80(8), pp. 52-61.
Communications MTO’2009
179
Aydalot P. 1988. - "Technological trajectories and regional innovation in Europe". - in: P. Aydalot
P., Keeble D.; 1988 High technology industry and innovation environments, the
European Experience. - London: Routledge
Callon, M., Latour, B., La science telle qu'elle se fait, Paris, La Découverte, 1991.
Chakravorti B.; « The New Rules for Bringing Innovations to Market »; in Harvard Business
Review, 2004, pp. 59-67.
Chesbrough H., Open Business Models: How to Thrive in the New Innovation Landscape,
Boston: Harvard Business School Press, 2006
Chesbrough, H., Open Innovation: the new imperative for creating and profiting from
technology, Harvard Business School Press, 2003
Clayton C., « The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail » in
Harvard Business School Press, 1997.
Cooke, P et Morgan, K. (1993), The Network Paradigm : New Departures in Corporate and
Regional Development, Environment and Planning, Society and Space, Vol. 11, 543564.
Delaforge A. Moinet N., « Le rôle de la communication dans l’adoption d’une technologie
innovante », in Hermès, n°50, Editions du CNRS, juin 2008, pp. 157-162.
Demil, B., Lecoq, X. et Warnier, V. : « Le business model : l’oublié de la stratégie ? » in Actes de
la 13e conférence de l'AIMS; Normandie, Vallée de Seine 2, 3 et 4 juin 2004, pp. 123.
Di Benedetto, C. Anthony; « Identifying the key success factors in new product launch »; in
Journal of Product Innovation Management, 1999, 16(6), pp. 530-544 80(8),
Farson R, Keyes R; « The failure-tolerant leader »; in Harvard Business Review 2002, 80(8), pp.
64-71
Flichy P., La place de l'imaginaire dans l'activité technique : le cas d'Internet ; Publié en ligne le
31 août 2006 ; http://edel.univ-poitiers.fr/rhrt/document.php?id=553,
Giget M., La dynamique stratégique de l’entreprise, Dunod, 1998.
Gueguen G., Environnement et management stratégique des PME : le cas du secteur Internet,
Thèse de doctorat, Université Montpellier I, 2001.
Gueguen G. , Torres O. « La dynamique concurrentielle des écosystèmes d’affaires. Linux
contre Microsoft,” in Revue française de gestion 2004/1, n°148, p.227-248.
Latour B., Aramis ou L'amour des techniques, Paris, La Découverte, « Textes à l'appui.
Anthropologie des sciences et des techniques », 1992
Leonard D.; “The Limitations of Listening” in Harvard Business Review, 1993, 80(1), January
2002.
Lendrevie J.;Levy J., Lindon D.; Mercator : théorie et pratique du marketing ; Dunod ; 2006
Levy Steven, Secret of Googlenomics: Data-Fueled Recipe Brews Profitability in Wired, juin
2009, pp 110-115.
Lovelock C., Wright L.; Principles of service marketing and management, Prentice Hall, 1999
Maillat D., « Les milieux innovateurs », in Sciences Humaines, 1995.
Marcon C., Moinet N., La stratégie-réseau, Editions Zéro Heure, 2000.
Parrochia D., Philosophie des réseaux, PUF, 1993.
180
Management des Technologies Organisationnelles : Journées d’Etude 2009
Sellers E., Buyers S.; « Understanding the Psychology of New-Product Adoption »; Harvard
Business School Publishing, 2006, 84(6), pp. 98-106
Thoenig J.-C., Waldman C.; De l’entreprise marchande à l’entreprise marquante, Editions
d’organisation, 2005
Wolpert John D.; « Breaking Out of the Innovation Box »; in Harvard Business Review, 2002, 80
(8), pp. 76-83
Yoon E., Lilien G. L.; « New Industrial Product Performance: The Effects of Market
Characteristics and Strategy », in Journal of Product Innovation Management,
1985, 2(3); pp. 134 - 144
Vanhaverbeke W., « Open innovation in value networks »,
in Chesbrough, Henry.,
Vanhaverbeke, Wim. en West, J., eds. (2006), Open Innovation : Researching a
New Paradigm, Oxford University Press.
Communications MTO’2009
181
L’intelligence communicationnelle
interne, pour le management d’une
communication interne innovante
au sein de l’organisation
Frédéric ELY et Marielle METGE
Laboratoire I3M
Université de Nice Sophia Antipolis et Université du Sud Toulon Var
RESUME
Dans un contexte de crise généralisée de la santé mentale au travail, les
rapports pathogènes que nous observons, de longue date, entre management,
culture et organisation, au sein de la grande entreprise, apparaissent peser
lourdement sur le domaine de sa communication interne. L’acuité de cette
problématique complexe et insidieuse nous laisse percevoir les symptômes
d’une forme de syndrome communicationnel que nous caractérisons par les
termes de « maladie de la communication interne » dans l’organisation.
Après avoir approché la description préalable de ce contexte, nous montrons
que la mise en œuvre d’un dispositif de communication interne innovant est
possible, en articulant opportunément les technologies organisationnelles de
l’information, de la communication et de la collaboration, les apports des
théories orchestrale et systémique de la communication, les concepts de veille,
d’intelligence collective et de Knowledge Management. En effet, par la pratique
complémentaire d’un forum intranet de discussion et d’un groupware que nous
mettons en place et expérimentons au sein d’une grande entreprise française de
services, nous proposons une alternative innovante, au travers d’un modèle
original de management de la communication interne. Orchestré par le e-Dircom
de l’organisation et spécifique à son domaine d'activité, contre-pied de certaines
pratiques managériales contre-productives à l’égard de la communication
interne, le modèle, que nous dénommons « Intelligence Communicationnelle
182
Management des Technologies Organisationnelles : Journées d’Etude 2009
Interne », nous semble susceptible de pallier, dans les limites des moyens de
son orchestration, à cette « maladie de la communication interne » dans
l’entreprise, en cherchant à mettre collectivement en lumière et à rassembler ce
qui s’y trouve épars : les innombrables richesses humaines et
communicationnelles de ses salariés, encore trop souvent inexplorées.
INTRODUCTION
Depuis plusieurs années, chaque rentrée littéraire est marquée par la
parution d’ouvrages ou d’articles centrés sur un certain malaise grandissant chez
l’individu dans ses rapports au travail, au sein de l’organisation : discriminations
professionnelles, broiement de l’être, « comédie du bonheur » des cadres
(Hopquin, 2008), harcèlement moral (Hirigoyen ; 1998, 2001), perte de sens,
stress et souffrances au travail (Salengro, 2005), délitement du tissu social de
l’entreprise, suicides sur le lieu de travail (Dejours ; 1993, 1999, 2007).
Bien au-delà d’une approche historique des apports d’une sociologie de
l’organisation, (Bernoux, 1985), nous partageons une convergence de vue de
plusieurs auteurs (Bulinge, 2002 ; Serieyx, 1993 ; Crozier, 1997 ; Le Moënne,
1994 ; Barbaras, 1995 ; Dejours, 1999 ; Mintzberg, 2004) sur une certaine
critique du management contemporain. A la lumière de leurs réflexions et de
notre expérience de cadre en entreprise, nous constatons que, de nos jours
encore, dans bien des cas, les conditions ne sont pas suffisamment réunies, au
sein de la grande entreprise, pour favoriser, au-delà des récurrentes bonnes
intentions et des beaux discours managériaux, ce nécessaire humanisme
communicationnel (Nicolas, 1996) qui fait, à nos yeux, toute l’origine, la noblesse
et la valeur ajoutée des métiers de la communication organisationnelle. La
gravité de cette situation, à l’heure où l’Institut de veille sanitaire vient de
réaffirmer que « la santé mentale au travail est devenue un enjeu majeur de
santé publique » [1], nous permet de considérer que nous assistons, en quelque
sorte, à une forme de retour en arrière bien paradoxal, à une certaine régression
obscurantiste et contradictoire des valeurs de l’humain dans l’entreprise.
Or, ces profondes problématiques, tout à la fois sociétales, éthiques,
managériales, organisationnelles, peuvent-elles se dissocier de problématiques
de management de la communication interne ?
En observant au sein d’une grande entreprise française d’assurance, une
forme de syndrome que nous qualifions de « maladie de la communication
interne », en constatant certaines pratiques symptomatiques propres au terrain
du Directeur de la communication, nous nous demandons en quoi ce dernier
peut-il effectivement tenir compte de ce contexte problématique. En quoi est-il à
même d’améliorer cette situation en saisissant certaines opportunités offertes
Communications MTO’2009
183
par les technologies organisationnelles de l’information, de la communication et
de la collaboration, dans une perspective communicationnelle de recherche de
construction de sens, de régénération du lien social et de motivation des
salariés au sein de l’organisation ? Quel éclairage pouvons-nous apporter sur ces
questions, selon un positionnement épistémologique constructiviste, situé dans le
champ des SIC, en nous appuyant sur les théories orchestrale (Winkin, 1996) et
systémique (Mucchielli, 1999) de la communication ? Que peuvent nous apporter
un ancrage sur un terrain constitué de vingt années de pratiques en tant que
Chargé de communication au sein d’organismes publics et privés, associé à
l’expérimentation, sur trois années consécutives, d’un groupware et d’un forum
de discussion mis en place au sein de l’organisation observée ?
UN CONTEXTE PROBLEMATIQUE POUR LA COMMUNICATION INTERNE DE
L’ORGANISATION
Dans le cadre de notre recherche, nous retenons une définition de la
communication interne (CI) comme « un ensemble de principes d'actions et de
pratiques visant à donner du sens et favoriser l'appropriation, à donner de l’âme
pour favoriser la cohésion et inciter chacun à mieux communiquer pour favoriser
le travail en commun » (Détrie et Broyez, 2001).
Or, force est de constater l’écart abyssal entre cette définition et les réalités
quotidiennes du monde du travail. Devant un système professionnel au sein
duquel le salarié se trouve comme réduit (Dufour, 2003), pris en étau, chosifié,
instrumentalisé, au nom du dogme managérial de la performance, du culte de l’
« efficience » (Mintzberg, 2004), nous diagnostiquons une forme de syndrome
que nous qualifions de « maladie de la communication interne », au même titre
qu’une « maladie de l’information » (Lesca, 1999) est bel et bien diagnostiquée
dans les organisations.
Au sein de la grande entreprise de services dont nous observons certaines
dérives, à l’image de bien d’autres situations comparables, nous identifions trois
principales contraintes en interaction, dont les caractéristiques et la prégnance
constituent des facteurs pathogènes à l’égard de la CI : la RTT, le management
et la culture de l’organisation.
Une RTT réductrice de la CI de l’organisation
Telle qu'aménagée dans les entreprises, à la fin des années 1990, la
Réduction du Temps de Travail (RTT), a-t-elle eu un effet sur la nature de la CI
de ces mêmes entreprises ? Une étude approfondie serait nécessaire, à nos
yeux, pour chercher à répondre à cette question, de manière démonstrative.
Néanmoins, nous constatons, au sein de l’organisation observée, une certaine
184
Management des Technologies Organisationnelles : Journées d’Etude 2009
tendance, depuis l'aménagement de la RTT, à une réduction conjointe des
occasions d’échanges informels entre les personnes, une forme de « Réduction
du Temps des Relations Interpersonnelles Internes ».
Ce constat nous amène à considérer, a priori, que cette réduction agit
structurellement sur la CI des organisations.
Ces aspects se trouvent, en partie, corroborés par les travaux de plusieurs
auteurs. L'aménagement de la RTT dans les entreprises est, en effet, loin d’être
neutre, au point que l’on situe cette problématique organisationnelle et sociale
en termes de « guerre des temps » : « On aboutira ainsi à une situation tout à
fait paradoxale : la démotivation des plus motivés, la démobilisation des plus
mobilisés et l’exacerbation des relations déjà tendues entre les individus, les
équipes et les services. La chasse aux temps morts, à la réunionite, aura pour
conséquence le fait que les gens ne se parlent plus, ne prennent plus le temps
de discuter entre eux [2] » (Lojkine, Maletras, 2003).
Nous associons à cette situation une pression accrue de recherche de
productivités, un développement du repli sur soi et de l’individualisme dans
l’organisation : « La pression sur la productivité (réduction des moments de
détente) liée à l'informatisation des consignes et à leur incorporation au sein du
processus de production, rendent de moins en moins nécessaire le recours au
contact direct. Les occasions de se rencontrer et d'échanger sont donc moins
nombreuses ; les possibilités de nouer des contacts aussi. L'ensemble de ces
éléments nous paraissent jouer dans le phénomène d'individualisation des
comportements […] » (Duterme, 2002 : 27).
Ces premiers constats nous conduisent à postuler qu’une « Réduction du
Temps des Relations Interpersonnelles Internes » influence structurellement la
qualité de la CI des organisations, au point d’en constituer un des facteurs
pathogènes.
Si ces mêmes facteurs d’ordre organisationnel présentent une certaine
nocivité à l’égard de la CI de l’entreprise, en quoi les composantes managériales
de cette dernière peuvent-elles connaître des travers similaires ?
Un management inhibiteur de la CI de l’organisation
Comme par un certain mimétisme, la nature de la CI d’une organisation
constitue le véritable reflet du management qui y est pratiqué, la traduction de
son style directorial. Or, nous constatons que, dans bien des entreprises, comme
l’expression même d'une forme rétrograde de dirigisme, la CI présente les
aspects réducteurs d'une émission descendante de signaux quasi
systématiquement « télégraphiques ».
Dans les pratiques récurrentes de l’organisation pyramidale que nous
observons, nous voyons bien que la CI, sous toutes ses formes classiques, se
Communications MTO’2009
185
trouve bien souvent circonscrite à la transmission - par trop unilatérale - de
l'information, depuis l’organe directionnel, vers les salariés, y compris les chefs
de services. Corollairement, pour ne prendre que ces derniers comme exemple, il
se trouve que le synonyme de « cadres de commandement » leur soit
usuellement et officiellement attribué par les dirigeants de l’entreprise…
Ce type désuet de désignation hiérarchique, encore pratiqué de nos jours, à
l’ère des TIC, peut-il laisser indifférent le praticien, l’enseignant ou le chercheur
en SIC ?
Dès lors que l’on se réfère aux enseignements de l’histoire du management,
du taylorisme et de la communication d’entreprise, une telle dénomination
relèverait-elle de la simple anecdote ou constituerait-elle le symptôme d’une
problématique plus complexe, plus insidieuse ? Serait-elle la traduction d’une
forme itérative de « perte du principe de réalité » (Crozier, 1997 : 84) ou de
« crise de l’intelligence » (Crozier, 1995) de nos élites ? Constituerait-elle
également l’expression caricaturale d’un « phénomène bureaucratique » (Crozier,
1963), voire du regard porté par Maier (2004), Pilhes (1974) ou bien Guntern
(2001) sur la grande entreprise ?
Si nous associons cet apparent détail de langage organisationnel, à un
faisceau d’observations scientifiques convergentes, nous pensons qu’il témoigne,
pour le moins, d’une certaine distanciation entre la pensée managériale et cette
nécessaire « pensée communicationnelle » (Miège, 1995) dans l’entreprise.
Or, le Dircom de l’organisation, que la « révolution pacifique » (Champeaux
et Bret, 2000) des TIC nous permet de qualifier de « e-Dircom » (Ely, 2005a),
est sensé traduire opérationnellement cette dernière pensée, dans l’exercice de
sa fonction. Mais il s’avère qu’il se trouve, trop souvent, hiérarchiquement
confronté à des attitudes managériales antagoniques, à une sorte de système de
pensée unique directoriale. Celui-ci se caractérise par des tendances
managériales par trop cartésiennes, positivistes ou rationalistes. Ces tendances,
apparaissent d’une telle prégnance dans l’organisation, qu’elles prennent la
forme récurrente de la déconsidération, du désintérêt, de la méprise, voire d’un
certain mépris, de la part du système managérial à l’égard de la fonction
communication et des professionnels qui la représentent dans l'organisation
(Messika, 1994 ; Tixier-Guichard, Chaize, 1993 ; Bernard, 2002 ; Establet, 2005,
Bénard, 2006). La puissance de ces attitudes managériales spécifiques,
nourricières des jeux du pouvoir (Enriquez, 1997) technocratique de
l’organisation et comme empreintes d’une conception instrumentale et
dédaigneuse du métier de communicant, est de nature à limiter
proportionnellement toute valeur ajoutée de cette profession. A l'image d'un
cercle vicieux, il peut en résulter une certaine inhibition des processus
communicationnels internes dans l’organisation, au point qu’une « redéfinition du
186
Management des Technologies Organisationnelles : Journées d’Etude 2009
pouvoir managérial […] » (Batazzi, 2000) devant le domaine de la
communication d’entreprise apparaisse nécessaire, sinon indispensable.
Dès lors que l’on conçoit la nécessité d’une CI, non pas dans son sens
télégraphique (Shannon ; Weaver, 1975), mais orchestral (Winkin, 1996) ou
systémique (Mucchielli, 1999) de mise en commun, d'échanges réticulaires ou de
communion, nous pensons qu’elle devrait tendre davantage, pour le plus grand
intérêt de l’entreprise d’aujourd’hui, vers une forme de « réseau dans la
pyramide » (Sérieyx, 1996), ce que nous désignons par les termes de « maillage
construit transversalement ».
Or, devant les contextes managériaux que nous venons d’esquisser, comment
amener l’entreprise à innover et évoluer dans le sens d’une CI en réseau,
davantage porteuse d’interactivités sociales, de désindividualisation, de
motivation et de participation ?
La construction d’une nouvelle forme de CI, via les TIC, peut-elle avoir
véritablement lieu sans une appropriation politique, par la direction de
l’organisation tout entière avec, comme principal corollaire, une phase préalable
d’acculturation dans ses modes de management ?
Une culture d’entreprise limitative de la CI de l’organisation
Nous distinguons plusieurs liens entre ce complexe domaine de la culture
d’entreprise [3] et ceux du management et de la communication interne. Nos
observations, à l’instar de certains clivages culturels, rencontrés historiquement,
entre sciences dures et sciences molles, sciences de gestion et Sciences de
l'Information et de la Communication, sciences humaines et sciences exactes,
ajoutées aux constats de plusieurs auteurs (Bulinge, 2002 ; Serieyx, 1993 ;
Crozier,1997 ; Le Moënne, 1994 ; Barbaras, 1995), nous invitent à proposer de
concevoir que, par « induction », selon les concepts de « dynamique des
interactions » ou de « shismogénèse » (Bateson, 1936), les attitudes
managériales dominantes dans l’organisation peuvent être sensiblement
génératrices de sa culture tout entière et influer, par là même, de façon
significative, sur la nature de sa propre CI.
Ce processus culturel sous-jacent d’induction des attitudes managériales que ces dernières relèvent, par exemple, à l’excès, des modèles mentaux à
dominantes cérébrales « cerveau gauche » (Herrmann, 1992) -, peut se trouver
accéléré du fait du système organisationnel pyramidal adopté par l'entreprise
« citadelle » (Sérieyx, 1996). Il peut alors occasionner, sur le terrain, une forme
de « dérive pathologique » (Benoit, 2000) que nous constatons sous diverses
aspects (forums désertifiés, messagerie infobèse, formation aux TIC inappropriée
ou inexistante, résistances culturelles aux TIC et au partage de l'information,
etc.), des « effets pervers » (Jauréguiberry, 1994), voire des « souffrances au
Communications MTO’2009
187
travail » (Dejours, 2007) faisant apparaître le « système technicien » (Ellul,
1977) dans toute son acuité, où le DISTIC (Dispositif Socio Technique
d’Information et de Communication, comme « lieu privilégié d’interaction entre
communication et transmission [..] » [4]) en est alors réduit à l'instrument qui
instrumentalise son utilisateur.
Cette « maladie de la communication interne » que nous évoquions plus haut
présente les aspects d’un phénomène culturel constituant une réalité dont
l’ampleur pose question et qu’il serait intéressant de chercher à caractériser
davantage, dans le cadre d’un projet de recherche de plus grande envergure.
Si cette « maladie » semble générée ou, tout au moins, accentuée par
certaines influences managériales, serait-elle également la conséquence de la
pénétration d’une certaine culture d'entreprise Nord américaine, fonctionnaliste
et individualiste ?
Serait-elle le reflet, à l’intérieur de l’organisation, de problématiques
culturelles et sociétales plus larges ? En quoi pourrait-elle trouver quelque
remède, traitement ou palliatif dans l’application et les usages d’un modèle de
CI spécifique ? Ce dernier pourrait-il instiller, dans l’organisation pyramidale par
trop hiérarchisée, une certaine dose opportune de participation, d’écoute en
profondeur (Crozier, 1997), une forme de régénération du lien social, à l’image
de la réalisation, en son sein, des conditions d’une CI horizontale ou réticulaire
et l’adoption conjointe des attitudes et comportements managériaux
correspondants ?
E-DIRCOM, VEILLE ET INTELLIGENCE COLLECTIVE, POUR UNE CI INNOVANTE
Le sombre contexte organisationnel et managérial que nous venons de
dépeindre, ne nous a pas empêché pour autant de tenter de réunir les conditions
expérimentales nécessaires à la recherche, au sein de l’entreprise observée, de
ce qui s’est avéré constituer par la suite les fondements d’une communication
interne d’un nouveau type.
Nous avons eu ainsi l’occasion de manager les modalités d’une
communication interne qui soit bien plus le prolongement des réalités
quotidiennement vécues par la majorité des salariés, qu’une transmission
unilatérale d’informations descendantes. Ceci d’autant que le contexte de
maladie de la communication interne observé fait bien souvent percevoir la
communication interne, par ces derniers, comme un simulacre, une forme de
manipulation managériale.
La situation expérimentale que nous mettons en place dans cet esprit, au
travers de la conduite d’un projet collectif, durant trois années consécutives, via
un forum intranet de discussion et un groupware, s’inspire préalablement des
188
Management des Technologies Organisationnelles : Journées d’Etude 2009
apports de certaines théories complémentaires, pour converger vers une
proposition de modélisation.
Passer d’une CI « télégraphique » à une CI « orchestrale et systémique »
Nous concevons l’impérieuse nécessité d’une communication interne, non pas
dans son sens shanonnien de verticalité et d’unilatéralité, de l’émetteurmanageur vers les récepteurs-salariés, mais dans un sens plus batesonien de
transversalité, d’interactivité, de réticularité, de « réseau dans la pyramide »
(Sérieyx, 1996). Il nous paraît ainsi opportun de prendre appui sur la richesse
des apports des théories de la communication orchestrale (Bateson, 1936 ;
Winkin, 1996) et systémique (Mucchielli, 1999). Sur ces bases, en complément voire en substitution - du modèle télégraphique dont la direction de l’entreprise
étudiée fait un usage systématique dans ses pratiques communicationnelles
internes, nous posons, en résumé, qu’il peut exister une forme de
communication interne orchestrale et systémique dans l’organisation :
• une forme de communication interne orchestrale de l’organisation, au
sens où les salariés, « membres d’une culture, participent à la
communication [interne] comme les musiciens participent à l'orchestre »
(Winkin, 1996) et où le Dircom de l’organisation figure comme chef
d’orchestre de cette « communication sociale », en concertation avec sa
hiérarchie,
• une forme de « communication interne systémique » de l’organisation,
telle que les salariés, composantes d’un « système de
communications », « interagissent avec les autres éléments du système
et avec eux-mêmes » (Mucchielli, 1999).
Nous proposons à présent de confronter ce postulat aux opportunités que
nous offrent, au sein de l’entreprise observée, les concepts de veille,
d’intelligence collective, associés aux TIC matériellement à notre disposition.
La veille et le groupware « Infocom » : la base d’une équipe virtuelle pour la CI
Parmi les textes et ouvrages scientifiques que nous consultons, dans le cadre
d’une approche bibliographique exploratoire [5], nous constatons que le domaine
de la communication interne d'entreprise n’est pas encore directement envisagé
comme objet de processus de veille et d’intelligence. Le contexte problématique
que nous avons résumé dans la première partie de notre communication, nous
invite à nous appuyer sur le constat de l’impérieuse nécessité d'organiser les
conditions d’une « entreprise à l'écoute » (Crozier, 1997).
Nous nous demandons ainsi dans quelles mesures nous pourrions construire,
avec plusieurs salariés de l’organisation observée, un type de veille et
Communications MTO’2009
189
d’intelligence qui soit spécifiquement adapté au champ de l’information et de la
communication internes dont le e-Dircom [6] a la charge.
Nous proposons dans ce sens un nouveau type de veille que nous
dénommons « veille Infocom » et que nous définissons de la manière suivante :
« Activité d'observation et d'analyse de l'évolution informationnelle et
communicationnelle interne, pour dégager les menaces ou les opportunités
d'information et de communication interne d'une organisation, soucieuse d'agir
en tenant compte de son environnement » (Ely, 2007).
Nous mettons ensuite en application le principe de la « veille Infocom » au
sein d’une équipe virtuelle (Foulard, 1998 ; Coat et Favier, 2000), que nous
structurons autour d’un groupware (cf figure 1) comme « système d’information
créé pour permettre aux membres d’un groupe de travailler ensemble
électroniquement, grâce aux technologies de l’informatique et des télécoms,
avec trois dimensions principales : les participants, les méthodes collectives de
travail et les technologies. » (Coat et Favier, 2000).
Collaboration à distance
e-Dircom
Participants
T.I.C.C. :
Forum,
partagées…
bases
Figure 1. Groupware « Infocom » (Ely, 2007)
Le média principal de communication interpersonnelle, propre à cette équipe
virtuelle est un forum intranet de discussion (dénommé « forum Infocom ») dont
l’activité nous a été riche d’enseignements.
Le forum intranet comme dispositif stratégique de CI
Selon une posture méthodologique combinant principalement démarche
ethnographique, observation participante et méthodes quantitatives et
qualitatives, les données importantes que nous recueillons (près de 2000
messages postés sur le forum en trois années de fonctionnement) nous
190
Management des Technologies Organisationnelles : Journées d’Etude 2009
permettent, in fine, de positionner, pour le Directeur de la Communication d'une
organisation, le forum intranet de discussion comme dispositif stratégique de
communication interne (Ely, 2005b).
Nous mettons ainsi en évidence, en théorie et en pratique, cinq
dénominateurs communs observés entre les caractéristiques stratégiques de la
communication interne et celles du forum intranet de discussion : Motivation,
Participation, Co-construction, Communication interpersonnelle,
Résolution de problèmes (cf. figure 1).
FORUM
Motivation
Participation
Co-construction
Communication interpersonnelle
Résolution de problèmes
CI
Figure 2. Points de convergence entre les caractéristiques du forum
et les caractéristiques de la communication interne des organisations
(Ely, 2005b)
Au plan pratique, nous illustrons ces points de convergence par trois
exemples d'actions concrètes de communication interne co-construites, au sein
de l'organisation observée, via notre groupware et notre forum : des articles du
journal interne,
un organigramme électronique, une « mascotte »
iconographique du journal intranet.
Pour pousser plus loin notre réflexion, la pratique et l’analyse de ce même
terrain expérimental nous amènent à nous interroger sur la nature du processus
infocommunicationnel qui serait à l’origine des résultats obtenus.
Communications MTO’2009
191
L’Intelligence Communicationnelle Interne : une forme de CI innovante de
l’organisation
Les résultats - quantitatifs et qualitatifs (Ely, 2005b) – encourageants, issus
de l’activité journalière du forum « Infocom » sont-ils à mettre uniquement en
relation avec le dispositif de veille « Infocom » que nous avons organisé ?
La communication interne observée au sein de notre groupware et de notre
forum, est-elle uniquement liée au processus mis en place de captation de
l’information utile au e-Dircom ? Ou bien existe-t-il d’autres voies d’interprétation
possibles ?
L’ensemble de nos observations nous conduit, pas à pas, à appréhender la
présence d’un processus complémentaire de celui de la veille « Infocom » mis en
place.
Celui-ci nous paraît embrasser plus largement les notions d'intelligence
collective, de co-construction, de conception collective (Bouzon, 2003), de
résolution de problèmes, de collaboration à distance, de Knowledge
management (Goria, 2006) qui ont nourri notre réflexion et nos propres
pratiques expérimentales.
Nous identifions progressivement ce deuxième processus comme une étape
nouvelle, un pallier que le groupe franchit, à un moment donné de son évolution,
alors qu’il se trouve porté par la dynamique de veille et de partage
d’informations préalablement initiée. Cette étape supplémentaire amène les
participants à construire ensemble, petit à petit, plusieurs formes de
communication interne, matérielles et immatérielles (cf. figure 1 et
commentaires), et ce, sur la base d’un brassage informationnel et interpersonnel
singulier.
En cela, nous sommes conduits à proposer de distinguer ce deuxième
processus sous la forme d’une « intelligence de la communication interne de
l’organisation » que nous désignons par les termes interdépendants
d’Intelligence Communicationnelle Interne
(ICI). En nous appuyant ainsi
principalement sur les résultats de notre expérimentation, ainsi que sur les
concepts de « e-Dircom » (Ely, 2005a), d’ « entreprise intelligente » (De Rosnay,
2000 : 265-266 ; Zara, 2005 : 20, 21), de « groupware » (Coat, Favier, 2000),
tout en intégrant la complémentarité des notions d’Intelligence organisationnelle,
économique et collective , nous proposons de définir
l’Intelligence
Communicationnelle Interne de la manière suivante :
Intelligence Communicationnelle Interne (ICI) :
Capacité d’une « entreprise intelligente » à mobiliser collectivement des
compétences pluridisciplinaires, en vue de la co-construction à distance de sa
communication interne. Elle se traduit par un ensemble d’actions continues et
192
Management des Technologies Organisationnelles : Journées d’Etude 2009
coordonnées par le e-Dircom d'une organisation, à savoir : actions de veille et
d’analyse info-communicationnelles internes, d’orientation, de collecte, de
mémorisation, de partage et de diffusion de l’information. Celles-ci visent à
traiter l’information de façon à la rendre stratégiquement exploitable et ce, par la
transformation de l'information brute en information élaborée puis en
communication interne. Ces diverses actions, légalement développées, doivent
avoir comme supports un système d’information intégré par réseau interne à
l’entreprise (Intranet) et, d’autre part, une communauté d’intérêts ou de
pratiques composée d’acteurs internes collaborant à distance. (Ely, 2007).
Sur la base de cette définition, nous présentons ci-après (cf. figure 1) une
approche schématique de modélisation de l’ICI, dont la lecture peut être déclinée
comme suit :
• Orchestrée par le e-Dircom (au centre même du dispositif) s’appuyant
lui-même sur un système d’information (Groupware « Infocom »)
intégré par réseau interne à l’entreprise (TICC : Technologies de
l’Information, de la Communication et de la Collaboration) et, d’autre
part, sur une communauté d’intérêts ou de pratiques composée
d’acteurs (participants) internes collaborant à distance,
• …partant des besoins potentiels en information et en communication
internes (1) existant au sein de l’organisation,
• …l’Intelligence Communicationnelle Interne se traduit par un ensemble
d’actions continues et coordonnées : veille info-communicationnelle
interne (veille « Infocom »), orientation, collecte, mémorisation, et
partage de l’information (2),
• …visant à traiter l’information de façon à la rendre stratégiquement
exploitable par le e-Dircom et ce, par la transformation de l'information
brute en information élaborée (3),
• …puis, par la transformation de l'information élaborée en communication
interne (4), constituée d’une part, de supports « immatériels » (les cinq
dénominateurs communs que nous avons rappelés plus haut :
Motivation,
Participation,
Co-construction,
Communication
Interpersonnelle, Résolution de problèmes) et, d’autre part, de supports
matériels élaborés, également présentés précédemment, tels que, par
•
exemple, les articles du journal interne, l’organigramme électronique, la
« mascotte » graphique intranet,
…la dernière étape se concrétisant par la diffusion (5) générale de ces
derniers supports en direction de l’ensemble des salariés de
l’organisation.
Communications MTO’2009
193
1.
5.
BESOINS
DIFFUSION
EN INFORMATION &
Motivation
EN COMMUNICATION INTERNES
DE L’ORGANISATION
Participation
matériels
2.
Co-construction
Supports
VEILLE
Résolution de problèmes
Collaboration à
Communication
élaboré
INFOCOM
distance
ORIENTATION,
nterpersonnelle
Supports « immatériels »
4.
TRANSFORMATION DE
COLLECTE,
Participants
Groupe
eDircom
T.I.C.C.
Forum
« Infocom »
MEMORISATIO
N ET PARTAGE DE
L'INFORMATION
L’INFORMATION ELABOREE
EN COMMUNICATION
INTERNE
3.
TRANSFORMATION
DE L’INFORMATION BRUTE EN
INFORMATION ELABOREE
Figure 3 - Modèle d'Intelligence Communicationnelle Interne (Ely, 2007)
CONCLUSION GENERALE
Devant le besoin manifeste d’écoute des salariés, une certaine « perte du
principe de réalité » des dirigeants de l’organisation pyramidale observée,
certains rapports managériaux pathogènes à l’égard de la communication
interne, devant les pratiques d’une communication interne quasi exclusivement
télégraphique, descendante ou séquentielle, nous proposons de nous mettre en
quête d’une communication interne innovante. Le modèle d’ « Intelligence
Communicationnelle Interne » que nous amenons, installe, au sein de
l’entreprise, via les technologies organisationnelles, une nouvelle forme de
communication interne, composée de six facettes interdépendantes :
• médiatisée par les TICC (Technologies de l’Information, de la
Communication et de la Collaboration),
• orchestrale et systémique,
• managériale,
• fondée sur l’écoute,
194
Management des Technologies Organisationnelles : Journées d’Etude 2009
• co-construite,
• issue de l’intelligence.
En remettant vivement en question les rapports actuels entre management,
communication interne et opportunités offertes par les TIC, en prenant le contrepied de certaines pratiques managériales et communicationnelles existantes,
l’« Intelligence communicationnelle Interne » est susceptible, par sa dimension
orchestrale et systémique, de constituer un remède à une certaine « maladie de
la communication interne » observée dans l’organisation.
Par ce processus original de management stratégique de la communication
interne de l’entreprise, nous tendons à favoriser concrètement cette
« coïncidence entre la demande d'écoute et le besoin de connaissance
indispensable pour l'apprentissage collectif » (Crozier, 1997), le tout, dans la
perspective d’une recherche de (ré)génération du lien social.
Pourrions-nous enfin espérer que, par la connaissance et la re-connaissance
ainsi valorisées au sein du collectif de personnes qui en sont les premières
richesses, cette nouvelle forme de management de la communication interne,
participe d’une certaine Renaissance des vraies valeurs humaines et
communicationnelles internes au sein de l’organisation ?
NOTES
[1]
[En ligne, consulté le 12 avril 2009],
http://www.invs.sante.fr/presse/2009/communiques/journee_sante_mentale_24030
9/index.html
[2]
C’est nous qui surlignons
[3]
Dans le sens d’ « un ensemble de références partagées dans l'organisation,
construites tout au long de son histoire en réponse aux problèmes rencontrés par
l'entreprise » (Thévenet, 1993).
[4]
[En ligne, consulté le 10 avril 2008], disponible sur : http://i3m.univ-tln.fr/Unedefinition-du-Distic.html
[5]
s’appuyant sur plusieurs auteurs dont Bulinge (2002), Rouach (1996), Hermel
(2001), Ribault (1992), Jakobiak, Dou (1992), Lesca (1999), Besson, Possin (2001).
[6]
nous amenons ce concept de e-Dircom dans un précédent article (Ely, 2005a), le
préfixe « e » signifiant « électronique », pour symboliser le passage, depuis les
années 2000, aux pratiques des médias numériques de plus en plus prégnantes au
sein de la profession.
REFERENCES BIBLIOGRAPHIQUES
Barbaras, S., 1995, Notre ennemi : le client, Paris, First.
Communications MTO’2009
195
Batazzi, C., 2000, L'impact des (N)tic dans l'entreprise : vers une redéfinition du pouvoir
managérial, in : actes du 3ème colloque du Cric, Montpellier les 30 Novembre et 1er
Décembre 2000. [En ligne, consulté le 16 avril 2005], http://www.cricfrance.com/activite/manif/mtp2000/ateliers/management/batazzi.pdf .
Bateson, G., 1936, La cérémonie du naven : les problèmes posés par la description sous trois
rapports d'une tribu de Nouvelle-Guinée, Paris, Éd. de Minuit, 1971.
Bénard, V., 2006, «La souffrance éthique dans le travail des chargés de communication d’une
administration», Cairn, Travailler, [En ligne, consulté le 19 mars 2009],
http://www.cairn.info/article.php?ID_REVUE=TRAV&ID_NUMPUBLIE=TRAV_016&ID
_ARTICLE=TRAV_016_0155
Benoit, D., 2000, « Les Ntic dans l’entreprise : entre efficacité validée et effet placebo ; de
l’usage raisonné à la dérive pathologique », 3ème Colloque organisé par le Cric,
Pratiques de situations de communication et Ntic, Montpellier, [En ligne, consulté
le
16
avril
2005],
http//www.archivesic.ccsd.cnrs.fr/
documents/archives0/00/00/05/29
Bernard, F., 2002, « Contribution à une histoire de la communication des organisations dans les
Sic », in : Les origines des Sic, Regards croisés, Robert Boure, Villeneuve D’Ascq,
Presses universitaires du Septentrion.
Bernard, F., 2005, La communication interne à l'épreuve d'un “projet fort” de recherche en
communication des organisations, Communication et organisation, N°27, Bordeaux
3, Greco, p 144-167.
Bernoux, P., 1985, La sociologie des organisations, Seuil, Evreux.
Besson B., Possin J.C., 2001, Du renseignement à l’Intelligence économique, Paris, Dunod.
Bouzon, A., 2003, Coopération et communication dans les projets de conception collective,
ArchiveSic, Communication avec actes. X° Colloque bilatéral franco-roumain, Cifsic,
Université de Bucarest, 28 juin - 3 juillet 2003, [En ligne, consulté le 16 avril 2005],
http://archivesic.ccsd.cnrs.fr/sic_00000803/en/
Bulinge, F., 2002, Pour une culture de l’information dans les petites et moyennes organisations :
un modèle incrémental d’Intelligence économique, Thèse en sciences de
l’information et de la communication, Université du Sud Toulon Var.
Champeaux, J., Bret, C., 2000, La cyberentreprise, Paris, Dunod.
Coat F., Favier M., 2000, La réalité de la virtualité : Le cas des équipes virtuelles, Cerag, Umr,
Cnrs, [En ligne, consulté le 16 avril 2005], http://www.aim2000.univmontp2.fr/pdf/Coat.pdf
Crozier, M., 1963, Le phénomène bureaucratique, Paris, Ed. du Seuil.
Crozier, M., 1995, La crise de l'intelligence. Essai sur l'impuissance des élites à se réformer,
Paris, Interéditions.
Crozier, M., 1997, L’Entreprise à l’écoute, La Flèche, Point.
Dejours, C., 1993, Travail, usure mentale, Bayard, Paris.
Dejours, C., 1999, Souffrance en France, Seuil, Paris.
Dejours, C., 2007, Souffrir au travail, in : Le Monde du 23 juillet 2007.
Détrie, P., Broyez, C., 2001, La communication interne au service du management, Paris,
Liaisons.
De Rosnay, J., 2000, L'homme symbiotique. Regard sur le troisième millénaire, Saint-Amand,
Éd. Le Seuil.
196
Management des Technologies Organisationnelles : Journées d’Etude 2009
De Vasconcelos, C., 1999, L’Intelligence économique et la stratégie de développement de la
Pme, Thèse en Sciences de gestion, Université de Grenoble 2.
Dufour, D-R., 2003, L’art de réduire les têtes. Sur la nouvelle servitude de l’homme libéré à l’ère
du capitalisme total, Paris, Denoël.
Duterme, C., 2002, La communication interne en entreprise. L'approche de Palo Alto et l'analyse
des organisations, Bruxelles, De Boeck Université.
Ellul, J., 1977, Le système technicien, Paris, Calmann-Levy.
Ely, F., 2005a, Dircom & TIC : le DirCMO, quand l’anagramme préfigure la révolution de la
fonction...vers l’ e-dircom , Isdm N°21, article N°252, [consulté en ligne le 10
octobre
2005],
disponible
sur
:
http://isdm.univtln.fr/articles/num_archives.htm#isdm21
Ely, F., 2005b,
« Le forum Intranet de discussion : un nouveau dispositif stratégique de
communication interne des organisations ? », Revue Communication & Organisation
N°28, Le coaching, enjeux, paradoxes et perspectives, 2eme semestre 2005,
Bordeaux 3, Greco [consulté en ligne le 14 avril 2006], http://www.montaigne.ubordeaux.fr/GRECO/Revue/28coaching/ely.htm
Ely, F., 2007, Dircom et Technologies de l’Information, de la Communication et de la
Collaboration : le e-Dircom, pour une Intelligence Communicationnelle Interne de
l’organisation, Thèse en Sciences de l’Information et de la Communication,
Université du Sud Toulon Var, [consulté en ligne le 16 janvier 2008 ],
http://archivesic.ccsd.cnrs.fr/index.php?action_todo=search&view_this_doc=sic_00
349806&version=1&halsid=jdt6lumkchml326otgg3r1nom0
Enriquez, E., 1997, Les jeux du pouvoir et du désir dans l'entreprise, Paris, Desclée de Brouwer.
Establet, P., 2005, Pénible sera le réveil des entreprises sans Dircom, article de la revue
Stratégie, N° 1363 du 31/03/2005.
Foulard, C., 1998, L'entreprise communicante, Paris, Hermès.
Goria, S., 2006, Knowledge management et Intelligence économique, deux notions aux passés
proches et aux futurs complémentaires, [En ligne, consulté le 31 janvier 2007],
http://isdm.univ-tln.fr/PDF/isdm27/isdm27_IE&KM_Goria_06.pdf
Guntern, G., 2001, La médiocratie démasquée : pour un leadership créatif,
mondial.
Paris, Village
Hermel L., 2001, Maîtriser et pratiquer la veille stratégique, Afnor, Paris, Collection Pratique.
Herrmann, N., 1992, Les dominances cérébrales et la créativité,
Paris, Retz.
Hirigoyen, M.F., 1998, Le harcèlement moral, La violence perverse au quotidien, Syros, Paris.
Hirigoyen, M.F., 2001, Malaise dans le travail. Harcèlement moral: démêler le vrai du faux.
Paris, Syros.
Hopquin, B., 2008, Cadres. La Comédie du Bonheur, in : Le Monde du 18 septembre 2008
Jakobiak F., Dou H., 1992, « De l’information documentaire à la veille technologique pour
l'entreprise », in : La veille technologique : l'information scientifique, technique et
industrielle, H. Devals et H. Dou, Paris, Dunod.
Jauréguiberry, F., 1994, « De quelques effets pervers des télécommunications en entreprise »,
in : La communication Interne, une approche croisée, revue Communication et
organisation, N° 5, », Greco.
Communications MTO’2009
197
Le Moënne, C., 1994, Communication “by smiling around” et crise managériale, Revue Réseaux,
N° 64, Paris, Cent.
Lesca, H,. Lesca, E., 1999, Gestion de l’information, Qualité de l’information et performances de
l’entreprise, Paris, Éd. du management.
Levy, P., 1997, L’Intelligence collective. Pour une anthropologie du cyberespace, Paris, La
découverte.
Lojkine, J., Maletras, J-L., 2003, Le temps de travail informationnel : des mesures incertaines et
contradictoires, Revue de l'Ires, N° 42, [En ligne, consulté le 16 avril 2005],
http://www.ires-fr.org/files/publications/revue/r42/R424.pdf
Maier, C., 2004, Bonjour Paresse. De l'art et de la nécessité d'en faire le moins possible en
entreprise, Paris, Michalon
Massé, G., Thibaut, F., 2001, Intelligence économique, un guide pour une économie de
l'intelligence, Bruxelles, De Boeck Université.
Messika, L., 1994, Dircoms et journalistes : une convergence du flou, revue Réseaux N° 64,
Cent
Miège, B., 1995, La pensée communicationnelle, Grenoble, Coll. « La communication en plus »,
Presses Universitaires de Grenoble.
Mintzberg, H., 2004, Le management, voyage au centre des organisations, Editions
d’organisation, Paris
Mucchielli, A., 1999, Théorie systémique des communications, Paris, Armand Colin.
Nicolas, Y., 1996, « Genèse de la communication dans l’entreprise moderne », in : La
communication de la grande entreprise, Revue Entreprise et Histoire, N° 11, Éd.
Eska, Paris.
Pilhes, R.V., 1974, L'imprécateur, Paris, Éd. du Seuil.
Ribault, T., 1992, Séminaire veille stratégique, Ensptt.
Rouach, D., 1996, La veille technologique et l’Intelligence économique, 2ème édition, Paris, Puf.
Salengro, B., 2005, Le stress des cadres, L’Harmattan, Paris.
Sérieyx , H., 1993, Le Big bang des organisations, Paris, Éd. Calmann Levy.
Sérieyx, H., 1996, Face à la complexité : Mettez du réseau dans vos pyramides, Paris, Village
Mondial.
Shannon, C.E., Weaver, W., 1975, « La théorie mathématique des communications », Paris,
Retz.
Thévenet, M., 1993, La culture entreprise, Coll. Que sais-je ?, Paris, Puf.
Tixier-Guichard, R., Chaize, D., 1993, Les Dircoms. A quoi sert la communication d’entreprise ?,
Paris, Éd. Le Seuil
Winkin, Y., 1996, Anthropologie de la Communication, Paris, Essais.
Zara, O., 2005, Le management de l’Intelligence collective. Vers une nouvelle gouvernance,
Paris, M2 Editions.
198
Management des Technologies Organisationnelles : Journées d’Etude 2009
Communications MTO’2009
199
Désordres organisationnels induits par
l’abus des tableurs
Denis ZANDVLIET et Yann XOUAL
Consultants
Valu€360 / Noisy le Grand et XAGA / Saint Maur des Fossés
RESUME
« C’est de l’Excel Money ! » est une exclamation souvent entendue qui
montre un déphasage organisationnel important entre la volonté du
management et la réalité du terrain.
Cette communication montre les raisons d’une certaine désorganisation du
management jusqu’au plus haut niveau, avec l’impact sur la gouvernance, et,
présente des solutions ad hoc. Les périodes de crise et la recherche permanente
du cash à court terme ont amplifié le besoin de reporting dans le monde anglosaxon. Le monde européen n’est pas exempt de la maladie du tableau de bord
et de l’abus des indicateurs de suivi et de performances. Au cours de cette
dernière décennie, le manager s’est transformé en un compilateur de données
diverses sur tableur. Montrer que ses prévisions sont correctes est politiquement
plus important que faire mieux que prévu. La capacité d’écoute en a été réduite.
La nécessité de manipuler des chiffres dans tous les sens, de communiquer
fréquemment les prévisions et résultats, a donc imposé un usage général du
tableur au dépend des outils de gestion, maintenant classiques, comme les ERP,
mais souvent trop rigides.
La souplesse, mais aussi la permissivité, des tableurs induisent alors des
défaillances décisionnelles et organisationnelles. Les reportings s’avèrent trop
souvent manquer de fiabilité et de traçabilité. Les contrôles en sont parfois
biaisés, laissant des ouvertures à des risques de fraude. Ces outils manquent
aussi d’ergonomie et sont mal adaptés aux attentes opérationnelles du terrain ;
les managers intermédiaires sont souvent lassés de remplir des tableaux pour
remplir des tableaux.
200
Management des Technologies Organisationnelles : Journées d’Etude 2009
Ces défaillances adressent directement la qualité tant des décisions que de la
gouvernance des entreprises, des collectivités et des administrations.
La communication s’appuie sur de nombreux constats effectués par les
auteurs tant au titre de manager que celui de consultant, une confirmation
bibliographique qui montre la permanence de la problématique depuis deux
décennies, et, sur une enquête auprès de dirigeants, de directeurs financiers, de
contrôleurs de gestion et de responsables opérationnels. L’enquête a été
conduite de la mi-juin à septembre 2009 ; elle donne une vision actualisée de
ces problématiques. Conduite sous l’égide du MTO, elle est structurée autour
des outils utilisés (ERP, BI, tableur, …), des constats, des pratiques, des
comportements et des attentes de ces responsables.
XAGA et Valu€360 concluent par des solutions possibles pour la mise en place
d’une gouvernance ad hoc à la situation de chaque entreprise :
• Réduire les erreurs par des étapes et des formules de vérification
• Modéliser les informations financières à partir des données
opérationnelles
• Gérer de façon centrale les informations structurantes
• Contrôler les mécanismes de calculs dans les tableurs à l’aide d’outils
• Permettre des paramétrages locaux en cohérence avec la gestion
globale de l’entreprise
• Disposer d’outils adaptables aux évolutions métiers, structurelles et
organisationnelles
INTRODUCTION : L’APPARITION DU TABLEUR ET DES EFFETS PERVERS
Au milieu des années 80, un grand groupe pétrolier a décidé d’équiper tout
son service marketing de PC et d’inverser les flux d’information entre la direction
du marketing et l’informatique. Désormais, le marketing n’était plus dépendant
de l’informatique centrale.
Cette révolution a été permise par l’apparition des outils bureautiques, dont
en particulier le tableur.
Les délais d’attente de création d’application ou de modification d’une
application étaient, sont, et resteront encore trop longs. Pour un ERP, le
premier go-live dans une grande entreprise est rarement en dessous d’un an,
voire 2 ou 3 ans dans les grands projets. Des activités telles que celles du
marketing ne peuvent pas supporter de tels délais : les évolutions des services,
des marchés, des technologies, des modes se mesurent plus en mois qu’en
années. De plus, les actionnaires des entreprises veulent maîtriser l’évolution de
Communications MTO’2009
201
leurs fonds et l’usage qui en est fait, avec une fréquence et une précision de plus
en plus élevées.
L’entreprise se trouve donc prise sous la double pression de s’informer et
d’informer dans des délais de plus en plus courts. Les cours de bourse peuvent
varier de plusieurs points une journée, les parts de marché se mesurent chaque
semaine dans le secteur pharmaceutique. L’information nécessaire à la prise de
décision doit être fournie au même rythme.
Les directions financières, avec la fonction de contrôle de gestion, sont les
bras armés de l’actionnariat et des dirigeants pour traduire en dollars ou en
euros les conséquences des évolutions opérationnelles et de leurs marchés. Il
leur fallait se doter d’un moyen permettant des calculs et des transmissions de
données rapides et dont ils auraient toute la maîtrise : le tableur.
Le tableur est un outil magique comparé au stylo-papier ou à la calculette.
On peut y traiter soi-même des milliers de données en quelques instants, pour
autant que celles-ci soient captées. Il est donc naturel que, sous la pression des
directions générales, le tableur soit devenu un outil indispensable pour les
directions financières. Dès les années 80, les cabinets d’audit ont équipé leurs
consultants de PC portatifs avec des tableurs pour traiter les données financières
des entreprises auditées dans le cadre des commissariats aux comptes.
On a donc assisté, non pas à un phénomène de mode, mais à un phénomène
structurel en profondeur dans les habitudes de travail des directions financières
et de contrôle de gestion. Très rapidement, les directions opérationnelles se
sont aussi dotées de tableurs, au moins pour pouvoir communiquer les données
exigées aux formats exigés par les directions financières.
Mais un effet pervers générique s’est rapidement avéré : le dire du tableur
devient la vérité. L’approche financière anglo-saxonne « court-termiste » a de
plus provoqué la réduction de l’information de management de l’entreprise à son
presque seul contenu financier. En effet, la fréquence exigée pour mettre à jour
les données a obligé tant les opérationnels que les financiers à « shunter »
régulièrement les données opérationnelles et les mécanismes de transformation
qui permettent de construire les schémas financiers, et à s’en tenir dans leurs
rapports (sous tableurs) aux données financières.
Le tableur installé comme outil standard et reconnu de facto comme tel
devient donc le détenteur de la vérité économique. Il suffit alors de changer les
valeurs des objectifs dans les cellules pour construire un business plan et pour
pouvoir exiger des collaborateurs de le respecter. C’est l’apparition de l’« Excel
Money ».
Mais la manipulation de données dans un tableur est un exercice souvent
risqué : écrasement de formules, rupture de lien, erreur d’adressage de cellules,
erreur de zone de sommation, erreur de parenthèse dans une formule, …
202
Management des Technologies Organisationnelles : Journées d’Etude 2009
L’introduction des macros a augmenté les possibilités d’erreurs. Les tableurs ne
sont pas dotés d’outils suffisants pour le contrôle des mécaniques de calculs que
l’on y programme. Des audits (cf. bibliographie : [1] Michel Volle ; … ; [26]
Raymond Panko) montrent que le taux de tableaux comportant des erreurs de
calculs s’évalue à plus de 10%, voire 30% et plus.
Le tableur devenant le détenteur de la Vérité financière, et donc contenu de
stratégie, la confiance aveugle de décideurs a même conduit à des erreurs
monumentales : en septembre 2008, suite à un reformatage de fichier, lors du
rachat de Lehman, Barclays s’était engagé à 179 contrats de plus sur un total de
1.000, avec un impact grave (cf. bibliographie : [18] Reynald Fléchaux, entre
autres). Que dire du cas de la Société Générale où le tableur a été dénoncé
comme l’un des outils ayant permis la « fraude » (sources : articles de journaux
; bibliographie : [27] Georges Vignaux) ?
Cet effet pervers a été conforté par l’exigence de l’actionnariat et de
dirigeants à gérer à partir de la seule vision financière. Cet effet pervers s’est
amplifié avec l’accélération de l’économie de l’information.
L’exigence financière ‘court terme’ a de plus créé un phénomène de tabou sur
les différentes problématiques liées au reporting par tableur. Invoquer des
difficultés d’outils reviendrait à se faire accuser d’incompétence. C’est la
sacralisation du règne de l’ « Excel management »
La souplesse de construction des tableaux, associée à l’absence d’outils
permettant de s’assurer la fiabilité et de tracer les évolutions, a donc créé un
phénomène de désorganisation, d’une part, par des prises de décisions fondées
sur des résultats erronés, et, d’autre part, par une distorsion progressive et
rampante de l’organisation.
Le tableur devient facilement un outil permissif.
REVUE DE LA LITTERATURE
Il a été recherché sur le net des références aux problématiques liées à
l’usage des tableurs : des milliers de références ont été trouvées. Pire, European
Spreadsheet Risks Interest Group recense plus de 277 000 références sur la
thématique "errors and frauds in spreadsheet" (« The Good, the Bad and the
Ugly », Internal Auditor, avril 2009). Selon Business Finance, août 2008, de
nombreuses études faites sur ces dix dernières années montrent que 86% des
tableurs contenaient des erreurs !
Selon Microsoft, plus de 400 millions de personnes utilisent son tableur.
Martin Erwig [25], Raymond Panko [26], le BPM Forum [10]) et bien d’autres
montrent que l’outil d’analyse et de reporting le plus répandu dans le monde est
utilisé quotidiennement pour prendre des décisions cruciales avec force risques :
Communications MTO’2009
203
cette omniprésence peut exposer les entreprises à des niveaux de risques
inacceptables lorsque les tableurs et autres applications bureautiques sont
utilisés dans un environnement non contrôlé.
Les articles recherchent les causalités de ce manque de contrôle. De
nombreux auteurs expliquent qu’une cause majeur est la faible maîtrise de
l’évolutivité ; celle-ci ne pourra être ni contrôlée ni exploitée en dehors de la
personne qui s'est chargée de développer des fonctionnalités complexes, ellemême en perdant le contrôle au bout de quelques mois.
La prise de conscience constatée sur le net ne s’accompagne pas pour autant
d’une remise en cause du fond, mais surtout de recettes sur « comment éviter
de faire une erreur de calcul », ce qui est insuffisant pour résoudre cette
problématique.
Mais, il est aussi mis en évidence le faible degré d'interopérabilité avec les
bases de données de l'entreprise et le manque de capacité de partage de
l'information. Il est aussi montré que le risque d’avoir une vision erronée des
indicateurs de performance est élevé du fait de nombreux retraitements de
données et de leur passage de main en main, ce qui relève d’une problématique
organisationnelle.
METHODE
Cette communication s’appuie sur des expériences des auteurs, mais aussi
sur celles d’auditeurs, de consultants, de managers de business units, de
directeurs commerciaux et de directeurs des systèmes d’information au sein
d’entreprises de différentes tailles et métiers que les auteurs ont connus au
cours de leurs carrière.
L’étude bibliographique révèle la fréquence et la gravité des erreurs de
décisions issues de l’abus d’usage de tableurs, alors que généralement un voile
pudique est jeté sur ce type d’information.
Le questionnaire est diffusé auprès de dirigeants et responsables
d’entreprises pour préciser d’un point de vue quantitatif les analyses et
conclusions issues des ces expériences, en complément à ceux révélés dans les
références bibliographiques. Le questionnaire pourra nuancer, en positif ou
négatif, les résultats des études précédentes.
DISCUSSION ET IMPLICATIONS MANAGERIALES
L’usage du tableur a des implications lourdes dans l’organisation et les
modalités de décision du management. Comment un simple outil, aussi banal,
204
Management des Technologies Organisationnelles : Journées d’Etude 2009
peut-il
avoir
des
qu’organisationnelles ?
conséquences
majeures
tant
décisionnelles
Jusqu’à la fraude
Ecoutons ce que se disaient, dans un avion, deux collaborateurs d’un grand
groupe automobile discutant du management des concessionnaires : « … on ne
comprenait pas, les objectifs de croissance étaient atteints mois par mois dans le
reporting, mais au semestre dans l’ERP, cela ne collait plus du tout ! on a
cherché … Et bien, certaines concessions changeaient les chiffres des ventes du
mois précédent ! Comme ça, si sur une base 100, on devait faire +3, celui qui
n’avait fait que +2 mettait 99 au lieu de 100 pour le mois précédent ! Du coup,
on a mis des macros pour vérifier que les données de vente du mois précédents
étaient bien les mêmes … »
Le réflexe de l’auditeur interne a été de mettre des macros pour vérifier le
dire du déclarant. C’est une absence certaine de considération organisationnelle
globale. Dans ce type de processus, il était inutile de remonter les données du
mois précédent, même s’il est judicieux de les y laisser pour que le
concessionnaire voit sa progression. Il suffisait de consolider les données du
nouveau mois et de faire le calcul de progression des ventes à partir des
données déclarées précédemment. On peut d’ailleurs se demander si avant la
découverte de cette fraude la direction centrale conservait les données des mois
précédents de façon opérationnelle, ce qui traduirait une insuffisance grave de
traçabilité.
Les déclarants avaient donc trouvé une faiblesse dans leur système de
reporting par tableur et en ont profité … un certain temps ! L’homme reste
humain !
Cet exemple adresse directement un phénomène de fraude provoquant une
désorganisation : erreurs de décisions, interrogations du pourquoi, recherches,
demandes d’informations complémentaires, contrôles supplémentaires,
augmentation du coût administratif … résolu ici par une complication des fichiers
tableurs.
Le tableur est un outil très puissant, mais il en est d’autant plus un outil
permissif. Les sachant objecteront que l’on a tous les moyens d’éviter ce type de
phénomène et de résoudre correctement les questions organisationnelles. Cela
est vrai, mais au prix d’efforts très importants : ceux de programmer de
véritables applications dans un outil qui, néanmoins, n’est pas conçu pour être
un applicatif partagé.
Communications MTO’2009
205
Les caractéristiques du tableur et les évolutions technologiques
Un tableur gère des données, facilement jusqu’à des dizaines de milliers, et
permet d’appliquer des fonctions calculatoires et conditionnelles. Ces fonctions
évoluées permettent de calculer relativement facilement tout ce qui est
nécessaire en gestion, et même plus.
Les graphiques dynamiques croisés permettent d’obtenir des graphes
sophistiqués propres à présenter des analyses et synthèses de qualité en comité
de direction. L’utilisation de ce type de graphique crée une demande et les
utilisateurs ne reviennent plus en arrière sous peine de dégrader la qualité de
leurs présentations.
Le tableur est structuré en feuilles. Les feuilles en matrices. Toute cellule est
adressable. Les adressages peuvent se faire par calcul de chaine de caractères,
donc indirects. Les cellules peuvent être nommées, une à une ou par ensemble,
ce qui est une pratique recommandée qui améliore la qualité de la construction,
mais demande des efforts importants. En fait, le nommage des cellules est trop
rarement pratiqué.
On peut écrire des formules très élaborées dans un tableur, mais la lisibilité
en est très médiocre, ne serait-ce que par l’incrustation des parenthèses. Les
contrôles natifs permettent de mettre en évidence des erreurs de consistance
dans la construction des calculs, comme les références circulaires. On peut aussi
afficher les relations de calculs entre les cellules. Mais il n’y a aucun moyen de
visualiser et contrôler la programmation dans sa globalité et d’en vérifier la
consistance et l’exactitude.
L’apparition des macros a permis d’introduire de véritables programmations,
à des niveaux relativement complexes, mais sans avoir les sécurités que l’on met
en œuvre par une programmation classique avec un SGBD. Sans macro, la
mécanique de calcul d’un tableur est limité au fait que chaque cellule calcule sa
valeur mais qu’on ne peut pas enclencher le calcul de la valeur d’une cellule à
partir d’une autre cellule. Les techniques de programmation des tableurs s’en
trouvent limitées et compliquées.
L’apparition de fonctions de partage (« share… ») a aussi augmenté l’intérêt
des tableurs, mais il reste d’importantes limitations dans la mise à jour des
données, voire l’apparition de conflits lors des mises à jour en mode partagé,
même s’il y a des moyens de verrouillage.
Les flux de reporting dans l’entreprise : de la facilité aux difficultés
Prenons le cas d’une entreprise structurée en divisions et départements. Sa
taille sera alors de quelques centaines de personnes à quelques milliers. Dans le
cas de très grandes entreprises, il peut y avoir de 4 à 5 niveaux hiérarchiques
majeurs, donc quelques dizaines de milliers à plus de cent mille personnes.
206
Management des Technologies Organisationnelles : Journées d’Etude 2009
Dans le cas d’un Groupe, on trouvera typiquement des structures du type :
Groupe – Filiales – Divisions – Départements - Unités
On voit donc qu’entre la PME et le Grand Groupe le nombre de niveaux du
reporting va être généralement de 2 à 5. Chaque niveau de hiérarchie va
collecter les informations des 3 à 7 structures le composant, 10 étant un
maximum.
Un reporting demandera donc la consolidation de quelques dizaines à
quelques centaines d’unités de production (industries ou services). Dans une
direction informatique, il y a quelques dizaines à quelques centaines de projets à
gérer en parallèle. La consolidation de centaines de tableaux pour obtenir une
vision globale est donc assez commune.
Lorsqu’une entreprise n’a pas intégré les informations opérationnelles et les
informations financières dans un ERP (ce qui est la pratique courante), il est
demandé à chaque unité de production de produire périodiquement les données
traduisant l’activité, de préférence directement sous forme financière pour éviter
des efforts de traduction des données opérationnelles vers les données
financières.
Or les métiers des unités ont toujours des différences opérationnelles
notables. Au niveau de la direction générale d’une entreprise, du fait de la
diversité opérationnelle et de l’éloignement hiérarchique, il est souvent
malheureusement difficile d’appréhender la réalité opérationnelle quotidienne,
celle qui est pourtant porteuse des résultats financiers.
La facilité est donc de demander directement les données financières, avec
généralement l’application de règles de transformation parfois grossières, mais
justifié au niveau direction générale car reposant sur des moyennes. Les frais
fixes sont par exemple répartis suivant une hyper-équation fondée sur un mixte
des données de l’année précédente et les objectifs assignés à chaque unité. De
telles règles induisent des approximations, tantôt au bénéfice des uns, tantôt au
détriment des autres. Mais les tableaux seront d’autant plus faciles à construire
et à interpréter du point de vue de la direction financière.
L’une des problématiques induites est que les managers intermédiaires ont
rarement le droit de proposition sur la structure et les règles de calculs des
tableaux, elles sont imposées.
La conséquence est souvent un certain
mécontentement.
Une autre problématique du reporting par remontées successives de tableaux
est que l’information reste strictement ascendante. Il est certain que toute
l’information de consolidation ne doit pas être mise à portée de tous, mais le
management intermédiaire subit une frustration par manque d’information
Communications MTO’2009
207
descendante. La mécanique de reporting par tableaux ne comporte pas
d’automatisation pour redescendre l’information de pilotage.
L’examen du processus de remontée des tableaux du point de vue des délais
apporte une compréhension des causalités de manque de qualité et de fiabilité,
voire de traçabilité des reportings. Constituer un tableau de reporting mensuel
par exemple prend pour le manager intéressé généralement quelques heures,
voire une journée. Le temps de saisie en soi n’est pas important, mais la collecte
des données et leurs vérifications sont très gourmandes de temps. Le manager
aura donc tendance à demander à ses responsables de remplir eux-aussi des
tableaux. Ce qu’il subit, eux peuvent bien le subir également.
Le reporting va être remonté sur 2 à 5 niveaux. Il est donc nécessaire de
diviser le délai de remontée par le nombre de niveaux. Chaque niveau a le
devoir de vérifier la qualité des informations lui parvenant, puis doit également
convertir et agglomérer ces données pour le niveau supérieur. Le temps
théorique de travail est généralement court, mais la pratique est toute autre. Il
y a toujours des erreurs de saisies, de compréhension sur la nouvelle donnée à
renseigner (car il y a presque toujours une nouvelle donnée), des personnes en
vacances, un message non-arrivé, un format de tableau dans l’ancienne
version... les causes de travail supplémentaires sont très nombreuses et très
fréquentes.
Les périodes de fin de mois sont donc souvent des périodes de stress, car la
priorité devient le reporting. Dans les sociétés anglo-saxonnes, c’est la fin de
trimestre qui est la plus stressante car les attentes du management sont très
exigeantes en fin de quarter du fait de la propre exigence des actionnaires
(cotation en bourse du groupe, …).
Le tableur, outil facile d’usage, devient donc par son essence (et sa
permissivité) un outil de désorganisation des activités normales de l’entreprise,
avec aggravation lors des reportings.
Les défaillances potentielles du système de reporting par tableur
Les défaillances potentielles sont nombreuses. Il en est dressé ici la liste des
principales :
Manque de traçabilité des reportings
Les fichiers ne sont pas signés lors de leurs émissions par leurs auteurs. Qui
a réellement saisi telle ou telle donnée ? Les fichiers sont rarement conservés
sur de longues périodes (a minima l’année) du fait que l’ERP, à coté, détient la
vérité comptable, le reporting étant un instrument de pilotage à vue, même pour
la fiscalité. Or bien des décisions stratégiques (sur un client, un projet, un
208
Management des Technologies Organisationnelles : Journées d’Etude 2009
produit, …) sont prises à partir des informations produites par le reporting. Il y a
un besoin incontournable de traçabilité.
Manque de fiabilité des informations
Le problème est que les erreurs ne sont pas flagrantes : 5% d’erreur sur un
résultat est peu visible. Or ce sont les erreurs le plus à craindre. Une erreur de
50% amène un réflexe de contrôle, pas un écart de 5%.
Il faut aussi prendre conscience qu’un individu peut facilement concevoir des
proto-applications impliquant des milliers de cellules contenant des formules
(utilisation du copie-coller avec décalage de référence). Un taux de 1 pour mille
d’erreur, très faible a priori, signifie que les résultats obtenus sont certainement
faux.
Non-reproductibilité des résultats
Les tableaux étant rarement conservés ou conservables, on ne peut dès lors
reconstituer les résultats ; s’ils sont conservés, les fichiers d’agglomération ne
peuvent pas être réutilisés car souvent des données ont été forcées
(généralement par simplification dans l’urgence). De plus, le tableur étant très
facile à modifier (« c’est fait pour »), afin de mieux réagir à une conjoncture, des
événements, des exigences de contrôle, … on a fait évoluer les tableaux.
Plusieurs mois après, on ne peut plus retrouver quels changements ont été faits.
Déstructuration de l’information
L’usage du tableur fait que l’on codifie les informations dans la forme la plus
pratique possible au moment de la réalisation du tableau et dans son contexte
particulier ; il est fréquent par exemple de tronquer les périodes à la fin de
l’année fiscale pour un projet pluriannuel (il sera toujours temps à la fin de
l’année …) : le total obtenu n’est donc pas le total du projet. Il est construit des
vues spécifiques de l’information et des données qui conduisent à une
déstructuration globale des informations gérées, induisant des erreurs de
compréhension quant à la signification des informations obtenues.
Contrôles d’activité difficiles
Le reporting est par essence un outil de contrôle, tant financier
qu’opérationnel. Or les simplifications faites dans la remontée des données, puis
les agglomérations des données, rendent difficile la compréhension du pourquoi
des écarts. Il est fréquent de voir agglomérer dans l’ERP une masse de données
opérationnelles en perdant la source de ces données car la vision globale
demandée ne l’a pas estimée utile vis-à-vis de ses propres attentes (exemple :
agglomération des jours de travail par projet en ignorant qui et sur quelles
Communications MTO’2009
209
étapes). La vue financière a trop souvent ignoré la réalité opérationnelle ; les
consignes opérationnelles d’une même hiérarchie peuvent être ainsi en
contradiction avec les objectifs financiers.
Suivis budgétaires délicats
La concentration du tableur sur l’information financière laisse espérer que le
contrôle budgétaire soit facilité. Or, les mécanismes d’agglomération et de souci
de vision à court terme oblitèrent nombre de facteurs, dont souvent le
moyen/long terme. Dans les collectivités, les engagements se font à l’année,
mais les contrats avec les fournisseurs sont très souvent à cheval sur au moins
deux années. Il apparaît alors une incertitude d’une période budgétaire à
l’autre ; il sera alors imposé des tableaux supplémentaires pour évaluer la
hauteur de l’engagé qui reste en encours.
Plus généralement, une enquête du BPM Forum (réf. J-) révèle que
seulement 16% des entreprises construisent leurs budgets de dépenses de façon
suffisamment précise dans les temps requis, et ce taux tombe à 11% pour les
budgets de ventes ; 76% des entreprises reconnaissent utiliser un tableur.
Problèmes de vérification pour les auditeurs et contrôleurs de
gestion
Au-delà des applications comptables et des grandes fonctions des ERP, les
auditeurs doivent également contrôler le contenu des tableurs, jusque dans le
détail de la cellule. C’est une conséquence des réglementations SOX, Solvency
II, IFRS, … qui exigent que la traçabilité des données financières soient
complètes. Or les tableurs interviennent de plus en plus dans la construction des
données financières et fiscales, pour la présentation aux comités pour la
gouvernance des entreprises. L’une des problématiques classiques est le cas des
retraitements qui se font fréquemment hors les outils de gestion, c'est-à-dire sur
des tableurs. Contrôler les calculs dans un tableur peut impliquer de contrôler
des milliers de cellules et leurs enchaînements, surchargeant alors le travail
d’audit.
Ouverture aux risques de fraude
Les tableurs sont fréquemment des outils de calculs de primes. Les
entreprises font varier tous les ans les critères et les logiciels de RH ne peuvent
pas toujours suivre, surtout lorsque l’on doit considérer des valeurs
opérationnelles (nombre de rendez-vous, nombre de contrats, …). Mais au-delà
des calculs de primes aux personnels, lorsque les décisions de gestion utilisent
des tableaux, il apparaît des faiblesses systémiques. Les fraudes atteignent
facilement des montants de plusieurs millions d’euros, et parfois très au-delà. Le
210
Management des Technologies Organisationnelles : Journées d’Etude 2009
Sarbanes-Oxley Compliance journal cite le cas d’une fraude où le directeur
financier a falsifié les états financiers pendant 5 ans, impliquant lors de la
découverte une chute de la valeur de capitalisation de 437 millions de dollars.
Démotivation du management intermédiaire
Cette démotivation est l’un des risques réels de l’abus du tableur. Les
managers ont l’obligation de remplir de plus en fréquemment des tableaux.
Dans le meilleur des cas, ils ont une lassitude qui les invite à porter moins
d’attention à la qualité du reporting, dont ils sont un maillon indispensable.
Les indices de l’« abus de tableur »
Comment savoir si entreprise ou une organisation a sombré dans l’« Excel
Hell » (l’Enfert d’Excel) ? Quelques indices sont proposés ici :
Le nombre de personnes concernées
Dès que plus de 5 personnes sont concernées à remplir le même tableau,
chacune devant rechercher des informations auprès de leurs collaborateurs ou
collègues, il y a une demande significative de partage en écriture des
informations.
Le nombre de tableaux à consolider
Si pour fournir régulièrement un tableau de bord, il est nécessaire de
consolider plus de 5 tableaux de données différents, il se pose un problème de
structuration des informations gérées.
On constate alors également des
variations fréquentes de structures des tableaux tout au long de l’année.
Le nombre d’indicateurs de performances croit et devient
important
Faire croître le nombre d’indicateurs est un symptôme de difficultés à
maîtriser le modèle économique de l’entreprise ou de la collectivité. Il doit être
admis qu’un nombre finis d’indicateurs ne peut pas représenter le comportement
exact d’une organisation dans toute sa finesse. Les indicateurs ne sont qu’une
représentation modélisée des activités. Par contre, il est nécessaire de disposer
des indicateurs qui montrent les activités sous un ensemble suffisant de vues.
Les fondamentaux sont souvent exprimés à partir des indicateurs de mesure des
processus de bout en bout. A titre d’exemple, une dizaine de tableaux de bord
doit suffire à représenter l’activité d’une direction des systèmes d’information,
activités de services complexes par nature.
Communications MTO’2009
211
La fréquence des retards
Lorsque pour la clôture mensuelle, ou même une simple consolidation
hebdomadaire, il est constaté des retards fréquents (au moins 1 tableau en
retard à chaque période), alors il y a des difficultés locales à remplir les tableaux,
voire une reluctance. Cela traduit un déficit organisationnel dans la capacité à
constituer et construire les informations locales (niveau d’un département, d’une
équipe, d’un projet, …).
L’expression d’une lassitude des collaborateurs
Lorsque les collaborateurs montre un manque d’enthousiasme pour remplir
en temps et en heure les tableaux, le processus est mal vécu, perçu comme
inutile, voire contraire aux intérêts de l’entreprise et les risques de défaillances
croient.
Une fréquence élevée de constats d’erreurs
Etant donné les taux d’erreurs constatés lors d’enquêtes, avoir tous ses
tableaux exempts d’erreurs semblerait presque anormal ! Cependant,
s’apercevoir très régulièrement que les tableaux présentent des erreurs signifie
soit que les cellules ou les feuilles sont mal protégées, soit que les modalités de
saisies sont mal expliquées ou perçues, soit qu’il y a des erreurs de formulation
dans les fichiers.
La lourdeur des re-saisies
Lorsque les mêmes données sont re-saisies plusieurs fois, en parallèle ou à
différents niveaux de la consolidation, il y a un problème latent d’intégrité des
résultats. En fait, il est fréquent de faire saisir des données similaires, dont le
périmètre n’est pas strictement le même (en temporel très souvent). Le
problème peut alors être très difficile à résoudre car avoir des périmètres
différents de signification des informations provient des habitudes propres à
chaque entité structurelle, ou, des changements trop fréquents dans les
exigences de l’entreprise (souvent dans la volonté de s’adapter à une
conjoncture).
Le changement fréquent de périmètre des données
La volonté de s’adapter continuellement à la conjoncture, ou plus simplement
à des événements en général à impact négatif, traduit un désarroi du
management. Le marché de l’entreprise est vraisemblablement en pleine
mutation, ou la concurrence devenue très agressive. Ces changements de
périmètre vont générer des incompréhensions chez les responsables, et par là
212
Management des Technologies Organisationnelles : Journées d’Etude 2009
des erreurs d’interprétation. Il est alors temps de rechercher quels sont les
fondamentaux de l’entreprise et quelles sont les informations qui les expriment.
L’utilisation des macros
Les macros servent à construire des applications autour des tableurs. Cette
utilisation est un symptôme certain de l’abus comme recherche de la suppression
des effets secondaires négatifs en fiabilisant les processus de reporting à « peu
de frais ». La maintenabilité des macros est assez faible, résistant mal aux
changements de versions : l’entreprise peut tomber dans une situation de
blocage.
Les solutions possibles
L’abus de tableur n’est pas une maladie inguérissable. Le tableur est bien
une ‘drogue’ du contrôleur tant il est facile d’emploi pour toutes sortes de
travaux de calculs, de reportings et de présentation des données sous formes
graphiques. Le principe est de fournir à l’entreprise une solution qui apporte les
mêmes facilités d’adaptation et d’emploi, mais qui apporte les garanties de
fiabilité, de pérennité, de sécurité et de traçabilité requises.
A partir des expériences vécues par les auteurs tout au long de leur vie
professionnelle, voici quelques principes qu’une telle solution devrait respecter :
Nommer les cellules
Plutôt que d’écrire des formules telles que « C4 = $B$1 * T4 … », il est
pertinent de faire l’effort d’écrire « TVA = Taux_TVA * CA_HT ». Tous les
lecteurs comprennent immédiatement la deuxième formulation. La traçabilité est
également améliorée.
Réduire dans les fiches les erreurs par des formules et étapes de
vérification
Dans l’objectif d’améliorer l’existant en termes de fiabilité, on peut mettre en
place des outils de contrôle des formulations des tableurs, levant ainsi une part
des risques et des désordres potentiels. La technique est simple et bien
connue : mener les calculs suivant deux chemins parallèles et vérifier que le
résultat est le même (application immédiate : les sommations en lignes et en
colonnes doivent aboutir au même grand total d’une matrice). Le calcul de
résultats intermédiaires permet d’éviter des formules trop complexes, de
constater des anomalies, et, le cas échéant de découvrir plus rapidement les
causes d’erreurs.
Communications MTO’2009
213
Utiliser dans les fiches le mode de protection des cellules
L’écrasement arbitraire de formules est facilement évité par la mise en place
du mode de protection des cellules, avec un mot de passe non banal et non
diffusé. Le mode de protection est alors géré par le propriétaire de l’application
ou un administrateur fonctionnel. L’utilisation de différentes couleurs pour les
zones de saisie et de restitution des calculs améliore notablement l’ergonomie et
évite des écrasements. Les formules peuvent être aussi « cachées » dans
d’autres fiches. Leur intégrité est ainsi garantie.
Gérer les fichiers tableurs en mode centralisé
Lorsque les consolidations de fichiers tableurs deviennent importantes en
quantité et régulière, il devient intéressant de forcer l’utilisation des fichiers au
travers d’une solution centralisée. Les fichiers sont mis à disposition sur un site
web et, le cas échéant, ne sont jamais chargés sur les postes de travail.
Modéliser les informations financières à partir des données
opérationnelles
Une solution pérenne, consistante et pertinente doit permettre de modéliser
les fondamentaux opérationnels des métiers de l’entreprise. Les informations
financières sont la traduction monétaire des activités opérationnelles de
l’entreprise, via des formules de calcul. Ces relations mathématiques doivent
être explicites et documentées, ainsi que leurs limites d’applications (exemple :
calcul d’un coût de production en tenant compte des frais fixes, des quantités de
matières et de main d’œuvre). C’est le seul moyen de garantir la cohérence des
décisions financières et opérationnelles, permettant de comprendre et de justifier
les unes vis-à-vis des autres.
Gérer de façon centrale les structures des informations partagées
Le fait qu’il existe des informations structurantes partagées a été découvert il
y a plusieurs décennies. Il ne peut être laissé aux aléas des opinions et des
pressions locales (i.e. au sein d’une division ou d’un département) de formaliser
ces données de multiples façons (différences de codification, différences de
signification des données, …). Le périmètre et la structure de toute information
partagée doivent être définis pour toute l’entreprise ; une solution classique est
d’établir un dictionnaire des données (ou glossaire), facilitant d’ailleurs une
approche urbanistique du système d’information et les mises en œuvre
organisationnelles.
214
Management des Technologies Organisationnelles : Journées d’Etude 2009
Permettre des paramétrages locaux en cohérence avec la gestion
globale de l’entreprise
L’art de l’organisation consiste aussi à mettre en œuvre les outils
informationnels dans le respect des cultures et contraintes locales.
Les
informations d’intérêt général peuvent avoir des instanciations locales pour
autant que l’on maîtrise leurs traductions dans les formats globaux de
l’entreprise. Par exemple, savoir adapter le vocabulaire aux différents métiers de
l’entreprise et/ou aux aspects régionaux est un atout pour fluidifier
l’organisation. Ceci peut être réalisé par des paramétrages qui tiennent compte
de l’origine ou de la situation de l’utilisateur (comme pour une langue). A titre
d’exemple simple, une même codification peut prendre des valeurs de libellés
différentes en fonction d’un statut de l’utilisateur (application : dans le domaine
de la surveillance de la faune, un « sanglier » en Eure & Loire devient un
« cochon sauvage » en Corse).
Disposer d’outils adaptables aux évolutions métiers, structurelles
et organisationnelles
Les progiciels sont généralement paramétrables, mais généralement surtout
dans l’application de fonctions et de modalités calculatoires (calcul d’une
répartition des frais fixes par exemple). Il faut de plus être capable d’adapter, et
donc de paramétrer, les structures et les libellés des informations en fonctions
des métiers et des localisations. Les solutions doivent aussi pouvoir s’adapter
aux évolutions organisationnelles, de plus en plus fréquentes, sans perdre les
acquis de mois et d’années de capitalisation des données. Cela implique un
effort de traçabilité des évolutions des paramétrages pour pouvoir réinterpréter
ultérieurement les informations en tenant compte des changements de
périmètres induits par les changements d’organisation.
Remotiver le management intermédiaire
Il est important que les responsables aient un retour pour les efforts qu’ils
fournissent à remplir des tableaux de chiffres. Le principe du flux d’information
ascendant du tableur n’incite pas au retour d’information : il faudrait créer un
flux descendant. Les managers apprécient de connaître le contexte et les motifs
de leur travail, ainsi que de constater que leurs résultats positifs sont officialisés.
Le manager doit s’approprier l’utilité pour ses propres activités des reportings
qu’il fournit à sa hiérarchie.
Communications MTO’2009
215
CONCLUSION
Le tableur n’est surtout pas un outil condamnable et infernal. Il a permis,
permet et permettra de gérer des données avec des fonctions de plus en plus
sophistiquées et adaptées aux besoins de l’entreprise. Le tableur est aussi un
outil de prototypage pour le traitement de l’information. Il reste aussi un outil
de traitement de l’information dans de petites structures : de l’individu au service
de moins de 10 personnes.
Du fait de la fragilité de son exploitation en usage intensif, l’abus du tableur,
lui, est condamnable. On a vu que, suivant l’usage qui en est fait, il peut créer
des potentiels de défaillances graves, induisant parfois des pertes financières
notables ou des erreurs de décisions stratégiques, sans compter les simples
surcoûts administratifs de rappels à l’ordre des managers retardataires, de
double saisie ou de fusion des fichiers.
Il est du ressort des dirigeants, responsables et gestionnaires de prendre
conscience à partir de quel moment il devient nécessaire :
• Dans une première étape, d’obliger à mettre en œuvre des moyens de
contrôle des résultats obtenus, mais aussi des méthodes de
programmation et d’utilisation dans les tableurs (principe de base d’une
approche qualité) ;
• Dans une seconde étape, de faire évoluer des systèmes d’information de
prévisions et de reportings construits sur des tableurs vers de véritables
applications qui soient conformes à toutes les exigences de
performances et de sécurité.
Les indices « d’abus de tableur » présentés ci-avant doivent permettre cette
prise de conscience avant que des défaillances graves ne frappent l’entreprise.
Etant donné que ces applications ont été développé presque toujours par des
responsables pour cause d’absence de solution ad hoc du fait de permanentes
variations dans les besoins, ces solutions devront être évolutives, fortement
paramétrables, avec des instanciations par métier et/ou localisation de
l’entreprise ou de la collectivité, et ayant toutes les facilités de traçabilité.
NOTES ET REFERENCES BIBLIOGRAPHIQUES
[1]
"Histoire du tableur", Michel Volle, 2004
[2]
« Petites erreurs, grandes conséquences », PricewaterhouseCoopers, "Disclose",
juin 2007
[3]
"Microsoft Sharepoint to the rescue for governance, risk and compliance (GRC)",
accounting web
216
Management des Technologies Organisationnelles : Journées d’Etude 2009
[4]
"New Tools Enhance Excel", Business finance, Robert Kugel, 01/04/2007
[5]
"Getting to Grips With Spreadsheet Risk", Business Finance, John Cummings,
19/08/2008
[6]
"Spreadsheets: Fear No Evil", cfo.com, Jason Karaian, 25/09/2007
|7]
"Spreadsheet control marches forward", Compliance Week, Todd Neff, 12/02/2008
[8]
"Assessing software in controlling company risk", Finance Week, Mike Wilkinson,
10/04/2008
[9]
"Only 16% of firms budget accurately, why the rest are in Excel-Hell", Finance
Week, Matt Quinn, 10/06/2008
[10]
"BPM Forum Survey Shows Finance Lacks Speed & Accuracy, Hampering Critical
Corporate Agility in Challenging Economic Times" - 2008
[11]
"Sarbanes-Oxley Compliance Software 2006: Momentum Will Shift To Controls
Optimization", Forester, Paul D. Hamerman, 09/03/2006
[12]
"Alleged Accounting Fraud Points to the Perils of Spreadsheet Abuse", Gartner, Jay
Heiser David Furlonger, 18/08/2008
[13]
"Developing a Strategy to Control Spreadsheets", Gartner, Jay Heiser, 22/09/2006
[14]
"Recognize the Risks of Uncontrolled Spreadsheets", Gartner, Jay Heiser,
08/11/2005
[15]
"Embrace or Replace Your Spreadsheets for Performance Management", Gartner,
Neil Chandler, 23/09/2008
[16]
"The Good, the Bad, and the Ugly", International Auditor, Uttam Mukherjee,
04/2009
[17]
"Le tableur, encore indispensable outil du décisionnel", Le Journal du Net,
Dominique FILIPPONE, 03/02/2006
[18]
"Erreurs dans Excel : Barclays rachète plus de Lehman que prévu", Le Magit,
Reynald Fléchaux, 16/10/2008
[19]
"Les DSI sous-estiment les données non-structurées", Le Magit, Reynald Fléchaux,
10/11/2008
[20]
"Managing spreadsheet risk", Louise Pryor, 2005
[21]
" Risk for Compliance Failures and Restatements, Revenue Recognition",
Sondhi & Scott A. Taub, 2006
[22]
"Are Greed, Lack of Oversight & Lack of Transparency to Blame?", Sarbanes-Oxley
Compliance Journal, Soheil Saadat, 05/02/2009
[23]
"Fraudes et risques liés aux documents Excel et Access!", Mag Securs, mars 2009
[24]
"Prévision des ventes: quand Excel ne suffit plus", 01 Net, Pierre Hardouin, janvier
2008
[25]
New Approach To Fixing Spreadsheet Errors Could Save Billions – Oregon State
University - Martin ERWIG – 2007
[26]
“What We Know About Spreadsheet Errors” – University of Hawai’I - Raymond
Panko - published 1998 - revised 2008
[27]
« La Confiance dans la société et en économie » - Georges Vignaux - CNRS – 2009
A. C.
Communications MTO’2009
217
Pilotage de processus collaboratifs :
amélioration de l’interopérabilité
Sihem MALLEK, Nicolas DACLIN, Vincent CHAPURLAT
Laboratoire de Génie Informatique et d'Ingénierie de Production
Ecole des Mines d’Alès / Nîmes
RESUME
L’objectif de cette communication est de présenter une Approche Anticipative
Dirigée par les Effets (AADE) de l’interopérabilité, pour aider les entreprises
impliquées dans des processus collaboratifs à améliorer leur capacité à
interopérer avant leur mise en œuvre. L’interopérabilité revêt un enjeu important
pour l’industrie et peut être vue comme un des principaux freins à un travail
collaboratif. Effectivement, l’interopérabilité caractérise la capacité de tous les
éléments impliqués dans un processus collaboratif à échanger et interagir
ensemble en maximisant leurs performances. Le but de ces travaux de recherche
est de détecter de manière anticipative les possibles effets (désirés, non désirés,
bons, néfastes ou insuffisants) causés par le manque d’interopérabilité, d’évaluer
leur impact et, de développer des actions correctives. Cet article se concentre
sur la formulation et la formalisation des exigences d’interopérabilité que le
processus collaboratif doit satisfaire pour assurer une collaboration efficace.
INTRODUCTION
De nos jours, la collaboration se développe au sein de plusieurs systèmes tels
que les systèmes de santé, les systèmes de gestion de crise, les systèmes
industriels… et les acteurs cherchent en particulier à améliorer l’efficacité de
leurs processus collaboratifs. Effectivement, plusieurs services (ressources,
acteurs, organisations…) peuvent avoir à travailler ensemble pour les besoins
d’une mission ou d’un projet commun. Pour une collaboration efficace entre ces
218
Management des Technologies Organisationnelles : Journées d’Etude 2009
services, leur synchronisation et leur coordination doivent être garanties, ainsi
que leur capacité à interagir tout au long du processus collaboratif sans perte de
performance. Plusieurs outils ont été développés dans les organisations pour
permettre leur intégration. A titre d’exemple, les ERP (Enterprise Ressources
Planning) répondent à des besoins d’amélioration de la circulation de
l’information, de l’intégration de différentes fonctions dans un même système et
de normalisation des processus dans l’entreprise.
Cet article s’intéresse à la notion d’interopérabilité dont l’amélioration est
devenue un enjeu majeur, depuis ces dernières années, pour assurer la
collaboration. L’interopérabilité peut être définie comme (IDEAS, 2003) : « la
capacité d’interaction entre les applications d’une entreprise à trois niveaux :
données, application et processus ». En effet, l’amélioration de l’interopérabilité,
et de ce fait, l’interaction entre les services travaillant ensemble, va faire que la
collaboration entre les services sera améliorée à son tour.
Les travaux de recherches présentés dans cet article proposent le
développement de concepts, de mécanismes de raisonnement et d’une approche
méthodologique pour caractériser, détecter et anticiper les effets possibles de la
non-interopérabilité sur les processus collaboratifs. Ces effets seront identifiés à
travers la vérification d’un ensemble d’exigences d’interopérabilité préalablement
défini.
Cet article s’organise autour de la méthodologie proposée pour l’obtention de
l’Approche Anticipative Dirigée par les Effets (AADE) de l’interopérabilité. Les
différentes étapes de la méthodologie seront présentées et développées. Enfin,
une conclusion et les perspectives envisagées seront présentées à la fin de cet
article.
PROBLEMATIQUE ET POSITIONNEMENT
La collaboration entre les entreprises implique une relation durable et
omniprésente à l’engagement d’une mission commune (Kvan, 2000). Cette
collaboration peut se dérouler entre plusieurs services de différentes entreprises
formant de ce fait un processus collaboratif. Un processus collaboratif peut être
défini comme : « un processus dont les activités appartiennent à différentes
organisations » (Aubert, 2002). Ce genre de processus évoque la notion de
collaboration classique c'est-à-dire l’interaction entre des acteurs pour accomplir
un projet. La réalisation de ce projet dépend ainsi de la synchronisation des
acteurs, de la simultanéité ou du parallélisme des activités etc. Dans un contexte
industriel, cette interaction peut être matérialisée par des flux de différentes
natures : données, informations, connaissances, produits, énergies ou finances.
Les processus collaboratifs représentent, de nos jours, une nouvelle vision de
Communications MTO’2009
219
l’organisation supportant une nouvelle approche de travail collaboratif. Les
résultats de ce travail collaboratif sont influencés par l’interopérabilité au sein du
processus collaboratif.
La complexité des services ou des entreprises impliqués dans un processus,
la complexité induite par l’interaction entre ces services doit être analysée pour
rechercher des dysfonctionnements, des mauvaises allocations de ressources,
des délais non respectés, des risques de pertes de performances au cours de la
collaboration. Les travaux présentés ont pour but d’aider les entreprises à
détecter et analyser les problèmes d’interopérabilité en couvrant les besoins
suivants :
• Cette analyse doit être guidée. Une définition claire des problèmes de
l’interopérabilité entre les différents services interagissant ainsi que
l’établissement d’un référentiel d’exigences d’interopérabilité sont donc
indispensables.
• Cette analyse s’appuie sur le modèle du processus collaboratif pour
anticiper les problèmes d’interopérabilité avant leur mise en œuvre.
Cette modélisation est effectuée à l’aide de cadres et de langages de
modélisation. Cependant, ceux-ci n’intègrent pas les dimensions
d’interopérabilité, c’est pourquoi ils doivent être enrichis en prenant en
considération les problèmes d’interopérabilité.
• Cette analyse doit être automatisée. Il s’agit de développer et
d’appliquer des mécanismes de raisonnement pour vérifier si les
exigences sont respectées tout au long du processus collaboratif.
• Enfin, cette analyse doit être réalisée d’une manière anticipative pour
réduire les risques, les pertes de performance …
Pour ce faire, une Approche Anticipative Dirigée par les Effets est proposée
réalisant les quatre besoins identifiés et définis précédemment pour anticiper les
possibles effets (désirés, non désirés, bons, néfastes ou insuffisants) de la noninteropérabilité et de développer des actions correctives. Les résultats attendus
pour le développement de cette approche sont de pouvoir :
• Formuler puis formaliser les exigences d’interopérabilité. Il s’agit ici de
développer un référentiel d’exigences d’interopérabilité que les
processus collaboratifs doivent satisfaire. Ces exigences doivent, par la
suite, être formalisées par le biais d’un langage formel en propriétés
pour permettre la vérification.
• Modéliser le processus collaboratif en prenant en considération les
exigences de l’interopérabilité.
• Prouver le processus collaboratif en vérifiant les exigences
d’interopérabilité pour détecter le manque d’interopérabilité. Des
220
Management des Technologies Organisationnelles : Journées d’Etude 2009
techniques de vérification formelles sont alors utilisées à cet effet ainsi
que la simulation.
Les différents points développés précédemment et constituant les étapes de
l’approche anticipative dirigée par les effets sont représentés dans la figure
suivante.
Modèle du
système
formalisation
Réécriture
Exigences
Propriétés
Analyse
Figure 1 : Approche Anticipative Dirigée par les Effets
Cet article s’intéresse à la formulation et la formalisation des exigences
d’interopérabilité. La modélisation du processus collaboratif ainsi que l’analyse
des exigences d’interopérabilité seront brièvement présentées respectivement en
section 4 et 5.
LES EXIGENCES D’INTEROPERABILITE
Pour identifier et structurer les différents aspects de l’interopérabilité,
plusieurs cadres d’interopérabilité ont été développés ces dernières années. En
utilisant cette même approche, les exigences d’interopérabilité peuvent être,
dans un premier temps, clairement définies en prenant en considération les
différents aspects d’interopérabilité et, dans un second temps, structurées de
manière cohérente par leur positionnement dans le cadre d’interopérabilité.
a) Cadre d’interopérabilité
Dès que différents services sont interopérables, leur collaboration est facilitée
et plus efficace. En effet, l’interopérabilité est un pré-requis pour une
collaboration efficace. Pour améliorer l’interopérabilité, différents aspects doivent
être pris en considération (les problèmes d’interopérabilité, les approches
Communications MTO’2009
221
d’interopérabilité …). Pour structurer ces différents aspects, des cadres
d’interopérabilité ont été développés (EIF, 2004 ; e-Government Unit, 2005). Le
cadre développé dans (Chen, 2007) pour l’interopérabilité des entreprises
propose de considérer deux aspects fondamentaux de l’interopérabilité, « les
problèmes d’interopérabilité » et « les niveaux d’interopérabilité ».
Les problèmes d’interopérabilité sont liés aux incompatibilités qui empêchent
l’échange et le partage de flux. Actuellement, trois catégories de problèmes
d’interopérabilité ont été identifiées : les problèmes d’ordre conceptuel,
technologique et organisationnel. Les problèmes conceptuels concernent les
incompatibilités syntaxiques et sémantiques des flux échangés. Les problèmes
technologiques sont concernés par l’incompatibilité des technologies de
l’information (plateformes et application informatiques) pour communiquer et
échanger des flux. Les problèmes organisationnels sont liés aux incompatibilités
de structures organisationnelles et des techniques de management
implémentées.
De plus, ces problèmes d’interopérabilité peuvent apparaître à différents
niveaux de l’entreprise : données, services, processus et business.
L’interopérabilité des données se réfère à faire opérer ensemble différentes
données et à l’utilisation de différents langages de modélisation.
L’interopérabilité des services permet d’identifier, composer et faire opérer
ensemble différentes applications ou fonctions d’entreprises en réseaux.
L’interopérabilité des processus vise à faire travailler ensemble divers processus.
Enfin, l’interopérabilité au niveau business se rapporte à l’harmonisation de
l’organisation globale.
La figure suivante représente le cadre d’interopérabilité pour les entreprises
avec ses deux dimensions de base : « les problèmes d’interopérabilité » et « les
niveaux d’interopérabilité ».
Problèmes
Niveaux
Conceptuel
Technologique
Business
Processus
Service
Données
Figure 2 : Cadre d’interopérabilité
Organisationnel
222
Management des Technologies Organisationnelles : Journées d’Etude 2009
Plusieurs travaux basés sur ce cadre d’interopérabilité ont été développés
pour la résolution des problèmes d’interopérabilité. Par exemple, dans (Daclin et
al., 2008) une matrice de compatibilité basée sur ce cadre d’interopérabilité a été
développée pour mesurer la compatibilité et informer les entreprises de la
présence ou non d’éventuels problèmes d’interopérabilité. Cependant, les
exigences d’interopérabilité n’ont pas été formalisées explicitement ce qui rend
cette matrice difficilement exploitable.
b) Les exigences d’interopérabilité
Le but est d’obtenir un référentiel d’exigences d’interopérabilité que les
services ou les entreprises doivent satisfaire. Une exigence peut être définie
comme « un énoncé qui prescrit une fonction, une aptitude ou une
caractéristique à laquelle doit satisfaire un produit ou un système dans un
contexte donné » (Scukanec, 2008).
Des travaux liés à la formulation des exigences d’interopérabilité ont été
entrepris dans (Blanc, 2007) sous forme de règles. Cinq règles ont été
identifiées. Cependant, ces règles restent génériques en plus de ne pas être
structurées dans le cadre d’interopérabilité. Par conséquent, il est difficile de les
intégrer et les utiliser pour une vérification formelle.
Classiquement, la formulation des exigences d’interopérabilité est liée à la
notion de compatibilité des services. Cependant, il est nécessaire de noter que :
« deux services interopérables sont compatibles mais deux services compatibles
ne sont pas nécessairement interopérables » (Kasunic, 2004). Par conséquent,
les exigences reliées à la compatibilité peuvent être considérées comme
insuffisantes à cause de leur aspect statique. En effet, ces exigences sont
indépendantes du temps, du comportement des services et de l’environnement
dans lequel les services sont interconnectés. Ainsi, la capacité à interagir dépend
non seulement de la compatibilité mais aussi du comportement des services et
de l’environnement au niveau de l’interaction qui peuvent influencer l’efficacité
de la collaboration. Ceci requiert donc de prendre en considération une seconde
classe d’exigences d’interopérabilité liées à l’aspect dynamique de l’interaction
qui sont appelées « exigences d’interopération ». En résumé les exigences
d’interopérabilité peuvent êtres divisées en deux catégories :
Exigences d’interopérabilité = {exigences de compatibilité ; exigences
d’interopération}
Ces deux catégories d’exigences d’interopérabilité vont être structurées selon
le cadre d’interopérabilité présenté précédemment. Par exemple, au niveau des
services, l’interopérabilité est liée, d’une part à l’interopération (moyens de
transport, environnement …), et d’autre part à la compatibilité entre le service
fournisseur (S1) et le service demandeur (S2).
Communications MTO’2009
223
Exigences de
compatibilité
S1
S2
Exigences
d’interopération
Figure 3 : Décomposition des exigences d’interopérabilité entre deux services.
Pour structurer, représenter et détailler les exigences d’interopérabilité, les
concepts d’arbre causal ont été appliqués. Ces concepts permettent d’appliquer
des mécanismes de raisonnement pour la vérification des exigences à l’aide de
techniques de vérification.
L’arbre causal présenté ici est basé sur le cadre d’interopérabilité présenté
précédemment. Le premier niveau de l’arbre représente les différents niveaux de
l’interopérabilité (données, services, processus, business). Le second niveau
représente les deux types d’exigences d’interopérabilité (compatibilité et
interopération). Le troisième niveau représente les trois catégories de problèmes
d’interopérabilité (conceptuels, technologiques et organisationnels). Enfin les
derniers niveaux représentent les exigences d’interopérabilité qui peuvent induire
une perte d’interopérabilité si l’une d’entre elles n’est pas respectée. Cet arbre
causal va pouvoir aider à « remonter » les branches jusqu’à trouver où se situe
le problème en indiquant la véracité des exigences comme représenté sur la
figure 4.
Niveau3
Niveau 2
Niveau1
Business
Exigences
Conceptuelle
Technologique
Processus
Compatibilité
Organisationnelle
Interopération
Services Faux
Interopérabilité
Vrai
Données
Figure 4 : L’arbre causal des exigences d’interopérabilité.
Quelques exemples d’exigences de compatibilité (les exigences
d’interopération ne sont pas traitées ici) sont représentés sur l’arbre causal en
224
Management des Technologies Organisationnelles : Journées d’Etude 2009
figure 5 et directement liées avec les problèmes d’interopérabilité que peuvent
rencontrer les entreprises. Ainsi, une exigence de compatibilité est proposée
pour chaque problème d’interopérabilité au niveau des services.
A titre d’exemple, au sein d’une entreprise, il peut y avoir confusion entre les
services interagissant si ceux-ci ne sont pas préalablement clairement identifiés
(e.g. nom du service, définition de l’activité réalisée…). Ce problème d’ordre
conceptuel peut engendrer une perte de temps lors des interactions (e.g.
recherche du bon service avec lequel interagir…). Dès lors, une exigence peut
donc être extraite et définie telle que : « Deux services voulant interopérer
efficacement doivent avoir une définition claire de la sémantique de leurs noms »
pour éviter les ambigüités et les confusions lors de la collaboration effective.
Les problèmes d’ordre technologiques que peuvent rencontrer les services
sont principalement liés à la compatibilité des outils utilisés pour les échanges.
Ainsi, d’une manière générale, une exigence peut donc être formulée telle que :
« Deux services visant à interopérer efficacement doivent disposer d’outils
compatibles » pour assurer les échanges entre eux.
Enfin, pour remédier aux problèmes d’ordre organisationnel, une exigence
peut être donnée telle que : « Deux services voulant interopérer doivent avoir
leurs responsabilités respectives définies » afin de connaître avec une meilleure
précision le responsable du service. Là encore, la non définition des
responsabilités peut entraîner des erreurs lors de la transmission d’informations
et par conséquent une dégradation de la collaboration i.e. confidentialité de
l’information compromise, perte de temps pour transmettre la bonne information
à la bonne personne…
Sémantique
Business
Conceptuelle
Processus
Compatibilité des outils
Technologique
Responsabilité
Organisationnelle
Compatibilité
Interopération
Services
Interopérabilité
Données
Figure 5 : Quelques exemples d’exigences de compatibilité.
Pour pouvoir vérifier ces exigences, elles doivent être formalisées via un
langage formel, sous forme de propriétés. Différents travaux pour la
formalisation des exigences peuvent être trouvés dans la littérature. Dans (Evrot
et al., 2008), des mécanismes (raffinement, allocation, formalisation et
Communications MTO’2009
225
projection) sont proposés pour la formalisation des exigences en propriétés ainsi
que leur allocation aux composants du système facilitant, de ce fait, la
vérification. Ces mécanismes seront utilisés dans la suite de ces travaux pour
formaliser les exigences en propriétés. Par la suite, la véracité des propriétés
sera vérifiée sur le modèle du processus collaboratif.
MODELE DU PROCESSUS COLLABORATIF
Le modèle du processus collaboratif permet de décrire le comportement, les
fonctions et l’organisation du système via une approche systémique. Le but est
d’obtenir un modèle correct et exploitable pour extraire les problèmes
d’interopérabilité.
La complexité du processus collaboratif requiert l’utilisation d’une approche
systémique procurant (Le Moigne, 1977) :
• Les finalités et les objectifs du système ;
• Les composants du système : les éléments qui composent le système et
les relations entre eux ;
• Les limites du système : identification des éléments ne faisant pas parti
du système ;
• Les interactions du système avec son environnement : les types de
relations et les influences menant à la modification du système ;
• Les fonctions que procure le système ;
• La dynamique de l’évolution.
L’analyse du respect ou du non respect des exigences d’interopérabilité sera
effectuée sur le modèle du processus collaboratif. C’est pourquoi, le modèle du
processus collaboratif doit prendre en considération les différents aspects de
l’interopérabilité par l’enrichissement du langage de modélisation utilisé.
ANALYSE DES EXIGENCES D’INTEROPERABILITE
Les exigences doivent être vérifiées sur le modèle du processus collaboratif
avec des techniques de vérification formelles.
La vérification tend à répondre à la question : « construisons nous le modèle
correctement ? ». Le but étant de prouver la consistance du modèle (Chapurlat,
2007). Dans notre cas, les techniques de vérification sont utilisées pour la
vérification des exigences d’interopérabilité sur le modèle de processus
collaboratif.
Pour la vérification des exigences d’interopérabilité, deux techniques
dépendant du type d’exigences seront utilisées. La première technique basée sur
226
Management des Technologies Organisationnelles : Journées d’Etude 2009
les Graphes Conceptuels proposée dans (Roque et al., 2009) permet la
vérification des exigences statiques c'est-à-dire les exigences de compatibilité. La
seconde technique basée sur les « model checkers » (Uppaal [1], SMV [2],
Kronos [3]…) (Behrmann et al., 2004; McMillan, 1992; Yovine, 1997) permet de
vérifier en deux phases les exigences dynamiques c'est-à-dire les exigences
d’interopération. La première phase consiste à décrire ou à générer le modèle du
processus collaboratif. La seconde phase consiste à formaliser les exigences
d’interopération décrites dans l’arbre causal en propriétés par l’utilisation d’un
langage formel comme la logique temporelle (Schnoebelen, 2002) ou LUSP
(Langage Unifié de Spécification de Propriétés) (Lamine, 2001). Le principe d’un
« model checker » est de vérifier exhaustivement les propriétés sur un modèle
décrivant le comportement du système sous forme d’automates temporisés. Le
« model checker » va donc vérifier la véracité des propriétés en répondant par
« Vrai » ou « Faux » pour dire si la propriété est satisfaite ou non. Dans le cas
où la propriété n’est pas vérifiée, le « model checker » fournit un contre
exemple.
Ensuite, la simulation peut être utilisée comme perspective dans ces travaux
de recherche pour aider à la détection, d’une part, d’événements pouvant
affecter le comportement du processus et, d’autre part, d’évaluer l’impact du
manque d’interopérabilité sur le processus collaboratif. Ce sont les raisons pour
lesquelles ces travaux de recherche proposent d’utiliser des techniques de
vérification formelles et la simulation pour la vérification des exigences
d’interopérabilité. Si les exigences d’interopérabilité ne sont pas satisfaites, des
actions correctives seront développées pour résoudre les obstacles d’une
collaboration effective dans un processus collaboratif.
CONCLUSION
Dans le contexte de collaboration, le développement de l’interopérabilité est
devenu une question cruciale pour la collaboration des entreprises qui désirent
évoluer sereinement dans un environnement de globalisation. Cet article a
présenté les fondements d’une approche anticipative pour aider les entreprises à
détecter et à anticiper les effets de la non-interopérabilité lors d’un partenariat.
Cette approche est basée sur des techniques de vérification formelles des
propriétés d’interopérabilité que les entreprises doivent respecter pour
interopérer efficacement et donc améliorer leur collaboration.
Les travaux présentés ici se sont principalement focalisés sur le
développement d’un référentiel complet d’interopérabilité. Par la suite, il s’agit de
Communications MTO’2009
227
s’intéresser à la formalisation de ces dernières, en propriétés, pour pouvoir les
vérifier via l’utilisation de techniques de vérification formelles.
NOTES
[1]
[2]
[3]
Téléchargeable en ligne sur : http://www.uppaal.com/
Téléchargeable en ligne sur : http://www.kenmcmil.com/smv.html
Téléchargeable en ligne sur : http://www-verimag.imag.fr/~tripakis/openkronos.html
REFERENCES BIBLIOGRAPHIQUES
Aubert B., Dussart A., Système d’Information Inter-Organisationnel, Rapport Bourgogne,
CIRANO, Mars 2002.
Behrmann G., David A., Larsen K. G., A tutorial on Uppaal, Department of Computer Science,
Aalborg University, Denmark, 2004.
Blanc S., Ducq Y., Vallespir B., A Graph based approach for interoperability evaluation,
Interoperability for Enterprise Software and applications – IESA 2007, Madeira,
Portugal, 2007.
Chapurlat V., Vérification et validation de modèles de systèmes complexes : application à la
modélisation d'entreprise, HdR, Université Montpellier 2, France, Mars 2007.
Chen D., Dassisti M., Elvesaeter B., Enterprise interoperability Framework and knowledge corpus
– advanced report, INTEROP Deliverable DI.3, 2007.
Daclin N., Chen D., Vallespir B., Methodology for enterprise interoperability, 17th IFAC World
Congress (IFAC’08), Seoul, Corée, 6-11 juillet 2008.
e-Government Unit, e-Government Interoperability Framework, Version 6.1, 2005.
EIF, European Interoperability Framework For Pan-European eGovernment Services. European
Commission, version 1.0, European Communities Ed., 2004.
Evrot D., Pétin J-F., Morel G., Combining SysML and formal methods for safety requirements
verification, Insight Journal of INCOSE 11, pp 21-22, 2008.
IDEAS, State of the Art – Introduction, IDEAS Project - Deliverable D1.1, Juin 2003.
Téléchargeable en ligne sur : http://www.interop-vlab.eu/.
Kasunic M., Anderson W., Measuring systems interoperability: challenges and opportunities,
Software engineering
measurement and analysis initiative, Technical note
CMU/SEI-2004-TN-003, 2004.
Kvan T., « Collaborative design: what is it? », Automation in Construction, Volume 9, 2000.
Lamine E., Définition d’un modèle de propriété et proposition d’un langage de spécification
associé : LUSP. PhD thesis, Université Montpellier 2, France, 2001.
Le Moigne J.-L., La théorie du système générale – théorie de la modélisation, Presse
Universitaire de France, 1977.
McMillan K. L., Symbolic Model Checking: An approach to the state explosion problem, PhD
thesis, Carnegie Mellon University, USA, Mai 1992.
Roque
M., Chapurlat V., Interoperability in collaborative processes: Requirements
characterisation and proof approach, PRO-VE’09, 10th IFIP Working Conference on
VIRTUAL ENTERPRISES, Thessaloniki, Greece, 7-9 Octobre 2009.
228
Management des Technologies Organisationnelles : Journées d’Etude 2009
Schnoebelen Ph., The Complexity of Temporal Logic Model Checking, Advances in Modal Logic,
Volume 4, pp 1-44, 2002.
Scukanec S. J., Van Gaasbeek J. R., A Day in the Life of a Verification Requirement, U.S. Air
Force T&E Days, Los Angeles, Californie, 5-7 Février 2008.
Yovine S., Kronos: A verification tool for real-time system, Springer international journal of
Software Tools for technology, Octobre 1997.
Communications MTO’2009
229
On the use of possibility distribution
summary indicators in multi-criteria
decision based on the Choquet
integral: application to marketing of
e-commerce organizations
Afef DENGUIR-REKIK a,,b
Gilles MAURIS a
b
Jacky MONTMAIN , Abdelhak IMOUSSATEN b
(a) LISTIC- Polytech’Savoie / Annecy Le Vieux
(b) LGI2P - Ecole des Mines d’Alès / Nîmes
ABSTRACT
The paper proposes a mathematical framework that supports a formal
representation of a decision aiding process in a multi-criteria and multi-actors
context in an uncertain universe. For this purpose, possibility distributions
representing uncertainty are characterized and indicators describing them are
provided in order to simplify their quantitative interpretation. To take the
interactions between criteria into account, a Choquet integral based aggregation
of the possibility distributions is proposed by using a suitable decomposition in
linear domains. For the summary indicator aggregation, key theoretical results
on the union of the upper and lower mean values of a possibility distribution are
established. The contributions of the location and imprecision criteria indicators
to the indicators of the distribution associated with the global evaluation are then
defined. These contribution indicators constitute the basis of the explanations
aimed at aiding the decision making. In addition, a software system, called a
“Feedback Based Recommendation System” (FBRS) has been developed and
used to aid the marketing teams of an e-commerce company in their activities.
The customers’ feedback database constitutes the basis of the diagnosis
functionalities of the FBRS which uses a possibility representation to model the
uncertainty associated with the imprecision, the variability of the opinions of the
customers.
230
Management des Technologies Organisationnelles : Journées d’Etude 2009
INTRODUCTION
The paper concern is situated within the framework of the multi-criteria
decision making which considers that the decision-making behaviour is not
inevitably driven by a unique criterion but is the result of a set of interacting
criteria [11][20]. To aid a decision-maker select an alternative from several
decision criteria, a global evaluation is determined by an aggregation of their
evaluations. This aggregation model should be legible enough to be easily
understood, and should also be capable of representing the decision strategies of
the decision-maker. In this view, the Choquet integral based aggregation,
allowing to take the interactions between criteria into account while keeping the
compromise aspect of the conventional average, is an interesting tool, already
used by several authors [11][12][17]. But, in a decision making process,
uncertainty due to all the actors involved often occurs [18]. For example, in the
monitoring of the e-commerce organizations, customers’ criteria satisfactions
present uncertainty due to variability, imprecision or ignorance [21]. Developing
explanation capabilities in such complex aggregation models under uncertainty
has not really been studied so far, and is thus a key issue for the operational
application of such tools [6].
For dealing with uncertainty, we propose to use possibility distributions to
gather all the opinions of the different actors (customers in our application). This
choice is also motivated by the nature as well as the availability of the data:
indeed, the data or evaluations stemming from our application are given stars
representing intervals of numerical evaluations. Besides, in many cases we have
few available evaluations which make the reliable identification of probability
distributions difficult. In other respects, the possibility approach leads to rather
less complex calculations when using the Choquet integral in the aggregation of
possibility distributions [4].
The main issue considered in this paper basically concerns the development
of explanation capabilities in a multi-criteria decision aiding process involving
uncertain evaluations coming from a database of various persons. In particular,
three major contributions are provided in this paper:
• The characterization of the possibility distributions by defining
descriptive indicators simplifying their quantitative interpretation. For
this purpose, we provide key indicators such as the location, the mean
imprecision (section III).
•
The aggregation of the possibility distributions and their associated
indicators by the Choquet integral. Our main contribution at this level
consists in establishing a linear relationship between the partial and the
aggregated evaluations, thanks to a suitable method of possibility
Communications MTO’2009
231
distribution aggregation different from the one proposed in [17] (section
IV).
• The definition, from these expressions, of original explanation
functionalities based on the criteria evaluation contributions to the
aggregated evaluation (section V).
Finally, the developed tools are used for analysing customers’ feedback
evaluations of e-commerce sites in order to improve the existing strategies of the
marketing teams (section VI).
PRELIMINARY CONSIDERATIONS
In this section, we state the problem and the notations, and recall briefly the
general concepts of the possibility theory and the Choquet integral based
aggregation.
Problem statement
Let us consider a set of l possible alternatives ( Al ) for a given decision
q
making problem. Each alternative Al is evaluated according to n criteria. Let
α ,q
us also consider a database of r customers ( Evl ). Let xi
be the numeric
degree of satisfaction (partial evaluations expressed in the range [0,20]) given
α
q
by the customer Evl according to the criterion i for Al .
As mentioned above, the possibility theory is used to take into account the
various aspects of imperfection of the information inherent to the evaluations
q
q
given by all the customers of a given alternative Al . Possibility distributions π i
α ,q
are thus built from the different criteria evaluations xi
of each
q
alternative Al . Let us notice that the focus of this paper is not on the
construction of the possibility distributions (the reader can refer to [7] and [9]
for further details on this issue), but on the definition of the corresponding
indicators and their aggregation through the Choquet integral.
The Choquet integral
The operators of the Choquet Integral (CI) family [11] are interesting
because they include a lot of compromise operators. Moreover, they can be
written under the form of a conventional weighted mean modified by effects
coming from interactions between criteria. According to the application context,
only a particular case of Choquet fuzzy integrals known as the 2-additive
Choquet integral that takes into account only interactions by pairs will be
considered here [12]. In the following, the notations of the 2-additive Choquet
integral and its principal properties are briefly recalled. The expression of the 2-
232
Management des Technologies Organisationnelles : Journées d’Etude 2009
q
additive Choquet fuzzy integral for the alternative Al defined by the partial
q
q
evaluation vector ( x1 ,..., xn ) can be written as follows [15]:
(1)
This equation involves two types of parameters:
• the vi’s are the Shapley indices, representing the importance of each
criterion relative to all the others, that satisfy,
which is a natural condition for decision-makers,
• the interaction parameters Iij of any pair of performance criteria (i,j)
that range in [-1,1] ; a positive value means a complementarity between
the two criteria, a negative value means a redundancy, and a null value
means the criteria are not interacting, i.e. independent, thus νi acts as
the weights in a common weighted mean.
The identification of the parameters of the 2-additive Choquet integral is
simpler than the identification of a general fuzzy measure, and can thus be made
by direct expression from the decision-makers. Nevertheless, for better-quality
quantification, more elaborated methods are available [2] [3][13]. Another
important point, directly in line with the paper contribution, is that, the CI has a
linear form on the simplex domains defined by the ranking of evaluations (the
ranking allows to simplify the absolute value in the right-hand part of equation
(1)). By considering a permutation on the criteria such that
q
x(1)
≤ ... ≤ x(qi ) ≤ ... ≤ x(qn ) (the index (.) indicates the permutation), the CI can
thus be written as [1]:
(2)
where
with
and
(1)
such that
As mentioned above, we are dealing with uncertainty in a possibility
q
framework, and in the following xi is considered as an uncertain value
q
α ,q
represented by a possibility distribution π i that gathers all the evaluations xi
α
given by all the customers Evl .
Communications MTO’2009
233
POSSIBILITY THEORY
The possibility theory was introduced in 1978, by Zadeh [26] to give
uncertainty semantics to the notion of fuzzy sets which he had previously
proposed in the 60’s [9] [25].
Given a set of reference Ω and A and B two subsets of Ω . A possibility
measure, denoted Π , is a function defined over set P (Ω) of the parts of Ω ,
taking
its
values
in
[0,
1],
such
that:
Π (∅) = 0
and
Π ( A ∪ B ) = max(Π ( A), Π ( B )) . Π ( A) quantifies how likely an event
A ⊆ Ω is: a value 1 means that the event is 100% possible, and 0 means that
the event is impossible. A possibility measure Π can be characterized by a
possibility distribution π , that is a function π : Ω → [0,1] such that:
Π ( A) = sup π (ω ) ∀A ⊆ Ω .
It
is
said
to
be
normalized
if ∃ω ∈ Ωω,∈πA(ω ) = 1 . To the possibility distribution, a dual measure so-called
necessity measure is associated:
N ( A) = inf (1 − π (ω )) ∀A ⊆ Ω such that Π ( A) = 1 − N ( A) .
ω∈ A
Also let us note that a possibility distribution defines a family of probability
distributions
℘(π )
defined
by
[7]:
℘(π ) = {P/∀A N ( A) ≤ P ( A)} = {P/∀A P ( A) ≤ Π ( A)} . It thus allows
representing some incomplete probability knowledge by bracketing an unknown
*
probability value. We can thus define an upper ( F ) and lower ( F* ) cumulative
*
distribution function such that ∀x, F* ( x ) ≤ F ( x ) ≤ F ( x ) (Fig. 1) with
∀x ∈ R F ∗ ( x) = Π (] − ∞, x])
and F∗ ( x) = N (] − ∞, x[)
*
The difference between F* ( x ) and F ( x) reflects the imprecision
of the
mean
information. To quantify this imprecision, we can use the lower
value
and the upper mean value
which
are taken by the probability
distributions belonging to℘(π ) . An important property which we shall use later
*
is the invariance of the values E* (π ) and E (π ) by the linear operations on
π [7] [8].
*
*
Figure 1 Example of F , F* , E , and E*
Often, for reasons of simplicity, as well as for a more natural interpretation
for the decision-maker, a piece-wise linear representation of the possibility
234
Management des Technologies Organisationnelles : Journées d’Etude 2009
distributions is used. In our case, we consider for each criterion a triangular or
trapezoidal distribution for the unimodal case. Each possibility distribution will be
defined in the range [0,20] and represented by a quadruplet ( a, b, c, d ) with
[b, c] the kernel and [a, d ] the support. For the multi modal case, the
distribution will be decomposed per mode, and thus represented by a union of
unimodal distributions. The union of possibility distributions will be denoted
% and is defined by: U
% (π ( x), π ( x)) = max (π ( x), π ( x)) . The sum of
U
1
2
x
1
2
% . Using the preceding parameterized
possibility distributions will be denoted ∑
representation leads to:
% (π (a , b , c , d ), π (a , b , c , d )) = π (a + a , b + b , c + c , d + d )
∑
1
1 1 1
1
2
2
2
2
2
1
2 1
2 1
2
1
2
Hereafter is a table summarizing the notations used in the remaining of the
paper:
x = [ x1 ,..., xi ,.., xn ] the vector of partial evaluations of Al with respect to the
n considered criteria.
xi uncertain criterion i evaluation represented by a possibility distribution π i
π ag the possibility distribution associated to the global evaluation xag
CI ( Al q ) 2-additive Choquet integral of the partial evaluations of Al q :
q
π Ag
= CI (π 1q ...π nq )
ν i coefficient of importance of the criterion i (called also Shapley coefficient)
I ij coefficient of interaction between the criteria i and j
H k domain where the Choquet integral has a linear expression, noted domain k
in the remaining of the paper.
∆µik linear coefficient of importance of criterion i in the domain k
E * (π ) mean value of the upper probability distribution defined by a possibility
distribution π
E* (π ) mean value of the lower probability distribution defined by a possibility
distribution π
MD (π ) the location indicator of a possibility distribution π
∆ (π ) the mean imprecision indicator of a possibility distribution π
π agk decomposed portion of the global possibility distribution π ag in the k
domain
π ik decomposed portion of the criteria possibility distribution π i in the k
domain
% the union of possibility distributions: U% (π ( x ), π ( x )) = max (π ( x ), π ( x ))
U
1
2
x
1
2
% the sum of possibility distributions:
∑
% (π ( a , b , c , d ), π ( a , b , c , d ))) = π ( a + a , b + b , c + c , d + d )
∑
1
1
1
1
1
2
2
2
2
2
1
2
1
2
1
2
1
2
ϒiMD contribution of the location indicator MD (π i ) to the global location
indicator MD (π ag )
ϒi∆ contribution of the imprecision indicator ∆ (π i ) to the global imprecision
indicator ∆ (π ag )
Communications MTO’2009
235
MEANINGFUL DESCRIPTIVE INDICATORS OF A POSSIBILITY DISTRIBUTION
The approach
In a similar way to that of probability distributions, where a distribution can
be characterized by a limited set of parameters (average, variance, skewness,
etc.), we suggest describing a possibility distribution by meaningful indicators
relative to the location and to the imprecision. The proposed indicators are based
∗
on the upper ( E (π ) ) and lower ( E∗ (π ) ) mean values associated with the
distribution π . An important property (established in [8]) is :
∗
Proposition 1: E (π ) and E∗ (π ) are invariant by linear operations on π .
As the aggregation operators (i.e. the 2-additive Choquet integrals) used
throughout the paper, are linear per domain, this property will be very useful for
the proposed definition of meaningful contribution indicators.
Definition of the indicators
The expressions of the location and imprecision indicators for unimodal
distributions are given in Table 1. The support of these indicators is the interval
[0,20] corresponding to the possible values that can be taken by the satisfaction
degrees in our application.
Table 1 Expressions of the location and imprecision indicators
Location indicator
Definition:
Example:
Mean imprecision indicator
Definition:
Example:
236
Management des Technologies Organisationnelles : Journées d’Etude 2009
The expression of ∆ (π ) allows to verify both extreme cases of the mean
∗
imprecision, i.e. the consensus (i.e. total precision, E (π ) = E∗ (π ) ), and total
ignorance ( ∀x ∈ 0, 20
π ( x) = 1 , thus E ∗ (π ) = 20 and E∗ (π ) = 0 ). In
this latter case the mean imprecision is ∆ = 20 .
Left and right skewness indicators can be defined in the same line [6], but
are not detailed here because they are not useful in our application context.
[
]
For multimodal distributions that occur in our application, the preceding
approach can be applied separately for each mode, which leads to the following
vector for the location indicator.
For the imprecision indicator, a similar per mode approach can be applied.
AGGREGATION OF THE POSSIBILITY DISTRIBUTIONS WITH THE CHOQUET INTEGRAL
Specificity of our approach
In the general case, the aggregation of the possibility distributions relative to
each criterion by the Choquet integral is based on Zadeh’s extension principle
[26]. If we let π ag be the aggregated distribution obtained via the aggregation
of the partial distributions of criteria (π 1 ( x1 ),..., π n ( xn )) by the Choquet
integral, the application of the extension principle gives:
This principle is very general and can be applied to all shapes of distributions,
even multimodal ones. Nevertheless, direct assessment can become
cumbersome in many cases such as the latter. In [17] an expression stemming
from the Mobius expression of the Choquet integral was proposed. This
approach is based on the determination of the minimum of the possibility
distributions, which surely allows a more elegant global writing but is not very
useful to assess criteria contributions. Our original approach is based on the
determination of domains in which the ranking of the decomposed distributions
can be defined, and thus it is more adapted for the requirements of providing
explanations in the context of the Choquet integral based decision making.
Communications MTO’2009
237
In fact, as we are dealing with piecewise linear distributions, and with a
piecewise linear aggregation operator, the aggregated possibility distribution is
also piecewise linear. As the Choquet integral takes a linear form when the
evaluation ranking is determined, it is now a question of transposing this
property into the possibility distribution space. In fact, the ranking of two
distributions can be set by their intersections [10]: each time there is an
intersection between the ascending (resp. descending) parts of the distributions,
the initial distribution ranking is modified. Each of these intersection points
determines, on both sides, the domains H k and H k +1 , noted domain k and
k+1 in the remaining of the paper, where the Choquet integral has a linear
expression [5]. Thus to make the computations, each possibility distribution is
decomposed into partial possibility distributions that are well ranked (see an
example in Fig. 2), and can be re-unified later on.
The problem now is to consider the aggregation of these indicators. In an
earlier study [5] we showed that the aggregated possibility distribution through
the Choquet integral π ag can be written as the union of the elementary
aggregated distributions of p+1 disjointed domains defined by the p points of
linearity change of the propagated distribution.
(2)
where π ag is the partial aggregated distribution related to the k-th domain in
k
which the Choquet integral has a linear expression, and π i is the partial
possibility distribution of the criterion i involved in the k-th domain.
k
Figure 2 Example of possibility distribution decomposition by linear domains
238
Management des Technologies Organisationnelles : Journées d’Etude 2009
As an illustration, let us consider the example given in Erreur ! Source du
renvoi introuvable.. In the left column, the criteria distribution and their
decomposition in two linear domains according to the only ascending intersection
point between the distributions 1 and 2 are plotted. In the right-hand column,
the aggregated distribution and its decomposition in the two linear domains are
plotted.
AGGREGATION OF THE DESCRIPTIVE INDICATORS WITH THE CHOQUET INTEGRAL
Main contribution results: we showed that the indicators associated to the
*
possibility distributions are essentially based on the notion of E and E* of a
distribution π . Besides we also saw that the Choquet integral is linear by
domains. The coefficients of the various linear expressions, which the Choquet
integral takes, depend on the ranking of the distributions of the criteria, which
*
implies that the aggregation of E* (π i ) (resp. E (π i ) ) also depends on this
ranking. This ranking is modified every time there is an intersection between the
ascending parts (resp.descending) of the partial distributions.
*
Therefore, we have only the conservation of E* (resp. E ) at the level of
each domain of linearity (proposition 1),
i.e.
respectively
but we do not have
respectively
Thus, we propose the following original theorem.
*
Theorem 1: Union of E* and E
Let π be a piecewise linear distribution. This distribution can be written as
% π k where π k are the adjacent linear distributions (not necessarily
π= U
k =1.. p +1
normalized) ordered from left to right and where p is the number of points of
change of linearity. Let k N be the domain index corresponding to the
normalized partial distribution. We have then for k N > 1 ( p = 0 gives a single
region, k = 1 ):
Communications MTO’2009
239
Proof: see [5].
Using theorem 1, the following corollaries are deduced (the proofs are
provided in [5]):
Corollary 1:
k
with Xpt the X-coordinate of the points of change of linearity of
p the total number of these points.
π
and
% π where
Corollary 2: Let π be a piecewise linear distribution, π = U
k =1.. p +1
k
π are the adjacent linear distributions (not necessarily normalized) ordered
from left to right and where p is the number of points of change of linearity.
Then we have:
k
Aggregation of the location indicator with the Choquet integral: the corollary
1 allows us to write the MD of the aggregated distribution:
with Xptag the X-coordinate of the points of change of linearity of π ag and
p the total number of these points.
As each of the points of change of linearity of the aggregated distribution
k
( Xptag ) defines a border between two successive domains k and k + 1 , such
a point can also be defined as the barycentre of two successive MD ’s. Thus we
k
k
k
k
k +1
k
a coefficient
have: Xptag = α MD (π ag ) + (1 − α ) MD (π ag ) , with α
k
k
k +1
depending on Xpt
p +ag
1 , MD (π ag ) and MD (π ag ) . From corollary 1 we have:
k
MD(π ag ) = (α k −1 − α k ) MD(π ag
) with α 0 = 1 and α p +1 = 0 .
=1
Thanks to thek linearity
nof CI in each domain we can write (using equations
k
(2) and (3)) MD (π ag ) =
∆µik MD(π ik ) . Thus:
k
∑
∑
i =1
(3)
In the case where the aggregated distribution is multimodal ( π agM ), its
location indicator is defined as the vector:
240
Management des Technologies Organisationnelles : Journées d’Etude 2009
with
π agM .
pj
the number of domains of linearity concerning the
j
mode
of
• Aggregation of the imprecision indicator with the Choquet integral: thanks
to the linearity of
CI
in each domain
k
and to the invariance of
E*
and
E*
by
linear transformation, the mean imprecision indicator of the aggregated
distribution is written as:
(6)
Thus, from the corollary 2 we can deduce that
(7)
This allows us to write:
(8)
When the aggregated distribution is multimodal ( π agM ), we have:
(9)
with ,
where p j + 1 is the number of
domains
of
linearity concerning the mode j of π agM and,
π i j , k is the portion of the distribution of the criterion i in the linearity domain
k which contributes to the mode j of π agM .
Decision explanation indicators defined from the partial evaluation
contributions
As mentioned earlier, the goal of the explanation is to enlighten the decisionmaker during the phases of the decision process. Thus explaining a proposed
Communications MTO’2009
241
decision makes it clearer and better perceived, which allows the users to have
more trust in the system of recommendation. The requirement of understanding
the "why" of a decision can be expressed qualitatively and\or quantitatively at
several levels. The "Why" can, for example, be expressed quantitatively in terms
of influence or relative dominance of the partial satisfactions of criteria on the
global satisfaction. The analysis of the distributions in terms of indicators is not
only essential in the understanding of the results by the decision-maker, but also
useful to identify the criteria according to which an improvement could be
relevant.
Contributions to the aggregated location indicator
Let us first consider the unimodal case. The idea is to seek an additive model
of contributions. Thus we want to write the location indicator as:
(10)
with ϒiMD the contribution to the aggregated MD relative to the partial
evaluation distribution of criterion i to the MD
p +1 of the propagated distribution.
k −1
k
k
k
From the equation (5) we have ϒiMD =
(α
uuuur − α )∆µi MD(π i ) .
=1 MD (π
In the multi modal case, the contribution kto
ag M ) is also defined as a
vector of MD contributions of the evaluation distributions relative to each
j
to the
MD of each mode
j , ϒiMD
. Thus:
criterion p j +1i
j
k −1
k
j ,k
j ,k
ϒiMD =
(α − α )∆µi MD(π i ) , with p j + 1 the number of domains
j ,k
k =1the mode j of π
inferred by
the portion of the distribution of the
agM and π i
criterion i in the linearity domain k involved in obtaining the mode j of π agM .
So the contribution of the location indicator of each criteria evaluation
distribution to that of the aggregated distribution is defined in this case by the
vector:
∑
∑
Contributions to the aggregated mean imprecision indicator
In a similar way to the case of the location indicator, we want to have:
(11)
242
Management des Technologies Organisationnelles : Journées d’Etude 2009
with ϒi∆ the contribution of the mean impression indicator ∆ relative to the
evaluation distribution of criterion i top +the
∆ of the aggregated distribution.
1
From equation (8) we have ϒi∆ =
∆µik .∆(π ik )
j
k =1
In the multi
modal case, from equation
(9) each ∆ (π ag ) can be written as
n
j
j
∆(π ag ) = ϒ i∆ . p j +1
j
We havei =1ϒi∆ =
∆µi j ,k .∆(π i j , k ) where p j + 1 is the number of domains
k =1 j of the aggregated distribution and π j , k the portion
generated by the mode
i
of the partial evaluation distribution of the criterion i involved in obtaining the
mode j of π agM .
So the contribution of the mean imprecision of each partial evaluation
distribution to the global imprecision is defined in this case by:
∑
∑
∑
(12)
where
m
is the total number of modes.
CASE STUDY
General description
The theoretical contributions presented before are now applied to the
monitoring problem of e-recommendation organizations based on customers’
feedbacks for e-commerce websites [16] [21]. The feedback database provided
by the "ciao.com" (www.ciao.com) company has been used as a basis of our
analysis for the application. Our decision support system is intended to be a tool
of diagnosis enabling to support the managers for the e-commerce, in particular
the marketing team based on the information supplied by "ciao.com". Our
approach consists in keeping the multiplicity of points of view (feedbacks and
multi criteria evaluations of the customers of "ciao.com") to assess the variability
of the opinions in the evaluation of e-commerce websites. Taking into the
different aspects of the imperfect evaluations into account without reducing
them a lot by making a simple average (as done currently), a possibility
representation of the set of "ciao.com" members’ evaluations for each criterion is
used. To quantify the uncertainty, the possibility distribution indicators defined
previously are applied.
Besides, although the multi criteria aspect of e-commerce evaluations
proposed by "ciao.com" appears as something natural, the concept of multi
criteria aggregation is currently systematically reduced to arithmetic means in
Communications MTO’2009
243
this field. Indeed, the notion of the relative importance of criteria is rarely
explicitly introduced in the evaluation whereas priorities between evaluation
criteria are implicitly admitted! Neither are the interactions between criteria
taken into account, although they obviously exist. Therefore, aggregation
operators reflecting a more realistic model of customers’ satisfaction have to be
considered. Thus, the 2-additive Choquet integral has been used to aggregate
the possibility distributions relative to the evaluation criteria. The diagnosis takes
the form of an explanation related to the contribution of each criterion to the
global evaluation (cf. section V).
A software prototype of the decision aiding support system dedicated to the
management and to the processing of the multi criteria evaluations of the sites
of e-commerce has been developed. This support is called Feedbacks Based
Recommendation System (FBRS) and offers the e-commerce marketing team
diagnosis and piloting functionalities on the basis of the evaluations. The figures
of this section are obtained from this tool.
Integration of the mathematical tools in the FBRS
The aggregation model: the parameters of the aggregation operator have
been obtained by direct expression of the experts, followed by an a posteriori
adaptation of the values of the relative importances and interactions of criteria.
This simple approach has led to a satisfactory modelling of the strategy of
aggregation in this application. The set of parameters used afterwards to
illustrate our propositions is given in the tables 2 and 3.
Table 2 Criteria definitions
Criteria
Description
vi
Information (c1)
It includes the information about products, the
security of payment, the updating of the site, the
follow-up of orders, etc,
0.3
Price (c2)
It corresponds to the price range proposed by an
e-commerce site
0.275
Time Delivery (c3)
It expresses the satisfaction of the customers with
regard to the delay of reception of their goods.
0.225
Purchase Tracking
Function (c4)
It expresses the satisfaction of the customers
concerning the way their problems have been
resolved.
0.1
Products
(c5)
It reflects the variety of products proposed by a
site.
0.1
Range
244
Management des Technologies Organisationnelles : Journées d’Etude 2009
Table 3 Criteria interaction parameters
I12
I13
I23
I25
I34
0.2
0.3
-0.05
0.04
0.05
Notes: As mentioned above, the identification of the parameters of the 2additive Choquet integral is simpler than the identification of a general fuzzy
measure, and can thus be made by direct expression from the decision-makers
as it is the case in this application. Only n.(n + 1) 2 easily understandable
parameters are required. Nevertheless, for better-quality quantification of these
parameters, more elaborated indirect methods are available [2] [3] [13]. Indirect
identification methods work with indirect information to identify the weights of a
weighted average mean: pair wise comparisons are done considering the ratio or
difference of attractiveness rather than attractiveness itself (as required by direct
methods). These indirect methods for weight identification are rather well
received in industry because they explicitly highlight the role of the experience
and the know-how of the company’s experts. We have implemented such a
method extended to the 2-additive Choquet integral in our software tool. In a
q
q
q
few words, a learning base of profiles Al = ( x1 ,.., xn ) is introduced. The
decision-maker is asked to make pair wise comparisons and order the profiles;
then, he is asked about the intensity attractiveness difference existing between
the ordered profiles. Equations of type (13) are obtained.
(13)
where k characterizes the preference intensity (weakly, strongly, roughly
preferred etc.) and α is introduced to respect the domain bounds (e.g. [0,1]).
q
Then, equations of type (13) from the learning base Al , q = 1..Q define an
optimization problem whose solution provides with the Shapley indices vi’s and
the interaction parameters Iij.
Let us consider the case of the e-commerce Nomatix.com. Nomatix.com has
chosen to invest in the price and the choice of products and not to focus on the
quality of service provided. They practise a policy of low prices on a wide
product range, and are mainly concerned with a strategy of quantity (increasing
sales). The evaluation values in Fig.3 show that the considered e-commerce has
chosen to invest in the price and the choice of products and not to focus on the
quality of service. The distributions relative to the criteria evaluations of the
customers are plotted in figure 3 and their parameters indicated in table 4.
Communications MTO’2009
245
Information
Price
Time delivery
Purchase tracking
Products Range
Figure 3 Global evaluation of Nomatix.com
Table 4 Criteria distributions
Information
(14,16,17,18)
Price
(13,14,14.5,16.
5)
Time Delivery
Purchase
Function
(5,7,7.25,9)
Tracking
Products Range
(8,8.5,9,10)
(13.5,14,14.5,1
6.5)
It can be noted that the customers are rather satisfied by the "price", the
"products Range" and the available information. They are nevertheless,
dissatisfied with "Time Delivery" and with the "Purchase Tracking Function". The
results are consistent with the policy of the site. "Nomatix.com" tries to satisfy a
category of customers who prefer to buy at cheaper prices even if it means
waiting longer for the goods to be delivered. Its global evaluation, defined from
the aggregation by the Choquet integral of the satisfactions of its customers on
the considered criteria is given on the figure 3 ; the location indicator of the
aggregated distribution, i.e. the average evaluation is 11.38.
Using the indicators for decision explanations: a simple look at Fig. 3 seems
to indicate that the worst evaluation is the "Time Delivery" and then the
"Purchase tracking Function" according to the location indicators relative to the
distributions of satisfaction of the customers for each criterion given in the Table
5.
246
Management des Technologies Organisationnelles : Journées d’Etude 2009
Table 5 Location indicators
Criteria
Location
values
Information (c1)
16.25
Price (c2)
14.50
Time Delivery (c3)
7.063
Purchase Tracking Function
(c4)
Products Range (c5)
indicator
8.875
14.625
But if we consider the contributions of the criteria evaluations relative to
these indicators (given in Figure 4), the most important contribution comes from
the criterion "Price" (48.4%) followed by the one relative to the "Time Delivery"
(23.3%). Let us recall that "Nomatix.com" follows a quantity strategy. Thus, in
spite of its good evaluations in "Information" and "Products Range" and its weak
evaluation obtained in "Time Delivery" (MD = 7.06), it is the latter that
nevertheless contributes the most to the global evaluation after the price
criterion. This result is not very intuitive and only the detail of the computations
can allow understanding it. In fact, the profile of the performances of
"Nomatix.com" is such that in the simplex of the evaluations
( x1 > x5 > x2 > x4 > x3 ), the local weight ∆µ3 of "Time Delivery" has a value
of 0.375 while ∆µ1 = 0.05 for "Information" and ∆µ5 = 0.12 for the
"Products Range "! Consequently, in this domain of the space of evaluations, the
criteria "Information" and "Products Range" on which "Nomatix.com" invests a
lot do not generate a big added value.
Figure 4 Contributions of the criteria to the location indicator
Communications MTO’2009
247
Let us now study the diagnosis from the point of view of the mean
imprecision indicators. The mean imprecision indicators relative to each criterion
distribution are given in Table 6.
Table 6 Imprecision indicators
Criteria
Imprecision indicator values
Information (c1)
2.5
Price (c2)
2.0
Time Delivery (c3)
2.12
Purchase Tracking Function (c4)
1.25
Products Range (c5)
1.75
We have ∆ (Information)> ∆ (Time Delivery) > ∆ (Price) > ∆ (Products
range) > ∆ (Purchase Tracking). The mean imprecision of the distribution
relative to the global evaluation through the Choquet integral is 1.99. The
contributions of the criteria to this imprecision are given on the figure 5.
It is the imprecision of the criterion "Time Delivery", followed by that of
"Price" which most contributes to the mean imprecision of the global evaluation
of "Nomatix.com". This is explained by their local weights ∆µ3 = ∆µ 2 = 0.375
against 0.05, 0.075 and 0.12 for respectively ∆µ1 , ∆µ 4 and ∆µ5 .
Figure 5 Contributions of the criteria to the imprecision indicator
A recommendation to the marketing team of "Nomatix.com" in order to
reduce the imprecision of its global evaluation is to review in priority its policies
regarding "Price", which is the most important criterion for its quantity strategy.
248
Management des Technologies Organisationnelles : Journées d’Etude 2009
Limitations of the contribution indicators
For unimodal distributions, the indicators allow a simple and relevant analysis
of the criteria contribution. But for multimodal distributions, it is not always the
case. Let us consider for example the website "GoodDelly.com". This site
presents a bimodal distribution according to the criteria "Information" and "Price"
(Figure 6). The aggregation of the criteria distributions of "GoodDelly.com" by
the Choquet integral gives a quadrimodal distribution illustrated on the Fig. 7.
Figure 6 Possibility distributions relative to the evaluation of the information
and price criteria
Figure 7 Global evaluation of "GoodDelly.com"
Here, the location indicator is not very informative. It has a value of 8
whereas the evaluation range is [2;13.5]. A more interesting aspect is the
contribution to the lowest mode in order to provide the reasons for the bad
global evaluation. In this case, it is useful to have a vision from criteria
distribution contribution. Eq. (4) is used to express π ag as the sum of the partial
distributions contributions:
% πk = U
%
π ag = U
ag
k =1.. p +1
% ∆µ k .π k = ∑
%
∑
i
i
k =1.. p +1 i=1..n
% ∆µ k .π k
U
i
i
i=1..n k =1.. p +1
For the preceding example, the criteria contribution distributions are plotted
in the figure. It can be observed that the most contributing criteria to the lowest
mode (i.e. the worst evaluations) are “Time Delivery followed by “Product
Range”.
Communications MTO’2009
249
1,5
Information
1
Price
0,5
Time Delivery
0
0
2
4
6
8
10
12
14
Figure 8 Criteria contribution distributions to the lowest mode of the
aggregated distribution
CONCLUSION
The paper is dedicated to the development of explanation capabilities in a
multi-criteria decision making process in an uncertain universe. We have
presented a theoretical description of the basic techniques used; the possibility
theory as well as the aggregation by a 2-additive Choquet integral. We have also
proposed the definition of meaningful descriptive indicators of possibility
distributions. A key theorem on the union of the upper and lower mean values of
a possibility distribution and two additional corollaries have been established.
They simplify the mechanisms of aggregation of the distributions indicators
through the Choquet integral in order to clearly identify the criteria contributions.
The latter are the bases of explanation functionalities taking the form of mean
and imprecision contribution indicators.
As an application of these theoretical contributions on a real case, a decision
support system (FBRS) has been developed to help the marketing teams of ecommerce sites in the management of customers’ feedbacks. A set of diagnosis
indicators is now available. It aims to supply marketing teams of e-commerce
with relevant information and a quantitative analysis of the contribution of
decision-making indicators of the criteria to the overall evaluation. Further works
concern the extension of these indicators to the relative comparison and
explanation of two competitive sites to support the benchmarking teams of ecommerce companies.
As a summary, the main advantages of this mathematical model with regard
to classical statistical linear regression models are:
• the possibilistic model allows representing the variability of the opinions
when these opinions are not precise values (this is the case in the
evaluation of e-commerce websites with stars representing intervals of
numerical evaluations);
250
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
•
•
the non linear aggregation model allows taking into account both
relative importance of criteria and interactions between them; thus,
more complex preference models modeling the company’s policy can be
introduced;
multi modal distributions of opinions are taken into account;
the properties we have established, concerning the location and the
mean imprecision indicators, confer explanative functionalities on our
model, and thus extend the notion of explanative variables as commonly
used in statistical linear regression models. They are useful to identify
the criteria according to which an improvement could be relevant when
non linearity prevents from any intuitive reasoning.
REFERENCES
[1] Akharraz A., Mauris G., Montmain J., A project decision support system based on an
elucidative fusion system, Fith Int. Conf. on Information Fusion (ICIF 02),
Annapolis, USA, July 2002, 593-599.
[2] C. Bana E Costa, M. Changas, A career choice problem: an example of how to use Macbeth
to build a quantitaive value model based on qualitative value judgements, European
journal of Operational Research 153(2004) 323–331.
[3] C. Bana E Costa, J. Vansnick, Applications of the Macbeth approach in the framework of an
additive aggregation model, Journal of Multi-Criteria Decision Analysis 6(1997) 107–
114.
[4] P. Bosc, D. Dubois, H. Prade, An introduction to fuzzy sets and possibility theory based
approaches to the treatment of uncertainty and imprecision in database
management systems. In Proceedings of the 2nd Workshop on Uncertainty
Management in Information Systems: From needs to solutions, Catalina, CA, USA,
1993.
[5] A. Denguir.R, G. Mauris, J. Montmain, Propagation of uncertainty by the possibility theory in
a Choquet integral based Decision making for an E-commerce website choice
support, IEEE Transactions on Instrumentation and Measurement 55 (2006) 721–
728.
[6] A. Denguir. R, J. Montmain, G. Mauris, E-commerce evaluations comparison and
recommendation within a possibilistic framework. In The 11th Int. conf. on
Information Processing and Management of Uncertainty in Knowledge-Based
Systems (IPMU’ 06), Paris, France, 2006 770–777.
[7] D. Dubois, Possibility theory and statistical reasoning, Computational Statistics & Data
Analysis, Volume 51, Issue 1, (2006) 47-69.
[8] D. Dubois, H. Prade, The mean value of a fuzzy number, Fuzzy Sets and Systems 24(1987)
279–300.
[9] D. Dubois, H. Prade, Possibility Theory: An Approach to Computerized Processing of
Uncertainty, Plenum Press, New York, 1988.
[10] M. Grabisch, H,T. Nguyen, E A. Walker, Fundamentals of uncertainty calculi with
applications to fuzzy inference, Dordrecht, Kluwer Academic, 1994.
Communications MTO’2009
251
[11] M. Grabisch, M. Roubens, The application of fuzzy integrals in multi-criteria decision
making, European J. of Operational Research 89(1996) 445-456.
[12] M. Grabisch, k-Ordered Discrete Fuzzy Measures and Their Representation, Fuzzy sets and
systems 92(1997) 167-189.
[13] M. Grabisch , C. Labreuche, J.Vansnick, On the extension of pseudo Boolean function for
the interacting bipolar criteria, European Journal of Operational Research 148(2003)
28-47.
[14] Y. Iwasaki, H. Simon, Causality in device behaviour, Artificial Intelligence 29 (1986) 3–32.
[15] J.L. Marichal, Concepts et Méthodes pour l’Aide à la Décision Volume 3, chap. Fonctions
d’agrégation pour la décision. IC2 Series, Hermès Science Publications, 2006.
[16] S. Mcnee, S. Lam, C. Guetzlaff, J. Konstan, J. Riedl, Confidence displays and training in
recommender systems. In International Conference on Human-Computer
Interaction, 2003, 176–183.
[17] P. Meyer, M. Roubens, On the use of the choquet integral with fuzzy numbers in multiple
criteria decision support. Fuzzy Sets and Systems 157 (2006) 927–938.
[18] A. Motro, A. Sources of uncertainty in information systems, In the 2nd Workshop on
Uncertainty Management and Information Systems: From Needs to Solutions,
Catalina Island, CA, 1993.
[19] B. Roy, D. Bouyssou, Aide multicritère à la décision : méthodes et cas. Economica, 1993.
[20] B. Roy, In Decision, Prospective Auto-Organisation, Mélanges en l’honneur de J. Lesourne,
Thépot J., Godet M., Roubelat F. et Saab A.E., chap. Réflexions sur le thème, quête
de l’optimum et aide à la décision. Dunod (Eds.), 2000.
[21] J. Schafer, J. Konstan, J. Riedl, E-commerce recommandation applications, Journal of Data
Mining and Knowledge Discovery (2001) 115-153.
[22] A. Scharling, Décider sur plusieurs critères. Panorama de l’aide la décision multicritère.
Presses polytechniques et universitaires romandes, Lausanne, 1985.
[23] H. Simon, Administrative behaviour: a study of Decision Making Processes in Administrative
Organizations. Mac Millan, New York, 1947.
[24] E. Turban Decision Support and Expert Systems: Management Support Systems. PrenticeHall, Inc, 1994.
[25] L.A. Zadeh, Fuzzy sets. Information and Control 8(1965) 338–353.
[26] L.A. Zadeh, Fuzzy Sets as a basis for a theory of possibility, Fuzzy Sets and Systems
1(1978) 3-28.
252
Management des Technologies Organisationnelles : Journées d’Etude 2009
Communications MTO’2009
253
Vers de nouveaux agencements pour
l’organisation et l’accès à
l’information scientifique
Monique COMMANDRÉ
Laboratoire VECT / Université de Perpignan / Mende
Pierre-Michel RICCIO
Centre de recherche LGI2P / Ecole des mines d’Alès / Nîmes
RÉSUMÉ
Face à la prolifération de l’information numérique, nous interrogeons le
niveau de performativité des ontologies comme dispositif de médiation entre des
données préexistantes dans les interfaces d’édition numérique et un projet
d’apprentissage et / ou de veille scientifique. Notre contribution, illustrée par
deux études de cas, propose une ingénierie de la médiation intégrée s’appuyant
sur un modèle en trois niveaux pour l’organisation et l’accès à l’information
scientifique.
INTRODUCTION
Notre contribution au débat sur l’organisation et l’accès à l’information
scientifique portera sur les problématiques d’extraction et d’appropriation de
l’information dans des communautés de pratiques. Plus précisément nous
interrogerons les dispositifs de médiation entre l’information « disponible » et les
acteurs porteurs d’une intention d’apprentissage et /ou de veille scientifique.
Le dispositif sera ici considéré dans la lignée des travaux de la sociologie de
l’innovation, elle-même héritière de la pensée foucaldienne (Foucault, 1991).
Ainsi, le terme de dispositif sera utilisé pour désigner tous les assemblages
sociotechniques d’humains et de non-humains auxquels s’intéressent ces
sociologues, qu’il s’agisse de décrire les « programmes d’action » (Latour, 1996)
254
Management des Technologies Organisationnelles : Journées d’Etude 2009
ou les « scripts » (Akrich, 1992) inscrits dans des objets, ou encore, « des
assemblages d’éléments hétérogènes d’énoncés, d’agencements techniques, de
compétences incorporées » (Callon, 1995).
Nous aborderons les formes de médiation sociocognitives, relationnelles et
technologiques (Peraya, 2005) pour interroger les affordances des ontologies
(Sowa, 1999) sur la structuration et l’organisation des informations, ainsi que sur
les modes d’appropriation des connaissances.
Notre contribution se situe au niveau de l’analyse des interrelations entre des
outils d’indexation, des modèles de structuration induits par les différentes
générations d’ontologies et les modalités de construction des connaissances par
différentes communautés de pratique.
PROBLEMATIQUE ET METHODE.
Face à la prolifération de l’information numérique, nous interrogeons le
niveau de performativité des ontologies - dans la dynamique des travaux sur le
Web sémantique (Berners-Lee, 2001) - comme dispositif de médiation entre des
données préexistantes dans les interfaces d’édition numérique et un projet
d’apprentissage et / ou de veille scientifique.
Considérant que le projet d’apprentissage et / ou de veille scientifique est
entendu comme un processus de construction de connaissances actionnables
(Schön, 1983) (Penalva, 2000) et que l’édition numérique est vue comme un
stock de données indexées et référencées dans une logique plus ou moins
ouverte de mise à disposition, nous pouvons poser une base de questionnement
problématique.
Qu’elle soit à vocation de service public ou à vocation commerciale, l’édition
scientifique numérique organise l’accès à des stocks de données. Ces
« réservoirs » rendent disponibles des données indexées, classées et
référencées. La profusion d’informations scientifiques tient-elle ses promesses ?
Ces données disponibles rencontrent-elles les projets des acteurs ? Les données
rendues disponibles par l’édition numérique garantissent-elles toujours un critère
de pertinence pour des connaissances actionnables au niveau du projet d’un
acteur ou d’un collectif ?
Les réservoirs de données sont riches mais leur utilité et utilisabilité
(Chevalier, Tricot, 2008) restent très faibles du point de vue de la construction
de connaissances actionnables. Dans un grand nombre de cas, l’accès aux
données est réalisé par des requêtes basées sur des descripteurs ou à travers
une taxinomie aristotélicienne. Cette classification structure des données
potentiellement intéressantes mais s’avère inopérante du point de vue de la
construction de connaissances actionnables.
Communications MTO’2009
255
A partir de ces constats, nous émettons une hypothèse concernant le
potentiel des ontologies. La structuration et l’organisation des informations sous
formes de documents numériques, de réseaux sémantiques et d’ontologies
permettraient d’utiliser de manière profitable les données disponibles. Les
données présentent un caractère informe, un potentiel plus ou moins activé, a
contrario du terme d’information, du latin « informare » ou « informatio », qui
signifie « donner une forme, une signification ». La donnée deviendrait donc
information dans sa rencontre avec une intention (Schutz, 1987). La première
intention à laquelle l’information va être soumise est celle du concepteur de
l’ontologie. Comment les ontologies et leurs différentes générations induisentelles la structuration des données en informations ? Quelles sont les médiations
sociocognitives, relationnelles et technologiques observables ? Les ontologies en
tant qu’agencements numériques se situent à l’intermédiaire entre des données
préexistantes disponibles et une intention d’apprentissage ou de veille
scientifique. Nous verrons à ce propos quels sont les niveaux de performances
des différentes générations d’ontologies (ontologies élaborées de manière
manuelle ou ontologies quasi automatique) dans l’organisation et la structuration
des données en informations.
C’est ainsi que nous pouvons définir la problématique centrale de notre
contribution : en quoi et comment les ontologies peuvent-elles constituer des
dispositifs de médiation plus ou moins performants entre des données
préexistantes et un projet d’apprentissage et / ou de veille scientifique ?
Pour illustrer cette problématique nous nous appuyerons sur deux cas :
l’expérience de construction d’une ontologie de la pneumologie initiée par
l’INSERM et l’utilisation d’une plateforme ToxNuc mise en place dans le cadre du
programme Toxicologie Nucléaire Environnementale. A travers ces projets de
recherche nous allons tenter d’appréhender le développement d’ontologies et la
position des acteurs dans leurs processus (individuels et collectifs)
d’apprentissage et de veille scientifique. La posture méthodologique qui est la
notre dans le cadre de ces recherches prend ses fondements dans l’ethnographie
des usages. Selon Serge Proulx, l’ethnographie des usages permet « d’observer
le plus finement possible l’action effective de la technique dans la société »
(Proulx, 1999). Concrètement nous privilégions une approche par immersion,
plus ou moins approfondie sur chacun des deux cas explicités ici, et une analyse
des formes signifiantes par la mise en contexte. L’approche par immersion est
organisée autour de techniques de recueil privilégiant l’observation participante,
des entretiens semi-directifs, l’analyse des documents recueillis et l’analyse des
documents exploités. Notre démarche d’analyse qui se réclame du paradigme
interprétatif est guidée par la mise en contexte des phénomènes signifiants
laissant apparaître des médiations complexes au sein des dispositifs.
256
Management des Technologies Organisationnelles : Journées d’Etude 2009
LE CAS #01 : LA CONSTRUCTION D’UNE ONTOLOGIE DE LA PNEUMOLOGIE
Voici une présentation des travaux de doctorat réalisés par Audrey Baneyx
sous la direction de Jean Charlet au sein du laboratoire Santé Publique et
Informatique Médicale de l’INSERM au Centre de recherche des Cordeliers à
Paris (Baneyx, 2007).
Depuis le 31 juillet 1991 les établissements de santé doivent procéder à
l’évaluation et l’analyse de leur activité en s’appuyant sur le Programme de
Médicalisation des Systèmes d’Information (PMSI). L’action poursuit un double
objectif une meilleure répartition des ressources et une amélioration à terme de
l’efficacité des pratiques. Dans ce contexte, il est nécessaire d’harmoniser assez
rapidement les langages médicaux, pour aider les médecins qui renseignent le
dispositif à partir des comptes rendus d’hospitalisation sans avoir nécessairement
vu les patients, comme pour favoriser l’échange entre partenaires hospitaliers :
médecins, soignants et administratifs.
Dans ce contexte, l’effort d’Audrey Baneyx a porté plus particulièrement sur
la construction d’une ontologie de la pneumologie. Après une immersion dans la
spécialité qui lui a permis d’appréhender les besoins des praticiens et réaliser un
état de l’art, la jeune femme - en s’appuyant sur la méthode ARCHONTE
proposée par Bruno Bachimont (Bachimont, 2002) - a mis au point une
méthodologie complète pour élaborer une ontologie en partant des documents
disponibles.
Sur le terrain elle a rencontré de nombreuses difficultés. Les projets de
standardisation du contenu des dossiers médicaux et de codage des pathologies.
La complexité de la démarche de soin. La difficulté pour obtenir un consensus
chez les médecins codeurs. La difficulté méthodologique pour obtenir un recueil
de données homogène pour un même état pathologique. La nécessité de
respecter la structure naturelle de l’information pour la dénaturer le moins
possible. La faiblesse des outils d’aide au codage fondés sur les thésaurus
professionnels. Les difficultés pour rendre compte des richesses d’un langage de
spécialité. Enfin, la crainte que le codage des actes et des pathologies soit plus
utilisé pour surveiller l’activité que pour améliorer les pratiques.
S’appuyant sur les travaux de T. Gruber « une ontologie est une spécification
partagée d’une conceptualisation » (Gruber, 1993) puis de B. Bachimont
« définir une ontologie pour la représentation des connaissances, c’est définir un
domaine et un problème donnés, la signature fonctionnelle et relationnelle d’un
langage formel de représentation et la sémantique associée » (Bachimont,
2002), l’état de l’art dresse un panorama : des différents types d’ontologies selon
le degré de formalisme (hautement informelles, semi-informelles, semi-formelles
et formelles), les objets modélisés (pour la représentation des connaissances, de
domaine, de haut niveau, génériques, de tâches, d’applications) ou le niveau de
Communications MTO’2009
257
granularité (fine, large), et des formalismes pour la représentation des
connaissances (graphes conceptuels et logiques de description). La jeune femme
présente ensuite un assez grand nombre de méthodologies de construction
d’ontologies et des outils pour finalement privilégier la méthode ARCHONTE
(choisir les termes pertinents et les positionner, formaliser les connaissances en
précisant les propriétés, et opérationnaliser l’ensemble dans un langage de
représentation des connaissances) et l’outil PROTEGE (développé et mis à
disposition par le Stanford Medical Informatics).
Dans une démarche ascendante, le travail de construction de l’ontologie de la
pneumologie est alors conduit en cinq étapes : analyse terminologique fondée
sur l’analyse des corpus (en utilisant des outils pour repérer les syntagmes
nominaux), identification sélection et extraction des termes pertinents,
normalisation, formalisation et opérationnalisation. La construction est conduite
avec un souci de validation des contenus en s’appuyant sur un ensemble de
critères : clarté et objectivité, perfection, cohérence et extensibilité, biais
d’encodage minimal, engagements ontologiques minimaux, distinction
ontologique, minimisation de la distance sémantique et normalisation des
termes. Un ensemble d’erreurs potentielles est aussi recherché : circularité,
partition, redondance, sémantique, incomplétude. L’ensemble devant être
naturellement validé par les praticiens.
Les ontologies construites dans une démarche ascendante semblent être
performantes mais aussi coûteuses à élaborer et entretenir. Or, si la qualification
d’actes médicaux requiert un niveau élevé de précision, d’autres usages
pourraient se contenter de modèles intermédiaires de connaissances, moins
aboutis, mais beaucoup plus économiques à construire et faire évoluer.
LE CAS #02 : LA RECHERCHE D’INFORMATIONS DANS LE PROGRAMME TOXNUC-E
Pour appréhender d’autres formes ou démarches de construction de modèle
de connaissances, nous allons présenter les travaux de doctorat de Reena T.N.
Shetty réalisés sous la direction de Joël Quinqueton et Pierre-Michel Riccio au
Centre de Recherche LGI2P de l’Ecole des Mines d’Alès (Shetty, 2008).
Le programme de recherche Toxicologie Nucléaire Environnementale
(Ménager, 2007) a pour objectif d'identifier les effets toxiques d'éléments
chimiques, radioactifs ou non, utilisés dans la recherche et l'industrie nucléaires.
Ces travaux visent à déterminer les mécanismes de toxicité de ces éléments pour
l'homme et son environnement et de proposer des procédés de dépollution et de
traitement d'éventuelles contaminations. Ce programme inter-organismes,
organisé en 15 projets de recherche, est piloté par le CEA et soutenu par le
Ministère de la Recherche. Il fédère, depuis 2004, une communauté scientifique
258
Management des Technologies Organisationnelles : Journées d’Etude 2009
pluridisciplinaire d'environ 200 chercheurs/an et 100 doctorants et postdoctorants (CEA, CNRS, Inra, Inserm).
Dans ce contexte l’action du centre de recherche LGI2P de l’Ecole des Mines
d’Alès a été d’accompagner le développement de la communauté scientifique
notamment à travers la mise en place d’un système d’information collectif. Les
travaux de Reena Shetty ont concerné plus particulièrement l’élaboration d’une
méthodologie de construction de modèles de connaissances pour faciliter
l’identification de documents et le travail collaboratif (Shetty, 2007).
La recherche d’informations sur les systèmes ouverts (internet) ou fermés
(plateformes de travail collaboratif) devient vite exaspérante car les données
accessibles sont difficilement exploitables. Les requêtes simples produisent un
très grand nombre de résultats et les utilisateurs passent beaucoup de temps à
analyser ces résultats souvent peu pertinents par rapport à leur projet, leur
besoin. A partir de ce constat l’idée est de mieux utiliser les capacités de calcul
de la machine pour restreindre la taille de l’ensemble des résultats ou identifier
avec une bonne précision l’information recherchée. Les travaux sur le « web
sémantique » et les « ontologies » sont prometteurs, car ils permettent une
meilleure « compréhension » des documents et facilitent à l’aide d’outils
appropriés la qualité des recherches. Mais la construction d’ontologies et un
travail long et très coûteux.
Aussi, l’idée de ce travail de recherche a été d’imaginer une approche semiautomatique de construction de modèles de connaissances pour la recherche
d’information dans de larges corpus. Le principe : trouver une forme d’ontologie
utilisable avec les mêmes outils, mais qui puisse être construite rapidement et
mise à jour facilement, en faisant intervenir les spécialistes du domaine sur une
partie strictement indispensable et laissant la machine calculer le reste. Nous
l’avons appelée réseaux sémantiques étendus ou ESN pour : Extended Semantic
Network.
La première étape consiste à partir d’un ensemble de documents
soigneusement sélectionnés à créer par calculs mathématiques issus de l’analyse
de données et de la classification automatique (fondés sur la proximité des mots
dans l’espace) un ou plusieurs réseaux de proximités (un réseau de proximité
par thème). Dans le même temps des spécialistes élaborent, en s’appuyant sur
un guide de construction, de petits réseaux sémantiques (environ cinquante
nœuds ou concepts par réseau) qui représentent la vision du monde de l’acteur
en situation sur un thème.
La deuxième étape consiste à fusionner de façon automatique réseaux
sémantiques et réseaux de proximité pour générer des quasi-ontologies qui
pourront être ensuite utilisées à la place de véritables ontologies pour restreindre
de façon efficace l’ensemble des résultats d’une requête.
Communications MTO’2009
259
Pour certains spécialistes la démarche est discutable puisqu’elle consiste à
rapprocher des concepts et des termes, mais elle respecte le point de vue de
l’acteur qui construit de façon manuelle le ou les réseaux sémantiques, les
termes n’étant finalement utilisés que pour étendre et préciser les différents
concepts. Les premiers résultats sur le programme ToxNuc-E sont
encourageants, mais il reste à conduire une véritable campagne de validation
des travaux dans différentes situations.
UNE ORGANISATION EN TROIS NIVEAUX
A la vue de ces deux études de cas nous proposons de réconcilier documents
numériques, intentions d’apprentissage et information scientifique à travers un
modèle en trois niveaux : une couche basse ou substrat dans laquelle serait
stocké l’ensemble des données de base accessibles constituant un réservoir
d’informations, une couche haute dédiée aux intentions dans l’usage (processus
de création par l’auteur / processus de reconstruction par le lecteur) et une
couche intermédiaire dans laquelle serait concentré l’ensemble des supports de
médiation (index, thésaurus, ontologies, réseaux sémantiques,…).
Le principe d’un modèle en trois niveaux semble adapté, il est bien le reflet
d’une décomposition de la connaissance en construction : données, informations
et connaissances actionnables. Mais, il convient à notre avis de prendre un peu
de recul quand à la composition des différentes couches.
Pour la couche basse ou substrat, que l’on se situe dans un système ouvert
(web étendu), semi-ouvert (plateformes professionnelles), ou fermé (plateformes
de travail collaboratif), l’expérience montre qu’il existe un processus de sélection
des données. Les législations internationales, les pratiques culturelles, l’éthique
guident de facto le processus de publication des données. Pour ne pas être
poursuivi en justice (par exemple pour diffamation ou plagiat), parce que le
dépôt n’est pas complètement anonyme (ce qui pose la question de la
responsabilité des acteurs et de leur image par rapport aux autres acteurs), ou
plus simplement parce que les contributeurs semblent être dans d’assez larges
proportions dotés d’une volonté de bien faire, les données accessibles sont plutôt
d’assez bonne qualité. Un point important est que les données n’existent pas
seules : pour qu’elles puissent être repérées, le contributeur va associer des
mots-clés, les moteurs de recherche vont créer et utiliser des index (différents
selon le type de moteur). L’ensemble fait qu’il est aujourd’hui difficile de
considérer que l’information numérique accessible est une accumulation de
données sans forme et sans cohérence au sens intrinsèque. Il existe toutefois de
nombreux problèmes : coexistence de versions différentes d’un même ensemble
de données, repérage des auteurs et / ou contributeurs, positionnement dans le
260
Management des Technologies Organisationnelles : Journées d’Etude 2009
temps, insertion dans un champ, cohérences locales, qui font que les données
publiées peuvent être complètement inexploitables dans un projet
d’apprentissage ou de veille scientifique.
La couche haute doit de notre point de vue faciliter l’expression des
intentions de l’auteur en charge d’une action de publication comme celles de
l’apprenant ou d’un acteur inscrit dans un projet de veille. Méthodes et outils
devraient faciliter dans ce cas le travail de publication de l’auteur comme le
parcours in situ de l’apprenant. Il nous semble difficile, et dans un grand nombre
de cas impossible, de dissocier la contribution directe de ces acteurs (qu’il
s’agisse d’un scénario d’apprentissage rédigé par un formateur ou de la
découverte d’un parcours d’apprentissage ou de veille) d’éléments qui vont
apporter une valeur ajoutée. De nombreux outils technologiques peuvent être
utilisés : modèles utilisateurs mémorisant les pratiques (sur la machine de
l’utilisateur ou sur une machine distante) ou traces d’usages pour in fine donner
plus de souplesse ou trouver une meilleure adéquation dans la démarche
(adaptation de la restitution aux profils des utilisateurs pour améliorer la
construction des connaissances). Ces outils peuvent aussi être mis à contribution
pour mieux situer les éléments d’apprentissage ou de veille en contexte (par
exemple en accédant à la biographie des auteurs de référence).
En ce qui concerne la couche intermédiaire de nombreux travaux ont été
initiés, comme ceux que nous avons présentés pour la construction d’une
ontologie de la pneumologie ou la mise au point de réseaux sémantiques
étendus pour la toxicologie nucléaire environnementale. Aujourd’hui, il nous
semble que deux points doivent être approfondis en priorité : en termes d’accès
la mise en cohérence d’un projet éditorial ou d’apprentissage par rapport aux
données accessibles via les représentations collectives (élaborées sous forme
d’ontologies ou de réseaux sémantiques étendus), et en termes d’organisation la
mise en cohérence, la validité, l’homogénéité, la constance et la fiabilité des
informations (qui vont qualifier les données accessibles dans la couche basse).
CONCLUSION
La réponse à la problématique que nous posions sur les niveaux de
performativité des différentes générations d’ontologies doit être nuancée. Nous
constatons tout d’abord que les ontologies sont relatives à la responsabilité
éditoriale qui prévaut. Cette dernière reposerait sur un niveau d’expertise
suffisant pour légitimer les savoirs organisés. Nous interrogeons la place des
experts dans leurs intentions éditoriales. Les objectifs et les finalités qui
prévalent à la constitution d’ontologies déterminent l’organisation de « monde de
connaissances ». La responsabilité éditoriale est donc primordiale et doit être
Communications MTO’2009
261
interrogée dans ses intentions. Le projet éditorial s’inscrit dans une intention qui
au mieux recouvre une dimension heuristique mais qui peut aussi être marquée
par des intentions politiques ou économiques. La construction d’ontologies ne
peut pas faire l’impasse d’une justification des schèmes épistémologiques qui
prévalent à son existence. Ce qui nous invite à revenir à la question initiale de
l'explicitation des paradigmes épistémologiques de référence : ceux par lesquels
nous tenons pour « valables » les connaissances constituées au sein
d’ontologies. Nous prônons une responsabilité éditoriale qui non seulement
organise les connaissances mais surtout rend lisible l'épistémè et les « schèmes
de liaison » à l’œuvre dans la construction de « mondes de connaissances ».
Nous rejoignons les préoccupations éthiques d’une « science avec conscience »
et préconisons une mise en contexte de la construction d’ontologies.
Ces dernières apparaissent par ailleurs comme des spécifications partagées
par une communauté de pratiques. En ce sens, l’ontologie n’est valable que pour
une communauté et reproduit des formes paradigmatiques reconnues au sein de
cette communauté. En ce sens, les ontologies apparaissent comme des systèmes
de reproduction des connaissances constitutives de paradigmes de référence.
Les ontologies et les nouveaux agencements numériques qui leur donnent
formes, s’ils facilitent l’organisation et l’accès à l’information scientifique
éditorialisée, ne favorisent pas l’ouverture créative à travers des apprentissages
à la marge des disciplines constituées ou des paradigmes de référence. La
médiation n’étant pas neutre elle oriente forcément l’accès aux informations
dans une vision paradigmatique. De manière plus conséquente et comme nous
avons pu l’observer dans le cas de construction d’une ontologie de la
pneumologie, les ontologies orientent parfois la pratique. La dimension
pragmatique instaurée par l’utilisation des ontologies dans les activités
scientifiques (sous formes d’évaluation notamment) n’échappe pas à une
orientation paradigmatique. Un des paradoxes dans la construction d‘ontologies
repose sur les récurrences de la démarche éditoriale au détriment de la
pertinence d’un monde de connaissances ouvert sur la pratique.
Nous préconisons donc une ingénierie de la médiation dans les dispositifs
d’information scientifique. Cette ingénierie de la médiation va garantir la qualité
des documents à travers la validation, la hiérarchisation et la responsabilité
éditoriale et, située dans un dialogue entre pratiques et épistémè, va renforcer le
lien entre les acteurs. Une ingénierie de la médiation complétera l’apport de
l’ingénierie des connaissances, dont la principale contribution est d’élaborer des
représentations collectives, en resituant les projets de conception ou d’usage au
centre de la démarche.
262
Management des Technologies Organisationnelles : Journées d’Etude 2009
RÉFÉRENCES BIBLIOGRAPHIQUES
Akrich M., « The De-Scription of Technical Objects », Shaping Technology / Building Society:
Studies in Sociotechnical change, Cambridge, MIT Press., 1992.
Bachimont B., Isaac A. and Troncy R., « Semantic commitment for designing ontologies: A
proposal », 13th International Conference on Knowledge Engineering and
Knowledge Management EKAW’2002, in Lecture Note in Computer Science,
Springer, vol. 2473, 2002, p. 114-121.
Baneyx A., Construire une ontologie de la pneumologie, Thèse de doctorat en informatique,
Université Paris 6, 2007.
Berners-Lee T., Hendler J. and Lassila O., The semantic Web, Scientific American, May 2001.
Callon M., « Four Models for the Dynamics of Science », Handbook of Science and Technology
Studies, Thousand Oaks, Sage, 1995. p. 29-63.
Chevalier A., Tricot A., Ergonomie des documents électroniques, Paris, Presses Universitaires de
France, 2007.
Foucault M., La poussière et le nuage, in L'impossible prison, recherches sur le système
pénitentiaire au XIXe siècle, Paris, Seuil, 1991, p.29-39.
Gruber T., « A translation approach to portable ontology specifications », in Knowledge
Acquisition, vol. 5, n° 2, 1993, p. 199-220.
Latour B., Petites leçons de sociologie des sciences, Paris, Seuil, 1996.
Ménager M.T., Présentation des résultats du programme de recherche Toxicologie Nucléaire
Environnementale 2007, http://www.toxnuc-e.org/vulgarisation/index.php
Penalva J.M., Connaissances actionnables et intelligence collective, Actes du colloque Ingénierie
des systèmes et NTIC (NîmesTIC’2000), Nîmes, Septembre 2000.
Peraya D., « La formation à distance : un dispositif de formation et de communications
médiatisées, Une approche des processus de médiatisation et de médiation », TICE
et développement, 2005.
Proulx S., « La construction sociale des objets informationnels : matériaux pour une
ethnographie des usages », Actes du Colloque Comprendre les usages d'Internet,
Paris, 3 et 4 décembre 1999.
Schön D.A., The Reflective Practitioner: how professionals think in action, Basic books, NewYork, 1983.
Schutz A., Le chercheur et le quotidien : phénoménologie des sciences sociales, Paris, Méridiens
Klincksieck, 1987.
Shetty R.T.N., Quinqueton J., Riccio P.M., Penalva J.M. and Villerd J., « Collaborative Platform
Using Knowledge Cartography – ToxNuc-E », Proceedings of CTS’2007, New-York,
IEEE, p. 312-320.
Shetty R.T.N., Enrichissement de réseaux sémantiques par la proximité de concepts, Thèse de
doctorat, Ecole des Mines de Paris, 2008.
Sowa J.F., Knowledge representation: Logical, philosophical and computational foundations.
Brooks Cole Publishing Co., Pacific Grove, CA USA. 1999.
III – En direct des laboratoires
Daniel BONNET
Nicolas DACLIN et Vincent CHAPURLAT
Philippe COIFFARD
Marie-Françoise COMBAZ
Irène GEORGESCU
Frank ROBERT, Frank LASCH et Frédéric LE ROY
264
Management des Technologies Organisationnelles : Journées d’Etude 2009
En direct des laboratoires
265
Promouvoir le Management des
Technologies Organisationnelles :
lignes directrices fondamentales
d’une politique de management des
technologies organisationnelles
Daniel BONNET
Chercheur-associé à l’ISEOR
Université Jean-Moulin / Lyon
RESUME
Les technologies organisationnelles intègrent le fonctionnement courant des
organisations. Les processus dynamiques du fonctionnement se recomposent
désormais dans l’interaction de l’usage des technologies organisationnelles et
dans l’investissement immatériel. Cette recomposition détermine les nouveaux
invariants de la transformation, voire de la métamorphose des organisations.
Cette communication étudie les lignes directrices d’une politique de management
intégré des technologies organisationnelles sous ce point de vue.
INTRODUCTION : EMERGENCE DE LA NOTION DE MANAGEMENT DES
TECHNOLOGIES ORGANISATIONNELLES
Les technologies de l’information et de la communication permettaient
jusqu’à une époque encore récente de réaliser des fonctions simples, par
exemple envoyer ou recevoir un mail. Elles étaient principalement orientées vers
l’accomplissement de ces fonctions simples pour lesquelles elles ont été conçues
à l’origine. Désormais, elles s’intègrent dans des dispositifs organisationnels aux
seins desquels elles doivent réaliser des fonctions complexes. On voit apparaître
de nouvelles exigences, par exemple l’interopérabilité des solutions
266
Management des Technologies Organisationnelles : Journées d’Etude 2009
technologiques. La technologie a évolué et propose désormais des solutions
d’organisation d’essence technologique, par exemple le workflow qui permet le
travail collaboratif au sein des organisations et entre des organisations
différentes.
Cette intégration modifie leurs finalités. Le développement des technologies
organisationnelles a d’abord été préconisé comme solution pour améliorer en
qualité et en efficacité le fonctionnement des organisations. Leur intégration
devient désormais le problème. Au stade actuel des savoir-faire dans le domaine
du management des technologies organisationnelles, cette intégration révèle les
incompatibilités dont le franchissement contribuera à l’émergence même du
management des technologies organisationnelles.
L’incompatibilité est ici définie sur le plan logique. Elle caractérise des
phénomènes dysfonctionnels dont la conjonction ne peut intervenir pour des
raisons logiques indépendantes des circonstances. Ce sera par exemple le cas
avec des outils de gestion conçus dans des contextes différents de celui où ils
doivent être mis en place, ce qui est souvent le cas pour la mise en œuvre des
solutions SAP (Systems, Applications, and Products for data processing), dans la
catégorie desquels se classent les ERP (Entreprise Ressource Planning). Cette
incompatibilité peut-être analysée en observant les dysfonctionnements. Ces
dysfonctionnements sont le symptôme d’une marge d’indétermination.
L’information nécessaire à la conjonction n’est pas générée par le couplage des
structures de la technologie et de l’organisation. La détermination du nouvel
ensemble organisationnel nécessite l’intervention de l’homme, en réalisant le
couplage du gestionnaire et de l’ingénieur. Il s’agirait de porter toute son
attention sur les dysfonctionnements.
Les dysfonctionnements trouvent leur origine dans l’interaction des structures
et des comportements. L’approche dysfonctionnelle est une option
méthodologique (H.Savall et V.Zardet, 1995a : 183). Le dysfonctionnement est
un phénomène d’essence socio-économique. La modélisation des phénomènes
du fonctionnement organisationnel impose de relâcher la contrainte de la
rationalité limitée, comme l’avait préconisée J.G March et H.A Simon (1969),
compte tenu de ce que l’incompatibilité naît également du décalage plus ou
moins important selon les contextes entre la logique de conception de la solution
technologique, ce que la technologie permet de proposer, et la logique de l’outil
lui-même (J.C Moisdon, 1997 : 111). Les incompatibilités technologiques et
organisationnelles saturent donc le déploiement du potentiel et des capacités
organisationnelles. Le progrès technologique se vulgarise dans tout le champ de
ses possibilités, définissant l’étendue des transformations qui s’opèrent, mais
posent de nombreux problèmes nouveaux dans le champ de son intégration,
définissant quant à lui la profondeur des transformations. La problématique se
En direct des laboratoires
267
situe donc à l’intersection de l’étendue des transformations et de leur
profondeur. La recherche scientifique et la coopération des acteurs (consultants,
professionnels) doivent se concentrer à cette intersection.
La problématique étant posée, notre recherche stipule qu’il convient
d’intégrer deux perspectives, constituant les hypothèses à valider.
• Les processus dynamiques de la transformation des structures et des
comportements se recomposent dans l’interaction de l’usage des
technologies organisationnelles et dans l’investissement immatériel
courant.
• Les organisations fonctionnent en régulations d’incompatibilités (Partie
1). Elles doivent trouver avec la collaboration de chercheurs et des
consultants les voies et les moyens permettant de proposer et
d’implanter des solutions technologiques compatibles dans la diversité
des contextes. Le choix des investissements nécessite d’évaluer
préalablement la pertinence des solutions technologiques proposées.
Cette évaluation se fait généralement à partir d’un cahier des charges
des besoins. Cette évaluation n’est pas suffisante, même si elle anticipe
les conditions de l’alignement stratégique et ergonomique. L’évaluation
des conditions et des modalités de l’alignement doivent intégrer la
compréhension
des
processus
de
recomposition
des
dysfonctionnements. Les cahiers des charges devraient donc intégrer
également une analyse systématique des dysfonctionnements, et
proposer un traitement de ceux-ci en profondeur.
• Le déploiement du potentiel et des capacités organisationnelles
nécessite de mettre en œuvre une politique de management intégré des
technologies organisationnelles.
• Le management des technologies organisationnelles doit se fixer pour
objectif d’organiser le déploiement du potentiel et des capacités
organisationnelles (Partie 2). Ce déploiement nécessite d’intervenir avec
des méthodes de la conduite du changement réalisant une approche
transformative. Cette perspective nécessite que les politiques de
management des technologies organisationnelles intègrent le traitement
des invariants à l’origine des dysfonctionnements. La recomposition des
dysfonctionnements peut en effet s’expliquer par le fait que les
politiques mises en œuvre, généralement définies comme des politiques
de conduite du changement, ne sont pas parvenues à transformer les
processus dans le fonctionnement des infrastructures de l’organisation
et de son management. Les invariants sont définis comme les éléments
qui rendent compte de l’aspect inchangé de la transformation (W.R
Bion, 1982 : 7).
268
Management des Technologies Organisationnelles : Journées d’Etude 2009
Notre communication analyse ces deux hypothèses pour explorer les lignes
directrices d’une politique fondamentale de management des technologies
organisationnelles (Partie 3). Cependant, notre conclusion montrera que
l’incompatibilité est immanente dès lors que le fonctionnement des organisations
et les solutions technologiques ne réalisent pas l’homéostasie de leur propre
perfectionnement, qu’il s’agit donc de pratiquer le management intégré des
technologies
organisationnelles.
Le
management
des
technologies
organisationnelles doit être envisagé comme vecteur de l’innovation managériale
et organisationnelle.
PARTIE 1 : LES ORGANISATIONS FONCTIONNENT EN REGULATIONS
D’INCOMPATIBILITES
Cette partie explicite la notion de régulation d’incompatibilités. N. Belbaly et
ali. (2007 : 20) soulignent que peu d’auteurs ouvrent la boite noire des
résistances et des conflits consécutifs à la résistance des acteurs au cours de
l’implantation des technologies de l’information et des communications.
L’explicitation proposée est réalisée à partir du concept de rapport de phase
(G.Simondon, 1989 : 159). Ce concept permet de montrer comment la duplicité
des phases conduit à l’émergence de la notion de management des technologies
organisationnelles.
Le fonctionnement d’une structure ou d’un système bien équilibré est
« orthofonctionnel » (ortho = correct). Cette propriété est généralement réunie
pour les systèmes dits fermés lorsque leur fonctionnement est bien réglé et que
les structures sont en bon état de fonctionnement, pour des conditions
d’environnement données. Ce n’est jamais totalement le cas pour les solutions
technologiques, et plus généralement pour les systèmes dits ouverts sur leur
environnement, car elles ne sont jamais intégralement compatibles avec le
fonctionnement des organisations. Elles s’intègrent dans des dispositifs
organisationnels dont le fonctionnement n’est jamais bien réglé lui-même d’une
part. D’autre part, le fonctionnement de la solution technologique est par
essence hétéronome. Son fonctionnement correct est contingent des règles qui
le gouvernent. Cette hétéronomie est d’autant plus forte que la solution
technologique accomplit des fonctions très intégrées. Les nouvelles
conceptualisations, de l’inter-opérationnalité et du worflow par exemple, ont
permis de réaliser des progrès importants en termes d’intégration, mais leur
mise en œuvre est aussi beaucoup plus complexe à gérer. Cette mise en œuvre
se trouve de plus en plus adossée à la réussite des stratégies de changement
dont la recherche autant que les résultats concrets au sein des organisations
montrent les limites. La conduite du changement ayant pour objet de
En direct des laboratoires
269
transformer des interactions requiert des méthodes elles-mêmes transformatives.
Enfin, la solution technologique fonctionne dans ses propres les limites
fonctionnelles.
Les dysfonctionnements ne naissent pas spontanément. Ils sont eux-mêmes
la condition de leur propre reproduction, et cette condition leur confère les
propriétés de leur propre invariance. En réalité, ils se transforment, mais lorsque
cette transformation est une recomposition, elle offre une prise à la perception
(J.Gibson, 1977), qui est celle du rapport d’inertie entre le sujet et l’objet
observé. Elle établit en fait des rapports analogiques entre différentes situations
dans un espace-temps. Nous voyons ce qui ne change pas, mais en fonction de
notre connaissance. H.Savall et V.Zardet (1995b : 35) ont ainsi déterminé à
partir de leurs observations des dysfonctionnements le principe de la
contingence générique qui permet de procéder à leur observation scientifique,
afin d’identifier les invariants à l’origine des dysfonctionnements.
La question des modalités de l’observation scientifique se pose néanmoins
pour la mise en œuvre des solutions technologiques dès lors que celles-ci
interviennent dans les processus de pilotage. Dans le cas de la mise en œuvre
des technologies organisationnelles, la référence au concept de l’énaction
(F.Varela, 1993), qui désigne le couplage structurel entre l’individu et son
environnement doit être relativisé. La mobilisation de la notion gibsonienne
d’affordance (J.Gibson, 1977), qui désigne la prise que l’environnement offre à la
perception en même temps que la capacité que la perception possède d’avoir
prise ou d’être en prise avec ses prises (A.Berque, 2000 : 151), permet de
réaliser une intégration réciproque des rapports d’inertie entre l’observateur et
son environnement, ce qui n’est pas le cas du concept de l’énaction qui exclut le
rapport d’invariance de l’environnement. T.Morineau (2001) indique à cet égard
que les caractéristiques de l’individu, sa personnalité, ses compétences, son
comportement dans l’action, et les propriétés du milieu vont déterminer les
sollicitations et leur valeur adaptative immédiate. La boucle perception-action ne
fait pas nécessairement intervenir des médiateurs cognitifs. Selon cette
approche, T.Morineau a conduit des expérimentations, qui ont contribué à
améliorer la définition des systèmes de contrôle du trafic aérien. Ces
expérimentations ont permis de modéliser les anticipations des contrôleurs
aériens dans le traitement des affordances immédiates. L’auteur indique que
cette approche est intéressante pour évaluer des individus en situation
instrumentale, où celui-ci agit et perçoit à travers des outils de mise en œuvre
en raison de leurs propriétés affordantes.
L’observation ne doit donc pas exclure l’existence d’incompatibilités
structurelles à un moment donné de l’état des technologies d’une part,
270
Management des Technologies Organisationnelles : Journées d’Etude 2009
consécutives des affordances par exemple, qui ne sont pas visibles à la
perception mais le deviennent à l’analyse, ni exclure le couplage structurel du
rapport d’invariance (A.Berque, 2000 : 152). Ce couplage structurel n’apparaît
pas dans le rapport entre l’environnement interne et l’environnement externe. Il
apparaît cependant si l’on raisonne dans la relation au milieu associé
(G.Simondon, 2005 : 63). Les individus structurent en effet leur comportement
en fonction des propriétés de leur milieu de vie (J.J Gibson, 1979).
La seule connaissance analogique ne permet pas seule de traiter les
dysfonctionnements. La connaissance seule n’est pas suffisante. Il faut
s’intéresser à la connaissance individuée, c’est-à-dire à la connaissance, et plus
exactement à l’information qui est traitée et intégrée par les processus de
transformations, qui seule fait advenir le changement. Pour G.Simondon (2005
:35), c’est la transformation de l’information qui génère la compatibilité dans un
système comportant des potentiels. Le traitement des dysfonctionnements
nécessite donc de réaliser un processus de transformations spécifiques, qui n’est
pas seulement celui de la forme, mais également celui de la signification. A
défaut, la transformation s’opère en régulations de dysfonctionnements, car le
fonctionnement dans les infrastructures de l’organisation intègre le processus de
régulations d’incompatibilités, dont il convient d’expliquer le mécanisme de
fonctionnement, appliqué au sujet de cette communication.
Les incompatibilités naissent du dédoublement du processus de
transformations entre deux phases, organisationnelle et technologique, qui
permet à l’une et à l’autre de réaliser leur processus spécifique de
transformations. Ces processus opèrent la spécialisation dichotomique de chaque
phase, la recherche technologique d’une part, la recherche organisationnelle
d’autre part, par exemple. Chacune a également son propre processus de
dédoublement en mode théorique et en mode pratique. La mise en œuvre de la
solution technologique nécessite cependant que les phases technologique et
organisationnelle d’une part, théorique et pratique d’autre part, se regroupent à
un moment donné pour réaliser les fonctions requises. Ce moment est celui de
l’implantation, puis de la mise en œuvre de la solution technologique dans
l’organisation. Ce moment est concrétisé par le dispositif organisationnel qui
réalise la conjonction de la technologie et de l’organisationnel. Le management
des technologies organisationnelles apparaît au point neutre isodynamique qui
surgit à notre connaissance lorsque les processus sont de nouveaux envisagés
dans leur totalité. Mais, cette transformation se réalise dans un rapport
dysfonctionnel entre les phases, d’où naît l’incompatibilité contenue dans les
processus. Cette incompatibilité sature le déploiement du potentiel d’essence
technologique d’une part et d’essence socio-économique d’autre part, contenu
dans chacune des phases. Chacune d’elles doit cependant se dédoublait en mode
En direct des laboratoires
271
théorique et en mode pratique dans l’entreprise qui implante la solution
technologique, pour résoudre l’incompatibilité (G.Simondon, 1989 : 160). Et la
formation qui apporte la connaissance analogique n’est pas suffisante à cet
égard, comme nous l’avons indiqué précédemment. Le rapport de phase se
substitue chez G.Simondon (Ibid., 159) à la notion de schème dialectique auquel
nos raisonnements logiques se réfèrent généralement, pour expliquer les
tensions, mais également pour montrer que chaque réalité consécutive du
dédoublement, en l’espèce les spécialisations, sont le symbole l’une de l’autre.
Par conséquent, il faut envisager que le dédoublement donne forme à une unité
de pensée du management des technologies organisationnelles, consécutif de la
réintégration des modes de pensée technologique et organisationnel dans le
dispositif de gestion, qui est elle-même le point d’équilibration des modes
théorique et pratique, lorsqu’il s’agit d’implanter les technologies dans le
fonctionnement de l’organisation. Le management des technologies
organisationnelles doit devenir à ce moment de la transformation un thème de
recherche scientifique, tant pour les gestionnaires que pour les ingénieurs, dont
le point de fuite est de définir les meilleures conditions et modalités de
traitement des incompatibilités immanentes. La technologie doit pour cela se
projeter dans l’ontogénèse des structures et des comportements qui régiront le
fonctionnement des dispositifs organisationnels, pour réaliser la conjonction de
l’essence socio-économique et de la technologie. Même s’il n’est pas explicité, ce
processus est à l’œuvre dans les versions béta qui sont expérimentées plusieurs
années durant par des utilisateurs, par exemple.
PARTIE 2 : LE MANAGEMENT DES TECHNOLOGIES
ORGANISATIONNELLES CONTRBUERA A ORGANISER LE
DEPLOIEMENT DU POTENTIEL ET DES CAPACITES
ORGANISATIONNELLES
Nous avons montré dans la première partie que les organisations, et les
dispositifs organisationnels qu’elles utilisent, fonctionnent en régulations
d’incompatibilités. Nous avons utilisé le concept de rapport de phase pour
expliquer cette modalité du fonctionnement. Les régulations, plus ou moins bien
maîtrisées, tentent de résoudre les problèmes de l’incompatibilité, sans jamais y
parvenir, car elles alimentent elles-mêmes le processus dynamique de
l’équilibration des interactions qui s’établit à un niveau quelconque de qualité sur
le continuum « dysfonctionnement – orthofonctionnement ». Il s’agit donc
d’inscrire la transformation dans son propre processus de résolution de
problèmes. Cette inscription est l’essence de la conduite du changement. Il
nécessite d’utiliser des méthodes permettant de piloter les processus à leurs plus
272
Management des Technologies Organisationnelles : Journées d’Etude 2009
hauts niveaux d’exigences. Nous allons montré dans cette deuxième partie que
cette condition doit être réunie pour réussir le déploiement du potentiel et des
capacités organisationnelles.
L’essence du management des technologies organisationnelles procède du recouplage de la pensée technologique et de la pensée organisationnelle. La
pensée technologique n’a conservé au cours de la spécialisation que les
caractères figuraux de l’organisation qu’elle se trouve devoir rapporter dans les
nouveaux contextes dans lesquels elle s’incorpore. Par conséquent, elle tire sa
signification de sa conjonction à l’organisation. Ces caractères figuraux
définissent cependant une structure qui est celle de l’organisation de la solution
technologique elle-même, qui se trouve par essence toujours incompatible, y
compris mais à un degré moindre lorsque les solutions sont totalement
paramétrables. Les caractères figuraux ne conservent en effet que des
fragments de l’organisation qu’elle modélise. Et si la pensée technologique
s’inscrit toujours dans un processus d’induction dont elle tire sa propre unité
(G.Simondon, 1989 : 176), elle se trouve toujours orpheline du contexte
organisationnel lui-même. Il n’est pas interdit de penser cependant que la
pensée technologique contribuera à proposer des solutions organisationnelles
dont l’augure est très probablement la contribution qui s’amplifie désormais aux
nouvelles formes d’organisations, lesquelles ouvrent d’immenses possibilités dans
le domaine de la stratégie des entreprises. Les organisations de demain seront
technologiques. Cette perspective est introduite par exemple avec la gamme des
solutions ASP (application service provider), dont certaines se positionnent sur
un fragment de l’organisation (solutions fonctionnelles et verticales : Organizer
en mode ASP par exemple), et d’autres sur un service plus complet (spectres de
services externalisés : PGI en mode ASP par exemple). On peut citer également
des solutions horizontales spécialisées sur un service, comme le service
électronique de paiement en ligne par exemple.
Cette perspective d’analyse montre que les nouvelles technologies de
l’information et de la communication permettent de repenser l’organisation
autour de deux idées-clés. D’une part, l’organisation n’est plus pensée au travers
de sa structure sociale, par exemple la hiérarchie, ou plus généralement de sa
fonction d’utilité, mais comme unité de fonctionnement (G.Simondon, 1989 :
253). Il ne s’agit pas cependant de la repenser exclusivement au travers des
opérations techniques du fonctionnement, mais bien également des opérations
relationnelles d’essence socio-économique. Les travaux de H.Savall et V.Zardet
(1995b : 311) ont notamment contribué à réintégrer cette approche dans
l’analyse technico-économique des choix d’investissements. D’autre part, cette
unité de fonctionnement s’organise autour du noyau relationnel, celui des
En direct des laboratoires
273
communications-coordinations-concertations, dont les mêmes travaux ont
montré que ces trois catégories d’opérations ne devaient jamais être dissociés.
Ainsi, l’organisation peut prendre des formes nouvelles, si les conditions du
déploiement de son potentiel de virtualités sont réunies. Les travaux de
G.Simondon (1989 : 248) ont montré notamment que la solution technologique
conservait en elle le potentiel des relations trans-individuelles. On peut donc
concevoir qu’une organisation ne soit définie que par sa structure des
interactions et des flux qui la structurent, dans un espace lui-même en constante
transformation. Ces nouvelles formes d’organisations permettent de développer
la transformation de flux, qui se matérialisent par des produits et services
immatériels, voire virtuels, à partir du moment où la conjonction s’établit
parfaitement entre la phase technologique et la phase organisationnelle. Les
technologies viennent donc transformer les conditions techniques de la
réalisation des processus de la transformation, mais cette transformation ne
libère le potentiel des virtualités, dont nous venons de souligner qu’elles se
transformeront elles-mêmes en potentiel économique pour l’entreprise, que si le
processus de la transformation est parfaitement maîtrisé. La conjonction des
phases s’établit donc à un point d’équilibration isodynamique plus ou moins
parfait, qui caractérise la qualité et l’efficacité du fonctionnement du dispositif
organisationnel dans son milieu associé. Les phénomènes que nous observons,
et nous nous intéressons plus particulièrement aux dysfonctionnements, ne sont
que le symptôme révélateur des incompatibilités dans les infrastructures du
dispositif organisationnel, en particulier lorsque des causes purement techniques
ne viennent pas expliquer ces dysfonctionnements. Les difficultés rencontrées ne
sont pas nouvelles. Progressivement, les intervenants ont essayé de les résoudre
en mettant en œuvre des méthodes de la conduite du changement. Il est
toujours commode et certes préférable de se satisfaire d’un résultat, mais
globalement, il est apparu que les méthodes classiques de la conduite du
changement étaient inadéquates, et elles le seront de plus en plus dans un
contexte de globalisation des technologies organisationnelles. Ce n’est pas une
affaire de spécialiste, mais de nature de méthode. Les problématiques de
transformations doivent être traitées avec des méthodes elles-mêmes
transformatives.
Le management des technologies organisationnelles doit contribuer au
dépassement de la pensée spécialisée consécutive du dédoublement des phases
technologiques et organisationnelles, pour leur permettre précisément de
poursuivre leur propre perfectionnement. Pour G.Simondon (1989 : 196), cette
réunion des formes de la pensée différenciée est du registre de la modalité
esthétique, auquel il assimile la pensée philosophique (Ibid., : 201), (qui selon
nous désigne plutôt le paradigme), car c’est cette modalité qui permet de passer
274
Management des Technologies Organisationnelles : Journées d’Etude 2009
d’un mode de pensée à un autre (Ibid. : 199), qui permet d’en reconstituer
l’unité, et de préparer la médiation et la communication entre les différents
collectifs de pensée (Ibid., : 197), dont la méthode est par essence inductive. Or,
c’est précisément de cette méthode de la pensée inductive que provient l’échec
de l’action technique directe (Ibid., : 205) : Elle privilégie le subjectif comme
substitut de l’optatif ; « par son échec, la pensée technique découvre que le
monde ne se laisse pas tout entier incorporer aux techniques » ; « si le monde
n’était fait que de structures figurales, la technique triomphante ne rencontrerait
jamais d’obstacles » (Ibid., : 205). Ce n’est plus à ce stade le perfectionnement
de l’objet technologique qui est seul en question, mais également celui de son
incorporation au fonctionnement de l’organisation. Les pensées théorique et
pratique doivent à ce stade réaliser la conjonction de leur contenu théorique et
pratique respectif. La réalisation de cette conjonction ne relève pas de l’ordre du
subjectif, mais de l’intersubjectif dont émerge la modalité optative. Cette
modalité, qui réalise la conjonction, et plus précisément le réglage du
fonctionnement, permet la réalisation la plus conforme possible du processus de
transformations.
Les travaux de H.Savall (1977, 1978), et de H.Savall et V.Zardet (1984, 2004
: 378) ont montré comment il était possible dans ces contextes de conduite du
changement, d’activer les processus cognitifs et contradictoires des acteurs.
Leurs travaux de recherche concernent le fonctionnement des organisations. Les
méthodologies de la recherche-intervention élaborées par ces auteurs et leur
équipe de recherche à l’Institut de Socio-Economie des Entreprises et des
Organisations (ISEOR), permettent de révéler les structures intersubjectives de
l’objet à transformer, pour en réaliser la métamorphose (Ibid., : 386). Le Centre
de Gestion Scientifique (CGS) de l’Ecole des Mines de Paris réalise des travaux
convergents, mais leurs travaux concernent plus particulièrement les outils de
gestion (J.C Moisdon, 1984, 1997). Le Centre de Recherche en Gestion (CRG) de
l’Ecole Polytechnique a également largement contribué au développement des
méthodes de la recherche-intervention (J.Girin, 1989 ; A.Hatchuel, 1986, 1994 ;
A.David & ali., 2000). Ces méthodes permettent d’intervenir au sein des
organisations avec une volonté délibérée de transformer l’objet observé pour
mieux le connaître : la recherche-intervention est définie comme une méthode
interactive à visée transformative (H.Savall, 1977, 1979 ; H.Savall et V.Zardet,
1984). Si nous insistons plus particulièrement sur la méthodologie de rechercheintervention de l’ISEOR, c’est parce que cette méthodologie permet d’installer
des méthodes de conduite du changement à visée transformative, dans le
fonctionnement courant de l’organisation. Elles permettent de piloter un
processus permanent d’activation des opérations transformatives.
En direct des laboratoires
275
PARTIE 3 : LIGNES DIRECTRICES FONDAMENTALES D’UNE POLITIQUE
DE MANAGEMENT DES TECHNOLOGIES ORGANISATIONNELLES
Nous avons montré dans la seconde partie que le management des
technologies organisationnelles devait être adossé à la mise en œuvre de
méthodes de conduite du changement réalisant une approche transformative du
fonctionnement de l’organisation. Nous avons privilégié la présentation des
méthodes de la recherche-intervention. Une revue de littérature plus importante
nous aurait conduit à explorer les méthodes s’inscrivant plus particulièrement
dans le courant de la « capacité à se transformer » (C.Demers, 1999 ; Rondeau
& ali., 2002), ou dans des courants plus anciens, notamment les courants
systémique et socio-technique qui ont inspiré les principales méthodologies de la
conduite du changement. Nous ne l’avons pas fait, car ces courants définissent
la transformation comme une forme particulière du changement. Pour notre
part, nous soutenons qu’il ne faut plus saisir la transformation à partir de la
notion de changement, mais qu’il faut au contraire saisir le changement à partir
de la notion de transformation. Nous définissons le changement comme une
prise de forme qui surgit à notre conscience, tandis que la transformation est le
processus qui le fait advenir. Compte tenu de cette approche, nous allons
montré ce que doivent être les lignes directrices d’une politique de management
des technologies organisationnelles.
Le traitement des incompatibilités nécessite que le changement s’inscrive
dans un processus de transformations projectives (W.R Bion, 1982 : 35), encore
appelées « transformations kleiniennes », c’est-à-dire un processus de
transformations qui fait advenir les conceptualisations. S.Freud, pour sa part,
avait plutôt étudié les processus de transformations rigides (phénomènes du
transfert notamment). Pour analyser un processus de transformations, il faut
évidemment comprendre ce qui dans le cours de ce processus reste inaltéré,
c’est-à-dire se recompose, en observant plus particulièrement les
dysfonctionnements (symptômes), mais le projet est de traiter les
incompatibilités, et de ne pas de se satisfaire que l’organisation vive le mieux
possible avec ses pathologies dysfonctionnelles. Dans ces conditions, on ne ferait
pas mieux que le management classique. C’est une option méthodologique
(H.Savall et V.Zardet, 1995a : 183). La tâche de l’intervenant-chercheur est de
remonter les transformations pour en saisir les invariants, en pilotant un
processus d’interactivité cognitive et d’intersubjectivité contradictoire, que vous
avons présenté en partie 2, ce que H.Savall et V.Zardet appellent la recherche
des causes profondes. Celui-ci travaille à partir de l’énoncé inductif, mais ce n’est
pas ce matériau qui l’intéresse. Il s’agit, en mettant en œuvre les méthodes de la
recherche-intervention, de faire bouger les invariants identifiés se rapportant à
l’objet de recherche, afin d’observer les transformations. Evidemment, dans le
276
Management des Technologies Organisationnelles : Journées d’Etude 2009
protocole scientifique de l’ISEOR, qui s’inscrit dans le cadre du constructivisme
générique, ce sont l’ensemble des transformations qui sont observées, y compris
celles qui ne se rapportent pas directement à l’objet de recherche, mais
l’impactent. Dans le management d’une organisation, lorsque l’objectif est
d’améliorer la qualité et l’efficacité du fonctionnement et de son management,
on ne saurait en effet concevoir l’isolement d’un processus qui est toujours
interdépendant et hétéronome. Il s’agit d’agir prioritairement sur les causes
profondes expliquant la recomposition de l’invariant dysfonctionnel. C’est à partir
de cette observation que les acteurs construisent leurs projets de
transformations. Bien que les protocoles scientifiques du CGS et du CRG
s’inscrivent dans le cadre de l’opportunisme méthodologique (J.Girin, 1989), on
observe généralement des résultats de recherche convergents.
Les transformations projectives, à la différence des transformations rigides,
chargées l’une comme l’autre de l’expérience émotive, transmettent des
significations contenant les représentations du futur. La mise en œuvre des
technologies organisationnelles se situe dans cet espace-temps. La solution
technologique représente ici l’objet extérieur vers lequel la projection va
s’opérer, et qui va acquérir les éléments caractéristiques projetés de Soi, qui
impactent la perception au travers du mécanisme des affordances (partie 1).
M.Klein a montré que ce phénomène de projection fonctionnait pour toutes les
personnes, y compris les personnes « normales ».
Ce qu’il faut observer de manière subséquente, c’est que la mise en œuvre
d’une nouvelle solution technologique, avec des méthodes inadéquates de
conduite du changement, peut contribuer à créer des conditions de changements
catastrophiques, au sens défini par W.R Bion, c’est-à-dire des conditions
remettant en cause une stabilité structurale, auxquelles les acteurs vont réagir
(crise, résistance au changement …). Les travaux de W.R Bion ont montré
notamment comment les mécanismes primitifs à l’œuvre dans les dynamiques de
groupes contribuaient à générer un climat d’hostilité au changement. Ce
phénomène général a été analysé également par K.Lewin (phase de
déstabilisation). Le changement ne peut toutefois s’opérer que si l’intégration de
la solution dans l’organisation fonctionne harmonieusement, ce qui n’est quand
même pas très souvent le cas. Or, les méthodes classiques de la conduite du
changement s’inscrivent généralement dans le postulat que leur mise en œuvre
permettra de conduire harmonieusement le changement, ce qui n’est jamais le
cas non plus. Nous l’avons montré dans les parties 1 et 2 en analysant les
processus avec le concept de rapport de phase. Toutes les méthodes qui
indiquent intervenir dans le domaine de la transformation des structures
mentales de l’organisation, ne sont pas judicieuses si le contexte ne s’y prête
pas. Ce n’est pas la valeur de la méthode qui pose problème. Ce qui est
En direct des laboratoires
277
fondamental, c’est que le processus transductif de la méthode doit être incorporé
dans le fonctionnement de l’organisation pour que le changement réussisse, ce
qui est rarement le cas, et ne peut pas l’être lorsque l’organisation aborde le
traitement du changement à partir de la formation comme cela est souvent le
cas. L’organisation doit acquérir une compétence dans le domaine de la gestion
des politiques et des stratégies de transformations. Cette expérience ne peut
être acquise qu’en adossant le management courant de l’organisation à des
méthodes de conduite du changement réalisant une approche transformative
dans son fonctionnement courant. Cette perspective est celle du management
socio-économique. Dans cette perspective, le processus de la transformation est
engagé dès le démarrage de l’intervention, au cours du processus même du
diagnostic, ce qui permet de l’implanter dans le fonctionnement courant, en
amont de la définition et de la mise en œuvre des projets. Pour être
durablement efficace cependant, l’organisation doit réaliser le perfectionnement
permanent de ce processus. Il ne s’agit pas de faire du management de la
conduite du changement un but de mission, un objectif en soi, mais, de
développer les compétences permettant de résoudre les problèmes.
Nous observons une convergence de pensée entre H.Savall & V.Zardet, et
W.R Bion, sur le point précis que la méthode de conduite du changement permet
d’observer simultanément et en conjonction constante, les deux phases de ce qui
n’évolue pas et de ce qui évolue. C’est dans cette observation que se campe le
processus du pilotage de la transformation. Il est aussi le processus de
l’innovation managériale.
Car, c’est notre thèse, le management intégré des technologies
organisationnelles doit s’inscrire dans un processus de management innovant. Il
n’y a pas d’intérêt à promouvoir cette notion en laissant à penser que les
méthodes classiques du management sont adaptées. La réflexion est d’actualité,
puisque dans « La fin du management : Inventer les règles de demain »
(G.Hamel et ali., 2008), les auteurs invitent à identifier et contester de l’intérieur
même les pratiques du management classique pour trouver au cas par cas les
bonnes réponses.
La ligne directrice fondamentale d’un management innovant est précisément
celle qui prend le contre-pied des pratiques actuelles, qui l’inscrit dans un
processus de découverte et d’invention. Là encore, la globalisation des
technologies organisationnelles doit être analysée dans son rapport de phase,
l’une construisant la standardisation des méthodes du management, une sorte
d’organisation scientifique des activités de services par exemple qui nous
rappelle une autre époque, l’autre la différenciation. Le concept de rapport de
phase permet de montrer que la réponse n’est pas de choisir une option de
standardisation ou de différenciation, ce que les stratégies de management
278
Management des Technologies Organisationnelles : Journées d’Etude 2009
classique continuent de perpétuer. Le choix devient dans ce cas un invariant
dysfonctionnel. W.R Bion (1982 : 81) a écrit que les éléments d’une relation sont
constamment conjoints, et que c’est cette conjonction, qu’il dénomme
conjonction constante, qu’il enregistre et lie dans ses observations au moyen du
terme de transformation. Dans la théorie de la complexité (E.Morin, 1977, 1980,
1986), le concept équivalent serait celui de l’unidualité. L’émergence de la notion
de management des technologies organisationnelles exige donc une
transformation des mécanismes de la pensée et des idées. La conjonction
constante n’est jamais celle des phénomènes, dont il est possible de démontrer
par ailleurs la synchronicité, mais celle des invariants identifiés lorsque deux
phases dans un processus de transformations sont envisagées à nouveau dans
leur totalité.
CONCLUSION : LE MANAGEMENT DES TECHNOLOGIES
ORGANISATIONNELLES COMME VECTEUR DE L’INNOVATION
MANAGERIALE ET ORGANISATIONNELLE [1]
Cette communication aura montré incidemment que l’innovation managériale
et organisationnelle ne viendra pas des structures et des comportements
anciens. Nous avons montré en partie 3 que l’innovation suppose d’intégrer le
pilotage des processus de la transformation dans le fonctionnement courant des
organisations. Le management des technologies organisationnelles impose
d’entreprendre ce préalable, car l’innovation ne peut émerger que du
déploiement du potentiel contenu dans les structures et des capacités
organisationnelles. L’enjeu du management des technologies organisationnelles
est par conséquent double : Il est d’abord l’amélioration de la qualité et de
l’efficacité du fonctionnement des dispositifs techno-organisationnels. Il est aussi
celui du développement de la capacité à innover.
Cette communication pose une question plus large, qui est de savoir selon
quelles essences les choses sont connues. Les problèmes de résistances et de
conflits ne peuvent être traités sur la base de la seule observation des
phénomènes. Cette communication fait converger deux essences, technologique
et socio-économique, proposant une perspective d’intégration de la technologie
et de l’organisation. L’unité de ces deux essences fait émerger le concept du
management des technologies organisationnelles. C’est en effet la condensation
des fonctions proposées par la solution technologique qui détermine la
compatibilité caractérisée par le degré et la qualité de son intégration dans le
fonctionnement d’une organisation, et non pas la seule diversité des fonctions
qui peut fonctionner selon un ordre linéaire des processus. La spécialisation des
processus s’efface donc lorsque la technologie réalise leur condensation. Cette
En direct des laboratoires
279
condensation des processus contribue à réaliser la comptabilité de la technologie
et de l’organisation.
NOTE
[1]
Nous apportons préalablement quelques précisions d’ordre méthodologique. A la
manière de W.R Bion (1982 : 197), notre démarche de recherche se focalise tout à
la fois sur l’objet observé et sur les acteurs observants, dans les différentes
perspectives que cet auteur a appelé déplacement de foyer ou encore vertex. Le
terme de vertex, qui est la traduction anglaise de nœud, est utilisé en géométrie
projective pour désigner le point dans un espace en constante transformation
duquel s’accomplit la transformation. C’est une notion qui est en principe connue
des informaticiens. Les techniques d’observation développées par cet auteur ont cet
intérêt qu’elles permettent d’observer tout à la fois l’avers et le revers des situations
analysées, qui consiste à déplacer l’observation dans les différentes perspectives.
Nous appliquons cette technique d’observation en utilisant le concept de rapport de
phase. Il s’agit dans le même temps d’analyser sa position d’observateur et les
résultats de l’observation. En pratique, il consiste à multiplier les postes
d’observations, ce qui explique le choix que nous faisons des méthodes de la
recherche-intervention, car elles permettent, dans le domaine des Sciences de
Gestion, d’observer l’objet in vivo (H.Savall et V.Zardet, 2004 : 76). Il faut
comprendre que la transformation d’une structure mentale s’opère lorsque les
acteurs parviennent à interroger leur point de vue sur une situation, et que cette
interrogation va entrainer un déplacement des coordonnées mentales de
l’observation permettant d’intégrer d’autres points de vue. L’intervenant-chercheur
suit ce processus au cours de l’intervention en notant scrupuleusement les énoncés
caractérisant ce changement de point de vue. On peut considérer que la
transformation s’est opérée, bien qu’elle contienne toujours les germes de sa propre
réversion, quand les énoncés sont orthofonctionnels. On voit que la notion de vertex
évite de considérer la subjectivité du point de vue, puisque la recherche porte sur
les invariants en analysant la modalité optative. Tant que les énoncés ne sont pas
convergents, cela signifie que le rapport à la solution technologique fonctionne en
régulations d’incompatibilités, et que l’analyse des dysfonctionnements doit être
approfondie, ou que la modalité optative retenue n’est pas parfaitement positionnée
dans le registre de l’intersubjectivité, ce que l’on peut immédiatement vérifier en
réactivant les processus cognitifs et contradictoires des acteurs.
REFERENCES BIBLIOGRAPHIQUES
BERQUE A. (2000), Ecoumène : Introduction à l’étude des milieux humains, Médaille d’argent du
CNRS 2001, 271 p.
BELBALY N., MEISSONNIER R., HOUZE E., (2007), Résistance aux projets d’implantation de
technologies de l’information : Le cas d’une PME du secteur des hautes
technologies, Revue Gestion (Gestion Internationale), Vol.32, n°1, pp. 20-26.
BION W.R., (1982), Transformations : Passage de l’apprentissage à la croissance, PUF, 207 p. –
Traduction par F.Robert ; Bion W.R., Transformations : Change from Learning to
Growth Londres, Heinemann.
DAVID A., HATCHUEl A., LAUFER R., (2000), Les nouvelles fondations en Sciences de Gestion,
Vuibert-FNEGE, 215 p., pp. 193-212.
280
Management des Technologies Organisationnelles : Journées d’Etude 2009
DEMERS C. (1999), « De la gestion du changement à la capacité de changer : L’évolution de la
recherche sur le changement organisationnel de 1945 à aujourd’hui », Gestion –
Revue Internationale de Gestion, Vol.24, n° 3, pp.131-139.
GIBSON J.J., (1977), The Theory of Affordances : Acting and Knowledge: Toward an Ecological
Psychology, in Robert Shaw and John Bradsford (Ed.), Perceiving, acting and
Knowing, Hillsdale, N.J.: Lawrence Erlbaum Associates, pp. 67-82.
GIBSON, J. J. (1979), The ecological approach to visual perception. Boston : Houghton Mifflin,
339p.
GIRIN J., (1989), L’opportunisme méthodologique,
http://crg.polytechnique.fr/incunables/Opportunisme.html
HAMEL G, BREEN B., Y F., PAVILLET M.F., (2008), La fin du management : Inventer les règles
de demain, Editions Vuibert, 249 p.
KAHN J.F (1994), Tout change parce que rien ne change : Introduction à une théorie de
l’évolution sociale, Fayard, 767 p.
MOISDON J.C (1997), Du mode d’existence des outils de gestion, Editions Séli-Arsan, 288 p.
MORIN E., (1977), La méthode : 1.La nature de la nature, Editions du Seuil, 410 p.
MORIN E., (1980), La méthode : 2. La vie de la vie,, Editions du Seuil, 482 p.
MORIN E., (1986), La méthode : 3. La connaissance de la connaissance, Ed. du Seuil, 249 p.
MORINEAU T., (2001), « Eléments pour une modélisation du concept d’affordance », Actes du
Colloque EPIQUE, Nantes, pp. 83-95.
PIAGET J., (2004) Le structuralisme, PUF, Collection Que-Sais-Je ?, 12° édition, 128 p.
RONDEAU A. (2002), « Transformer l’organisation : Vers un modèle de mise en œuvre », In
R.JACOB, A.RONDEAU, D.LUC, « Transformer l’organisation : La gestion stratégique
du changement », Gestion-Revue Internationale de Gestion, Collection Racines du
savoir, 435 p., pp.91-112.
SAVALL H., (1978), « Compatibilité de l’efficience économique et du développement du
potentiel humain », VII° Colloque International au Collège de France, organisé par
François Perroux et Jean Piaget, 1977, Revue d’Economie Appliquée, Archives de
l’ISMEA, Tome XXXI°, n° 3-4, « Equilibre et Régulation, Droz, Genève, pp.561-593.
SAVALL H., (1989), Enrichir le Travail Humain : L’évaluation économique, Préface de J.Delors et
du Pr.A.Bienaymé, Economica, 3° édition, 275 p.
SAVALL H. et ZARDET V., (1995a), Maîtriser les Coûts et les Performances Cachés : Le Contrat
d’Activité Périodiquement Négociable, Prix de Management Stratégique HarvardL’Expansion, Préface de M.A Lanselle, Avant-Propos de J.M Doublet, 3° édition,
Economica, 405 p.
SAVALL H. et ZARDET V., (1995b), Ingénierie Stratégique du Roseau, Préface de Serge
Pasquier, Economica, 517 pages.
SAVALL H. et ZARDET V. (1995c), « La dimension cognitive de la recherche-intervention : La
production de connaissances par interactivité cognitive », Revue Internationale de
Systémique, Vol.10, n°1-2, pp. 157-189.
SAVALL H. et ZARDET V. (2003), « Socio-Economic Approach to Management », Journal of
Organizational Change Management, Guest Editor : H.Savall, Vol.16, N°1, 128 p.
SAVALL H. et ZARDET V. (2004), Recherche en Sciences de Gestion : Approche Qualimétrique,
Observer l’objet complexe, Préface du Pr. David Boje, Economica, 432 p.
SAVALL H. et ZARDET V. (2005), Tétranormalisation : défis et dynamiques, Economica, 195 p.
En direct des laboratoires
281
SAVALL H. et ZARDET V. (2008), Mastering Hiden Costs and Socio-Economic Performance,
Editions IAP, Research in Management Consulting, Series Editor : A.F Buono, 346 p.
SIMONDON G. (2005), L’individuation à la lumière des notions de forme et d’information,
Editions Million, 571 p.
SIMONDON G. (1989), Du mode d’existence des objets techniques, Editions Aubier, 337 p.
VARELA F., FRANCISCO J., THOMSON E., ROSCH E., (1993), L'inscription corporelle de l'esprit,
Paris, Editions du Seuil, 377 p.
282
Management des Technologies Organisationnelles : Journées d’Etude 2009
En direct des laboratoires
283
Transformation des compétences et
création de potentiel humain pour le
management des technologies
organisationnelles
Daniel BONNET
Chercheur-associé à l’ISEOR [1]
Université Jean-Moulin / Lyon
RESUME
Cette communication explore la relation entre les deux items de la
transformation des compétences et la création de potentiel humain. La
compétence est ce qui transforme la politique, la stratégie et le fonctionnement
des organisations.
Dans un contexte de globalisation des technologies organisationnelles, la
compétence doit intégrer celle de la technologie dans les processus mêmes du
fonctionnement de l’organisation, tout comme elle fut antérieurement intégrée
dans les processus de la production.
Cette communication montre qu’il est important de considérer l’essence
socio-économique de la compétence. Elle montre également que le
développement de stratégies d’innovations managériales requiert un
changement de paradigme. L’organisation doit développer sa capacité à se
transformer, et ses compétences dans ce domaine.
INTRODUCTION
La globalisation des technologies organisationnelles modifie le contexte
d’acquisition des compétences au cours de l’action. Elle entraine notamment le
développement des processus réflexifs (D.Schön, 1994, 1996) dans l’acquisition
des compétences.
284
Management des Technologies Organisationnelles : Journées d’Etude 2009
La transformation des modalités d’acquisition de la compétence relance le
débat entre une conception internaliste de la connaissance, et une conception
externaliste. G.Simondon (1989 : 234) avait son idée sur la question : « la
connaissance n’est ni formée ni construite par le sujet ; il n’y a pas de genèse de
la connaissance, mais seulement découverte du réel par l’esprit ». Sa recherche
à cet égard posait le problème du statut de l’objet technique (et de son essence)
dans le processus réflexif. Elle interrogeait en particulier le statut de la
connaissance opératoire (Ibid., 1989 : 234), et les modes d’acquisition.
Le dictionnaire Le Robert fournit la définition de la notion de découverte :
Action de révéler un objet, un phénomène caché ou ignoré, ou encore action de
trouver, de découvrir ce qui était inconnu, ignoré ou caché.
G.Simondon n’a pas expressément réfuté les conceptions positivistes et
constructivistes de la connaissance. Il en a cependant révélé l’ontologie
génétique (J.H Barthélémy, 2006), souligné l’importance du désir (B.Stiegler,
2006 : 327), et introduit la notion de potentiel pour penser le changement
(J.Jenny, 1997 : 38). La connaissance est conçue dans l’unidualité de l’acte
cognitif et de l’objet d’une part, dans la relation au milieu associé d’autre part.
Cette communication explore la relation entre les deux items de la
transformation des compétences et la création de potentiel humain. La relation
problématique entre ces deux items est notre question de recherche. Concernant
plus particulièrement le rapport aux technologies organisationnelles, l’unidualité
de l’acte cognitif et de l’objet interroge l’hypothèse que les systèmes
d’informations dans un contexte de globalisation des technologies
organisationnelles ne traitent pas seulement de l’information. La technologie
devient une composante intégrale des processus de transformations. En
conclusion, nous établirons le rapport entre l’innovation managériale et la
création de potentiel humain. Nous annexerons un modèle de grille d’évaluation
de la compétence réalisée au sein d’une coopérative viti-vinicole, illustrant un cas
d’hypertélie, en l’espèce un déséquilibre profond entre le développement des
compétences nécessaires à la gestion des activités courantes et la création de
potentiel humain.
LA TRANSFORMATION DES COMPETENCES
Pour G.Simondon (Ibid., 1989 : 235), l’élaboration des concepts relève de la
connaissance opératoire. Cette élaboration est indissociable des opérations
techniques. Ces opérations sont réalisées par la pensée inductive, mais elles sont
généralement tenues en échec, par delà les possibilités et les limites de l’objet
technique, car le monde ne se laisse pas incorporer aux techniques (Ibid., 205).
En direct des laboratoires
285
Le fonctionnement de l’objet technique doit être rendu compatible dans le
fonctionnement des organisations. Or, la conception de l’objet technique émerge
toujours d’un processus de transformations, que nous définissons comme un
rapport de phase, comprenant un perfectionnement technologique de nature
générique d’une part, et un perfectionnement des systèmes d’organisations et de
leur fonctionnement d’autre part. Ce rapport de phase est par nature
dysfonctionnelle. L’objet technique peut exister en soi. Il ne se concrétise
cependant que dans l’intégration au fonctionnement de l’organisation, qui n’est
jamais lui-même bien réglé. Par conséquent, le déplacement de la recherche au
point focal de la conjonction du rapport de phase devient un enjeu scientifique
dans un contexte de globalisation technologique. C’est à cette conjonction que
se révèle le potentiel humain incorporé respectivement dans l’objet technique et
dans l’objet organisationnel. L’étude des dysfonctionnements à ce point de
conjonction révèle ou souligne les freins au déploiement de la compétence. La
maîtrise de la technologie organisationnelle joue comme un facteur clé de
succès, qui ne concerne plus seulement la production, mais l’organisation dans
son ensemble. Elle est une compétence qui doit se déployer à tous les niveaux
de l’organisation, selon deux perspectives, individuelles et collectives.
La notion de compétences s’est imposée dans l’économie de l’entreprise. La
conceptualisation de cette notion trouve son origine dans les travaux de
P.Zarifian (1999). Traditionnellement, sa définition, concernant les personnes,
intègre différents éléments se rapportant au savoir, au savoir être et au savoir
faire.
Concernant l’entreprise, la notion de compétences renvoie à différents
concepts selon le cadre théorique mobilisé, comme celui du métier en stratégie
par exemple. Pour être performante et compétitive, l’entreprise doit transformer
des compétences individuelles en compétences collectives. La capacité de
l’entreprise à transformer ces compétences est elle-même une compétence.
Cette double perspective souligne l’essence socio-économique de cette
notion, et le cadre théorique de cette communication. Mais, elle souligne
également la modalité holonomique (E.Morin, 1986 : 104) de la compétence, et
son ontologie génétique (J.Piaget, 1968/2004 ; G.Simondon, 1989). De ce point
de vue, les compétences technologiques et organisationnelles sont
indissociables.
Leur transformation s’opère en effet dans l’interaction des structures et des
comportements (H.Savall et V.Zardet, 1995a : 180). Ces auteurs caractérisent
l’organisation en distinguant des composantes stables, les structures, et des
composantes conjoncturelles, les comportements. Concernant les structures,
nous retenons la définition proposée par J.Piaget (Ibid., 1968 : 6), à savoir que
la structure est un système de transformations, ce qui permet de généraliser à
286
Management des Technologies Organisationnelles : Journées d’Etude 2009
tous les contextes organisationnels, y compris virtuels. Les comportements euxmêmes sont donc régis par des structures.
H.Saval et V.Zardet (1995a : 180) classent la partie stable des
comportements humains dans les structures. On peut distinguer dans les savoirs
eux-mêmes une partie stable et une partie conjoncturelle, les savoirs étant
définis comme des connaissances organisées. Cette approche permet d’intégrer
la dimension cognitive des systèmes de transformations, pour faire émerger la
notion de « création de potentiel humain ». La recherche est réalisée dans le
cadre épistémologique du constructivisme générique (H.Savall et V.Zardet,
1995b : 324)
En pratique pour les entreprises, l’exploration de cette relation permet de
mieux comprendre ce qui distingue les entreprises les unes des autres. Le
développement des technologies organisationnelles, plus encore leur
globalisation, introduisent des changements majeurs dans le fonctionnement et
dans la stratégie des entreprises. Cette exploration montre que le management
des compétences doit être repensé à partir de la notion de capacité à se
transformer. Il est une composante du management de la conduite du
changement, mais il doit être repensé en mettant en œuvre des méthodes
transformatives, car la compatibilité de la solution technologique et du
fonctionnement de l’organisation suppose de concevoir la transformation de l’un
dans l’autre. Cet examen nous conduit à souligner l’importance du choix d’un
référentiel théorique, méthodologique et opératoire adapté.
La transformation est une notion récente en Sciences de Gestion qui consiste
à considérer que le fonctionnement d’une organisation trouve sa source dans les
processus qui le génère. Ces processus sont des processus de transformations.
Ce que l’on perçoit est un état de ces processus. Par conséquent, il ne faut plus
saisir la transformation à partir de la notion de changement, mais au contraire
saisir le changement à partir de la notion de transformation, lorsqu’il s’agit
d’expliquer la performance et la compétitivité par les compétences.
La transformation des compétences est toujours celle d’une combinaison de
compétences et de comportements. Les savoirs, les savoirs faires et les savoirs
êtres ne sont pas des compétences in extenso, mais des composantes de la
compétence. Les notions de savoir, de savoir faire et de savoir être renvoient
successivement à celles de connaissance, d’habileté et d’adaptabilité. La
compétence est une notion générique qui se définit dans le rapport de phase
entre les différentes composantes. Ces composantes peuvent être définies par
nature (compétences techniques, méthodologiques …), ou par essence
(compétences individuelles, collectives …).
La compétence et les compétences sont indissociables de l’action, et c’est
leur actualisation dans l’action qui leur confère le statut de compétence(s). De
En direct des laboratoires
287
même, les différentes natures de compétences et les différentes essences ne
déterminent pas la compétence. C’est le couplage intégré des différentes
composantes et de leur essence dans l’action et dans un contexte donné qui
détermine la compétence. Celle-ci n’existe que par son usage, et cet usage qui la
fait advenir confère de l’expérience.
Le développement des compétences est un véritable enjeu pour les
entreprises. Ce développement s’inscrit néanmoins dans un processus discontinu
de perfectionnements, dont il faut distinguer les perfectionnements mineurs et
les perfectionnements majeurs. L’amélioration d’une connaissance, d’une
habileté ou d’une adaptabilité, ne constituent que des perfectionnements
mineurs. Cette prémisse définit un mode de transformation, et ne signifie pas
qu’ils sont moins importants. Le perfectionnement continu du mode mineur de
développement des compétences, et leur synchronisation dans le
fonctionnement et le management courants de l’organisation, sont le socle de la
performance et de la compétitivité courantes. Ils permettant également de mieux
intégrer les perfectionnements majeurs.
La compréhension de la notion de perfectionnement majeur nécessite de
considérer un autre ordre de réalité. Les compétences ne sont pas seulement un
donné, c’est-à-dire un état de connaissances, d’habiletés et d’adaptabilités que
l’on perfectionne, mais elles existent également à l’état de potentiel qu’il faut
découvrir et extraire dans les infrastructures du fonctionnement et du
management d’une organisation. Les compétences existent préalablement à
l’état virtuel c’est-à-dire à l’état de possibilité, de capacité ou de disposition, qu’il
faut enrichir, puis dévoiler dans l’action.
Le perfectionnement majeur trouve son origine dans le développement du
processus de création de potentiel humain. La mise en œuvre de ce mode de
perfectionnement suppose que l’entreprise développe une stratégie d’évaluation
de la capacité à se transformer, ce qui est assez peu courant encore. H.Savall et
V.Zardet (1995b : 496) définissent la création de potentiel de la manière
suivante : « concerne toutes les actions qui auront des effets positifs différés sur
les résultats immédiats. Elle se compose d’investissements matériels et
d’investissements immatériels ».
Une entreprise doit donc apprendre à gérer deux modes de perfectionnement
des compétences pour développer sa capacité à se transformer. Le
développement du perfectionnement en mode majeur est la source de
l’innovation, y compris de l’innovation managériale. Les auteurs (Ibid., 1995b :
56) insistent d’ailleurs sur l’investissement conjoint immatériel, incorporel et
intellectuel.
288
Management des Technologies Organisationnelles : Journées d’Etude 2009
Or, on observe généralement une hypertélie du développement des
compétences dans certains domaines, le plus souvent technique, technologique,
commercial, financier, etc., tandis que l’innovation dans les domaines du
fonctionnement et du management de l’organisation restent des parents pauvres
(Cf. Annexe 01). Un déficit d’innovations managériales ne signifient pas que le
fonctionnement de l’organisation n’en recèle pas. Mais, les travaux de recherche
dans ce domaine (A.David, 1996 : 12) ont montré qu’un déficit d’innovation
managériale était un frein à l’intégration de toutes les formes d’innovations. Ce
déficit peut d’ailleurs être recherché en analysant le niveau d’investissement de
toutes les entreprises dans un secteur d’activité donné, ce que A.David appelle «
le degré de contextualisation externe ». La transformation de ce déficit pourra
être envisagée en introduisant un nouveau mode de management socioéconomique de la conduite du changement au sein de l’organisation.
LA CREATION DE POTENTIEL HUMAIN
Une entreprise performante est une entreprise qui met en œuvre une
stratégie de développement de ses potentiels internes et externes, couplée à une
très bonne gestion. Cette mise en œuvre est du ressort de la direction générale.
Deux problématiques sont à traiter sur ce plan : L’une est l’inscription de cette
politique dans un référentiel opératoire adapté ; l’autre est celle de l’évaluation
du bénéfice économique pour l’entreprise. Il faut également gérer en conjonction
constante les processus de la transformation afférant au fonctionnement courant
et les processus afférant à la création de potentiel humain.
Le développement du potentiel humain pose un problème rarement étudié,
qui est celui de la méta-compétence de l’organisation. Nous l’avons abordé
précédemment en définissant la capacité de l’entreprise à transformer ses
compétences comme une compétence à part entière. C’est ici l’étymologie
grecque qui nous intéresse, celle qui renvoie aux notions de changement et de
métamorphose, puisque nous concevons la transformation dans la relation au
milieu associé. Il n’est pas indifférent pour une entreprise d’analyser sa relation
au milieu associé à cet égard. Dans un pôle de compétences par exemple, les
conditions de développement du potentiel humain seront plus favorables. Il est
donc important de considérer cette notion dans l’échelle des structures. En milieu
fermé, l’involution des compétences conduit à des situations d’impasse
stratégique ou concurrentielle (Annexe 01 [2]).
Il ne suffit pas d’élaborer une vision ou même un projet d’entreprises, ni
même de se satisfaire, dans le domaine de la gestion stratégique des ressources
humaines, de mettre en œuvre la gestion prévisionnelle des emplois et des
compétences (GPEC). Les entreprises ont souvent recours à cette méthode
En direct des laboratoires
289
lorsqu’elle envisage une restructuration. Si la GPEC est une condition de base qui
va permettre d’établir un diagnostic et de définir une politique cohérente avec la
stratégie future, elle n’est aussi qu’une technique. Mais, cette technique va
contribuer à la transformation des parties stables de l’organisation. C’est donc en
tant que cette technique contribue à la transformation des régularités du
fonctionnement et des invariants que nous observons son impact. De quel point
de vue cependant ?
La GPEC doit s’intégrer dans une politique générale de création de valeur
ajoutée par le développement des compétences. Cela ne signifie pas
évidemment que la direction générale considérera exclusivement cet axe. Mais, à
ce titre, elle intègre l’investissement en technologies organisationnelles. C’est
dans le cadre de cette politique générale que l’entreprise va envisager
l’élaboration de sa stratégie de perfectionnements, synchronisant les deux
modes mineur et majeur sur un moyen terme au moins. Cette politique renvoie à
des concepts connus, comme par exemple le core competency [3] (G.Hamel et
C.K Prahalad, 1990) qui désigne la capacité d’une entreprise à assembler les
compétences dans un ensemble cohérent. Cet assemblage se situe dans le
contexte phénoménologique de l’organisation, mais il impacte la transformation
dans les infrastructures du fonctionnement de l’organisation, lesquelles recèlent
l’essence des phénomènes précisément. La transformation est donc bien un
processus endogène, hétéronome des choix de la politique générale. Nous
observons que dans la généralité des cas, la technique ou la technologie, par
delà les espoirs qu’elles fondent, ne peut pas contribuer à la formation de la
valeur ajoutée en dehors de son objet. La GPEC a par ailleurs ses propres limites
car elle ne s’inscrit que dans une théorie de la forme. Nombreuses sont les
entreprises qui ne font que du raccommodage stratégique. Dans le cas de
l’annexe 01, la coopérative produisait des vins régulièrement distingués par des
médailles d’or et d’argent dans les grands salons, ce qui laissait à penser que la
stratégie était bonne, mais ne réalisait pas de résultats économiques meilleurs
que ses consœurs au sein de l’union des coopératives.
L’approche socio-économique montre donc que le développement des
compétences, et plus particulièrement la création de potentiel humain est
inconcevable à partir d’approches technicistes ou économistes.
Les techniques et les concepts ne font pas la stratégie de l’entreprise, mais le
couplage de la pratique à un référentiel théorique facilite l’élaboration de la
politique et de la stratégie. Selon un changement de paradigme cependant. Dans
une société marchande, on perd trop souvent de vue que les fonds de commerce
normalisent les choix de la politique et de la stratégie, sans se poser plus de
questions. Or, les travaux de l’ISEOR, ont montré que l’intégration d’un
ensemble normatif est source de performances cachées (H.Savall et V.Zardet,
290
Management des Technologies Organisationnelles : Journées d’Etude 2009
2005 : 25), qui peuvent être transformées en valeur ajoutée si pour le moins
elles sont analysées et intégrées dans les projets de conduite du changement.
Les méthodes du management de la qualité totale n’intègrent pas cette
perspective. Ce qui est vendu aux entreprises consiste pour l’essentiel en de la
technique. Dans le cas annexe 01, les collaborateurs étaient très professionnels.
Eux-mêmes et la direction nourrissaient de gros espoirs dans la mise en œuvre
de la traçabilité et d’une normalisation de la politique de qualité. Cette mise en
œuvre révélait les problèmes qui n’avaient pas été observés jusque-là. Les coûtsperformances cachés ont été évalués à 32 K€ par personne et par an dans cette
coopérative. Le même scénario s’était produit quelques années auparavant avec
la mise en place d’une informatique de deuxième génération. Les coûtsperformances cachés imputables aux dysfonctionnements dans le traitement
informatisés des données représentaient à eux seuls 155 K€, soit 11 K€ par
personne et par an.
La référence à la technique et aux concepts n’est pas suffisante, ni même la
référence à des cadres théoriques essentiellement analytiques. La conception et
la mise en œuvre d’une stratégie de création de potentiel nécessite d’inscrire la
politique et la stratégie dans un référentiel théorique et méthodologique
opératoire.
L’importance de la médiation technique a contribué à l’émergence du courant
socio-technique dans les années cinquante. Les travaux de H.Savall et V.Zardet
ont ouvert le courant de l’innovation managériale dans les années soixante dix.
Les méthodes d’intervention et de management proposées par ce courant plus
particulièrement permettent d’installer le management global, tout à la fois sur le
plan stratégique et opératoire, dans le fonctionnement courant de l’organisation,
et à tous les niveaux de la hiérarchie, incluant le management des compétences.
La seconde problématique est celle de l’évaluation du bénéfice pour
l’entreprise d’un investissement immatériel. Dès 1975, H.Savall (1989) avait
souligné la nécessité de rénover les méthodes de calcul économique à cet égard.
Ce travail de recherche, plus largement connu sous l’appellation de théorie des
coûts-performances cachés, est à l’origine de la création de l’ISEOR et de la
théorie socio-économique des organisations. La méthode proposée permet
d’établir la balance économique de la rentabilité d’un projet d’investissement
immatériel. Il a été démontré, après trente trois ans de recherche, au premier
congrès transatlantique de L’Institut International des Coûts (IIC) et de
l’American Accounting Association (AAC), que le retour sur investissement était
spectaculaire : de 200 % à 4000 % : à savoir qu‘un euro investi dans la création
de potentiel humain produit un retour sur investissement, sous forme de création
de valeur ajoutée, compris entre 2 et 40 euros. Toutes les entreprises, y compris
En direct des laboratoires
291
celles qui ont une très bonne gestion, peuvent donc toujours progresser en
investissant dans la création de potentiel humain.
L’hypertélie dans le management des compétences est une cause explicative
des dysfonctionnements dans les termes de la performance et de la
compétitivité. La compétence est une totalité, et dans cette totalité, tout facteur
limitant inhibe la libération du potentiel des autres facteurs. Les travaux de
l’ISEOR ont montré que l’insuffisance d’investissement dans la qualité et
l’efficacité du fonctionnement et du management permettait d’expliquer les
dysfonctionnements, dont l’évaluation en termes d’incidence financière, appelé
coût caché, pouvait atteindre jusqu’à 60 K€ par personne et par an. La
performance de l’euro investi dans la création de potentiel humain trouve sa
source dans la conversion de ces coûts cachés en valeur ajoutée.
L’investissement en création de potentiel humain oblige cependant les directions
générales, non pas seulement à se poser la question de la libération de l’énergie
stratégique des acteurs (H.Savall et V.Zardet, 1995b : 123) en se limitant aux
traditionnels facteurs clés de succès, mais également à élucider les phénomènes
cachés agissant dans les infrastructures du fonctionnement et du management
comme facteur limitant.
Les dysfonctionnements entre les modes mineurs et majeurs de
perfectionnements surgissent quand ces deux modes ne sont pas synchronisés.
Le déficit de synchronisation entraîne un dédoublement du rapport de phase. Ce
dédoublement peut concerner les modes eux-mêmes lorsque l’entreprise ne
réalise pas d’investissements immatériels, les modes théoriques et pratiques
lorsque l’entreprise considère que la pratique se suffit à elle-même, ou les
spécialisations lorsque l’entreprise force les perfectionnements mineurs dans des
domaines particuliers. Le consultant ou le chercheur posent rapidement un
diagnostic lorsqu’ils évaluent le programme de formation intégrée par exemple.
Pour gérer en conjonction constante les processus de la transformation afférant
au fonctionnement courant et les processus afférant à la création de potentiel
humain, il est indispensable d’équilibrer les actions régissant les
perfectionnements contribuant à l’obtention de résultats immédiats d’une part, à
la création de potentiel d’autre part. Cela ne dispense pas d’élaborer un
calendrier avec des priorités si le programme de formation intégré est installé
dans le fonctionnement courant de l’organisation et régulièrement toiletté.
UNE STRATEGIE D’INNOVATION MANAGERIALE S’ENRACINE DANS LA
CREATION DE POTENTIEL HUMAIN
Les politiques et les stratégies sont performantes si elles sont enracinées
dans le fonctionnement de l’organisation. Toute stratégie rapportée, par
292
Management des Technologies Organisationnelles : Journées d’Etude 2009
imitation par exemple, se révèle à terme improductive. Une stratégie est toujours
endogène, à condition de ne pas distinguer les environnements internes et les
environnements externes, qui ne sont que des commodités de raisonnement
dans certains cadres théoriques. Ces commodités peuvent se trouver à l’origine
d’erreurs de type logique dans l’élaboration et la mise en œuvre de la stratégie.
Dans l’annexe 01, la coopérative viti-vinicole se défendait d’être aussi
performante que ses consœurs. Une stratégie n’est pas bonne au seul motif que
quelques unes de ses composantes sont bonnes.
J.Piaget (2005 : 118), après B.Russell, se sont posés la question du « que
faire des idées fausses ». Il ont apporté la même réponse ; elles subsistent à
côté des vraies. L’un comme l’autre considéraient que l’épistémologie génétique
ne doit pas s’égarer dans la recherche de l’historique des structures. La
connaissance juste est celle qui représente la structure analogique la plus juste
entre la connaissance des structures de l’objet (par l’acteur) et les structures de
l’objet (lui-même). Cette connaissance est généralement fausse dans les
organisations (Annexe 01). La connaissance est juste (légitime, défendable) s’il
existe une relation isomorphique entre sa propre structure (une représentation)
et celle de l’objet observé. Pour G.Simondon (2005 : 559), la connaissance est
une allagmatique (du grec ‘allagma’ qui signifie changement). Elle relève donc de
la théorie des opérations, qui se réalisent toujours dans l’interaction des
structures et des comportements. On peut aisément identifier la transformation
des compétences en observant à différentes périodes les seules opérations qui
les convertissent en structures (Annexe 01), à partir d’une nomenclature
opératoire. Les travaux de recherche à l’ISEOR ont déterminé que cette
périodicité devait être de six mois.
La théorie socio-économique des organisations (H.Savall et V.Zardet,
1975/1989, 1995, 2004, 2005) tout comme la théorie du système général (J.L Le
Moigne, 1990) observent les formes stables de l’objet. Mais, une théorie ne peut
pas n’être que descriptive. Elle doit être opératoire. Et si l’on considère que la
forme stable ne rend compte que de l’aspect inchangé (W.R Bion, 1982 : 7),
tandis que les opérations réalisant la transformation des structures peuvent
consister en leur recomposition, ce qui explique la perception de l’invariance,
alors la transformation est immanente. Plus largement, toute théorie du
changement en Sciences de Gestion qui limite la transformation à certaines
formes du changement en ignorant que la transformation de l’invariant est ellemême munie d’une loi de composition, ne permettent pas d’observer la
transformation des compétences, parce que précisément elles ne permettent
d’observer que certaines formes particulières du changement. Paradoxalement,
la théorie socio-économique des organisations permet d’observer la
En direct des laboratoires
293
transformation des compétences parce qu’elle observe la transformation des
invariants qui sont les structures recelant la création du potentiel humain.
L’unité d’analyse de l’interaction des structures et des comportements chez
H.Savall et V.Zardet (1995) permet d’opérer le diagnostic des compétences au
point de convertibilité des opérations en structures et des structures en
opérations. Ce point de convertibilité est le point (ou encore le moment) de la
transformation des compétences. C’est à ce point que l’on observe les
phénomènes de la résistance notamment. L’intervenant doit identifier ce point
pour observer les transformations. Il dispose à cet égard d’un outil
méthodologique (Annexe 01). Cet outil permet de définir la structure des
compétences, y compris comportementales, et de les actualiser périodiquement.
L’outil permet d’analyser le rapport de phase entre les modes de genèse
technologique (dans n’importe quel domaine) et organisationnel de la
compétence, et entre les modes théoriques et pratiques de perfectionnements
de ces mêmes compétences.
La transformation des compétences et la création de potentiel humain
obligent à se référer à des cadres théoriques, méthodologiques et opératoires
pertinents. Cette perspective est importante car elle permet d’équilibrer le
développement des compétences. Cette équilibration fait surgir la compétence
distinctive de l’entreprise.
Le cadre théorique, méthodologique et opératoire ne doit pas être sélectif.
On observe souvent que des dirigeants d’entreprises se privent d’un examen de
leur stratégie parce que la réflexion théorique serait réservée et accessible à
certaines catégories d’entreprises et pas à d’autres. C’est un exemple d’erreur de
type logique. Ce n’est pas la question de la réflexion théorique qui est posée,
mais celle du choix d’un cadre pertinent. Un cadre théorique, méthodologique et
opératoire doit être accessible et utilisable par toutes les catégories
d’entreprises.
La création de potentiel humain nécessite en effet de se référer à un
référentiel théorique, méthodologique et surtout opératoire, car il s’agit
d’analyser et de dynamiser des phénomènes immergés dans les infrastructures
du fonctionnement de l’organisation. Cette perspective souligne l’importance de
l’équilibration des modes de perfectionnements mineurs et majeurs des actions
dans le management du développement des compétences. La combinaison de
ces actions dévoile et installe la compétence dans le fonctionnement courant de
l’organisation. A rebours, le processus de la transformation des compétences se
trouve piloté. Cette communication se veut être une contribution à cette
perspective.
294
Management des Technologies Organisationnelles : Journées d’Etude 2009
NOTES
[1]
Institut de Socio-Economie des Entreprises et des Organisations, Université JeanMoulin Lyon 3.
[2]
La stratégie proposée a consistée à orienter la coopérative dans un projet de
restructuration industrielle et commerciale au sein de l’union de coopératives dont
elle était adhérente. La coopérative a été la tète de pont qui a permis le
regroupement des treize coopératives.
[3]
Traduction : Cœur
fondamentales …
de
compétence,
compétence
de
base,
compétences
REFERENCES BIBLIOGRAPHIQUES
BARTHELEMY J.H (2006), « D’une rencontre fertile de Bergson et Bachelard : L’ontologie
génétique de Simondon », Colloque Bachelard et Bergson : Continuité et
discontinuité - Une relation au cœur du 20° siècle, Université Jean-Moulin Lyon 3,
Septembre 2006.
BION W.R (1982), Transformations : Passage de l’apprentissage à la croissance, Editions PUF,
208 p.
DAVID A. (1996), « Structure et dynamique des innovations managériales », Actes de la 5°
Conférence Internationale de l’AIMS, Mai, Lille, 29 p. - ou Cahier de Recherche n°
12 du Centre de Recherche Scientifique de l’Ecole des Mines de Paris, Juillet, 44 p.
HAMEL G. et PRAHALAD C.K., (1990), « The core competence of the corporation », Harvard
Business Review, vol.68, n°3, pp.79-91.
JENNY J. (1997/98), « Un nouveau paradigme pour penser le changement : Le processus
d’individuation transductive, selon Gilbert Simondon », in Les Cahiers de
l’implication, n°1, pp. 31-44.
LE MOIGNE Jean-Louis (1990), La théorie du système général : Théorie de la modélisation,
Editions PUF, 3° édition, 1° édition 1977, 330 p.
MORIN E. (1986), La méthode 3. La connaissance de la connaissance, Editions Du Seuil, 250 p.
PIAGET J. (2004), Le structuralisme, Editions PUF, Collection Que-Sais-je ?, 12° édition, 125 p.
PIAGET J. (2005), Epistémologie génétique, Editions PUF, Collection Que-sais-je ?, 6° édition,
127 p.
SAVALL H. (1977), « Compatibilité de l’efficience économique et du développement du potentiel
humain », VII° Colloque International au Collège de France, organisé par François
Perroux et Jean Piaget - Revue d’Economie Appliquée, Archives de l’ISMEA, Tome
XXXI°, n° 3-4, « Equilibre et Régulation, Droz, Genève, 1978, pp.561-593.
SAVALL H. (1989), Enrichir le Travail Humain : L’évaluation économique, Préface de Jacques
Delors, avant-propos du Pr. Alain Bienaymé, 1° édition Dunod 1975, 2° édition
Dunod 1978, Economica, 3° édition, 275 p.
SAVALL H. et ZARDET V. (1995a), Maîtriser les Coûts et les Performances Cachés : Le Contrat
d’Activité Périodiquement Négociable, Prix de Management Stratégique HarvardL’Expansion, Préface de M.A Lanselle, Avant-Propos de J.M Doublet, 3° édition,
Economica, 405 p.
SAVALL H. et ZARDET V. (1995b), Ingénierie Stratégique du Roseau, Préface de S.Pasquier,
Economica, 517 pages.
En direct des laboratoires
295
SAVALL H. et ZARDET V. (2004), Recherche en Sciences de Gestion : Approche qualimétrique,
Observer l’objet complexe, Préface du Pr.D.Boje (Usa), Editions Economica, 432 p.
SAVALL H. et ZARDET V (2005), Tétranormalisation : Défis et dynamiques, Editions Economica,
195 p.
SCHÖN D. (1994). Le praticien réflexif. À la recherche du savoir caché dans l’agir professionnel.
Montréal : Editions Logiques, 418 p.
SCHÖN D. (1996). À la recherche d’une nouvelle épistémologie de la pratique et de ce qu’elle
implique pour l’éducation des adultes. In Barbier, J. –M. (dir.) Savoirs théoriques et
savoirs d’action. Paris : PUF, pp. 201-222.
SIMONDON G. (1989), Du mode d’existence des objets techniques, Préface de J.Hart et de
Y.Deforge, Editions Aubier-Paris, 336 p.
SIMONDON G. (2005), L’individuation à la lumière des notions de formes et d’information,
Editions Million, Préface de J.Garelli, 571 p.
STIEGLER B. (2006), « Chute et élévation : L’apolitique de Simondon », in Revue philosophique
n°3, Juillet 2006, Editions PUF, pp.324-341
ZARIFIAN Ph. (1999), Objectif Compétence : Pour une nouvelle logique, Edition Liaisons, 229 p.
ANNEXE 01 : GRILLE DE COMPETENCES (© ISEOR)
Source : Cas 03, Coopérative viti-vinicole
296
Management des Technologies Organisationnelles : Journées d’Etude 2009
En direct des laboratoires
297
Evaluation de l’interopérabilité
organisationnelle et managériale
des systèmes industriels :
le projet CARIONER
Nicolas DACLIN et Vincent CHAPURLAT
Laboratoire de Génie Informatique et d’Ingénierie de Production
Ecole des Mines d’Alès / Nîmes
INTRODUCTION
Le phénomène de mondialisation auquel font face les entreprises depuis les
deux dernières décades, se traduit par un accroissement permanent de la
concurrence. Afin de répondre à cette intensification et d’assurer leur avenir, les
entreprises doivent être capables de réagir rapidement aux besoins spécifiques
des clients, ainsi que de se positionner et de s’imposer sur de nouveaux
marchés. Dans ce contexte, les entreprises se focalisent sur leurs métiers de
base plutôt que de couvrir l’ensemble des activités de production et elles
cherchent à développer des partenariats afin de réduire les coûts et le temps de
mise à disposition sur les marchés. La compétitivité d’une entreprise ne dépend
donc plus seulement de ses performances et de sa productivité propre, mais
aussi de sa capacité à mettre en œuvre et à réaliser ces partenariats avec
d’autres entreprises. Ainsi, si la réussite de ces partenariats est liée à l’atteinte
des objectifs des entreprises (satisfaction du client, prise de nouveaux marchés)
qui travaillent ensemble, il convient de ne pas perdre de vue que cette réussite
est également intimement liée à une bonne qualité de communication et une
bonne capacité d’interaction entre les parties. Les solutions qui existaient jusqu’à
présent et qui permettaient principalement de réaliser l’intégration d’entreprises
ne sont plus totalement en adéquation avec le contexte actuel. En effet,
l’évolution rapide des marchés conduit à une faible pérennité des partenariats.
Les entreprises désirent donc avoir la possibilité de créer et de dissoudre
298
Management des Technologies Organisationnelles : Journées d’Etude 2009
aisément ces partenariats en limitant leur dépendance vis-à-vis des autres
partenaires ainsi qu’en évitant de profonds changements internes en terme
d’outils et de méthodes de travail. Nous assistons ainsi à la prise de conscience
d’un concept, l’interopérabilité, qui doit permettre de supporter la communication
et l’interaction de ces partenariats, tout en répondant aux contraintes de ce
nouveau contexte.
L’INTEROPERABILITE : DEFINITION ET PROBLEMATIQUE
Définition
Historiquement, le concept d’interopérabilité est clarifié au début des années
90 dans le domaine de l’informatique, où il est défini comme le fait de
développer « l’habilité pour deux (ou plus) systèmes à échanger des
informations et à utiliser les informations qu’ils ont échangées » (IEEE, 1990).
Plus généralement, la littérature définit à présent l’interopérabilité comme la
« compatibilité des équipements, des procédures ou des organisations
permettant à plusieurs systèmes d’agir ensemble » (Larousse, 2003). Ce
concept s’est depuis étendu. Le développement de l’interopérabilité est, de nos
jours, lié à de nombreux domaines (militaire, médical, transport, progiciel…)
(DoD, 2001) (ISO 16100, 2002) (APFA, 2004). A titre d’exemple, citons la
définition relative au domaine industriel (IDEAS, 2003) : « l’interopérabilité est la
capacité d’interaction entre les applications d’entreprises. L’interopérabilité est
considérée comme acquise si cette interaction peut, au moins, se réaliser à trois
niveaux : donnée, application et organisation. Le niveau « organisation » est
décomposé en trois sous-niveaux : modèle d’affaire, modèle décisionnel et
processus industriel ». Nous pouvons également citer la définition proposée dans
(Vernadat, 1996) qui définit l’interopérabilité comme « l’habilité pour un système
à communiquer avec un autre système et à utiliser les fonctionnalités de celuici ».
Les problèmes liés au développement de l’interopérabilité
Une étude récente a montré que « 40 % des coûts d’un projet TIC dans la
majeure partie des industries sont attribués à la résolution des problèmes
d’interopérabilité » (ATHENA, 2003). Cette valeur accentue encore un peu plus
l’enjeu mais aussi l’urgence de donner aux entreprises des outils efficaces pour la
résolution rapide et moins coûteuse de ces problèmes.
Cependant, la nature de ces problèmes est bien trop souvent mal identifiée.
En effet, l’interopérabilité est encore considérée aujourd’hui comme un problème
informatique. Différents travaux (IDEAS, 2003) (EIF, 2004) ont clairement mis
En direct des laboratoires
299
en avant le fait que l’interopérabilité concernait également les niveaux
d’organisation (modèle d’affaire, modèle décisionnel et processus industriels) et
des données (acquisition, structuration et représentation des connaissances des
entreprises). En d’autres termes, il ne s’agit plus uniquement de mettre en
relation des outils informatiques mais également de relier différentes structures
organisationnelles ainsi que leurs compétences et connaissances associées.
Actuellement, trois catégories de problèmes d’interopérabilité ont été
identifiées. On distingue les problèmes conceptuels, les problèmes
technologiques et les problèmes organisationnels.
• Les problèmes de type conceptuel concernent la syntaxe et la
sémantique des informations qui sont échangées. Ces problèmes
concernent la modélisation des informations à un haut niveau
d’abstraction comme par exemple un modèle d’entreprise, ainsi que la
façon de structurer les informations en vue d’un échange (utilisation
d’un langage de codage de données comme XML [1]).
• Les problèmes d’ordre technologique sont relatifs à l’incompatibilité des
technologies de l’information (plateformes et applications
informatiques). Ces problèmes concernent les normes pour présenter,
stocker, échanger, traiter et communiquer les données via les moyens
informatiques.
• Les problèmes d’ordre organisationnel sont liés à la définition de la
responsabilité et d'autorité qui induisent ou impactent la qualité des
conditions de travail. Ce sont donc essentiellement les facteurs
humains et les comportements organisationnels qui peuvent être
incompatibles avec l'interopérabilité. C’est essentiellement ce type
d’interopérabilité appelée organisationnelle qui intéresse le projet
CARIONER présenté dans cet article.
L’interopérabilité organisationnelle
Une entreprise est un système complexe caractérisé par une organisation et
des ressources permettant un fonctionnement et répondant à une finalité, une
mission et des objectifs. Le « système entreprise » est plongé dans un
environnement (économique, social, technique et technologique) avec lequel il
doit cohabiter, collaborer ou se retrouver en situation de compétition avec
d’autres entreprises. Une entreprise isolée a une capacité de réponse au marché
limitée. Aussi, elle fera appel à d’autres compétences et d’autres ressources que
les siennes propres : elle se structure alors en une organisation plus vaste,
dépassant ses propres limites et incluant d’autres entreprises. Le réseau qui
émerge alors peut être considéré comme un système complexe lui-même
composé d’autres systèmes restant indépendants les uns des autres mais
300
Management des Technologies Organisationnelles : Journées d’Etude 2009
néanmoins susceptibles et obligés de collaborer, temporairement le temps d’une
affaire ou plus longuement sur des projets plus importants.
Dans un réseau, chaque entreprise membre peut effectivement trouver des
opportunités économiques de travail, développer, mettre en œuvre et partager
plus efficacement ses ressources, répondre plus complètement à des exigences
client du fait d’une couverture plus large du cycle de vie d’un produit ou d’un
processus permis par l’interaction des membres du réseau. Cependant, former
un réseau, le maintenir, accueillir de nouveaux membres ou au contraire en
extraire, nécessite de disposer d’une méthode et d’outils pour évaluer le niveau
d’interopérabilité du nouveau partenaire ou ajuster et améliorer si nécessaire
l’interopérabilité de deux partenaires n’ayant pas encore travaillé ensemble. Un
réseau n’atteindra son objectif d’attractivité, de performance et de gain que si
l’on peut certifier de l’atteinte d’un certain niveau d’interopérabilité de ses
membres pour répondre rapidement aux opportunités et aux affaires.
La notion de système employée ici reflète des systèmes interagissant,
éventuellement non homogènes, autonomes et complexes. Cette interaction se
concrétise par des flux de données, d’information et de connaissances, de
matière ou encore d’énergie. Elle est nécessaire pour que chaque système
concerné ou mis en jeu par cette interaction puisse remplir une mission donnée,
dans le cadre d’une finalité donnée et puisse atteindre ses propres objectifs de
performance, de stabilité et d’intégrité. Cette interaction est le siège potentiel de
plusieurs types de problèmes et de risques (CAS 2003) : perte, non envoi / non
réception de flux, mauvaise compréhension, mauvaise utilisation, incompatibilité
des flux dans la forme, l’espace ou le temps, oubli pur et simple par le récepteur,
désynchronisation entre émetteur et récepteur, etc.
Selon (ATHENA, 2004), l’interopérabilité dans l’entreprise (Cabral et al. 2006 ;
Chen et al. 2003 ; EICTA 2004) peut se percevoir au travers de quatre niveaux
(figure 1)
Entreprise 2
Entreprise 1
Interopérabilité des
affaires
Interopérabilité des
processus
Interopérabilité des
services
--------------------------------- -----------
Interopérabilité des
données
--------------------------------------------
Figure 1. Les quatre niveaux d’interopérabilité (Chen et al., 2006)
En direct des laboratoires
•
•
•
•
301
L'interopérabilité des données qui se réfère aux différents modèles de
données de travail collaboratif et à l’organisation de schémas
conceptuels.
L'interopérabilité des services : elle permet d'identifier, de composer et
de créer des fonctions communes à diverses applications (conçues et
mises en application indépendamment) en résolvant les différences
syntaxiques et sémantiques ainsi qu'en trouvant les points de
raccordements des diverses bases de données hétérogènes. Le terme
« service » n'est pas limité aux applications informatiques, il peut être
également utilisé pour une entreprise ou des entreprises gérées en
réseau.
L'interopérabilité des processus qui vise à faire travailler ensemble
divers processus selon un besoin spécifique de l'entreprise et
notamment à relier des processus internes de deux entreprises pour
créer un processus commun.
L'interopérabilité des affaires qui se rapporte à l'harmonisation de
l'organisation globale des entreprises malgré les différents modes de
prise de décision, méthodes de travail, culture d'entreprise, l'approche
marketing etc. de sorte qu’une activité conjointe puisse être développée.
Dans un souci de couverture globale de l’interopérabilité, il est donc
primordial de s’intéresser simultanément à ces quatre notions d’interopérabilité.
Des solutions sont développées depuis peu pour résoudre différents types de
problèmes d’interopérabilité. Par exemple, au niveau conceptuel, l’utilisation de
l’ontologie (tel que l’Ontologie Web Language) doit permettre, à terme, de
résoudre le problème de sémantique. Nous pouvons également citer, au niveau
technologique, le Model Driven Interoperability (Bourey, 2007) qui se base sur le
Model Driven Architecture (OMG, 2003) et dont l’objectif est de générer des
applications d’entreprises qui soient interopérables.
Néanmoins, l’ensemble des solutions développées jusqu’à présent permet de
résoudre principalement des problèmes d’interopérabilité spécifiques aux niveaux
conceptuel et technologique. Peu de solutions et d’approches sont actuellement
développées pour aider à développer l’interopérabilité au niveau organisationnel.
Plus précisément, il n’existe pas d’outils permettant aux entreprises d’évaluer
leur capacité à interagir ensemble, que ce soit en terme d’interopérabilité
intrinsèque i.e. l’interopérabilité est vue comme une caractéristique propre d’un
système, indépendamment de tout autre système ou bien en terme
d’interopérabilité extrinsèque i.e. l’interopérabilité est vue comme une
caractéristique entre des systèmes définis.
302
Management des Technologies Organisationnelles : Journées d’Etude 2009
Ce niveau revêt pourtant un caractère primordial pour que les interactions
entre des entreprises se déroulent ou soit amenées à se dérouler dans de
bonnes conditions. Dès lors, il s’agit de donner aux entreprises les moyens
d’évaluer leurs capacités à interopérer dans le but (1) de connaître leurs points
forts et leurs points faibles en termes d’interopérabilité et, (2) de mettre en
œuvre les actions correctives, si nécessaire, pour améliorer celle-ci.
LE PROJET CARIONER
Le projet CARIONER propose d’étudier deux types d’interopérabilité et tente
de prendre en compte les niveaux et de répondre aux besoins résumés cidessus :
• L’interopérabilité organisationnelle : liée aux ressources (humaines,
applicatives, matérielles), à leurs modes d’organisation et d’interaction
avec d’autres ressources (professionnelles, humaines, hiérarchiques,
etc.), à leurs objectifs, savoirs faire et compétences.
• L’interopérabilité managériale : liée au mode de pilotage du ou des
systèmes en phase d’exploitation (pilotage distribué, centralisé, utilisant
des indicateurs de performance ou à vue, etc.), mais aussi au pilotage
de son amélioration dans un cadre plus large.
Cette généralisation de la notion d’interopérabilité permet d’inscrire
clairement le sujet du projet CARIONER dans le thème de l’interopérabilité
d’entreprise, sujet majeur actuel relatif à la généralisation de l’activité
économique en réseau. Notamment, il s’inscrit dans la continuité des travaux
entrepris dans le cadre du Réseau d’Excellence INTEROP (Interoperability
Research for Networked Enterprises Applications and Software, 6ème
programme cadre, IST 508011) et du Projet Intégré ATHENA (Advanced
Technologies for Interoperability of Heterogeneous Enterprise Networks and
their Applications, 6ème programme cadre, IST 507849).
Le projet CARIONER cherche à développer et à adapter des mécanismes
formels de modélisation d’entreprise et d’analyse par preuve de propriétés. Ce
projet regroupe les partenaires Laboratoire de Génie Informatique et d’ingénierie
de Production (LGI2P), la DRGI de l’Ecole des Mines d’Albi-Carmaux et le
laboratoire IMS de Bordeaux.
Objectifs du projet
Dans un réseau d’entreprises, chaque partenaire doit évidemment interagir
(communiquer, collaborer, coopérer, échanger, partager…) avec les autres
partenaires par exemple dans la cadre d’une opportunité d’affaire. Il souhaite
En direct des laboratoires
303
cependant rester en même temps indépendant de ses partenaires. Ces
interactions doivent donc respecter un certain nombre de propriétés i.e.
d’exigences, et des contraintes (normatives, légales, sociales, humaines,
techniques ou économiques) pour que l’entreprise comme le réseau atteignent
leurs objectifs propres.
Pour se positionner dans un tel réseau, chaque entreprise doit donc pouvoir
évaluer d’une manière globale sa capacité à faire travailler ensemble ses
ressources propres, puis ses capacités à travailler en partenariat au sein d’un
réseau d’entreprises. Ces capacités reflètent étroitement le niveau
d’interopérabilité de chaque entreprise et sont :
• La capacité à construire et à entretenir une relation de collaboration
durable, de confiance et opérationnelle avec d’autres entreprises en
fonction des opportunités d’affaires avec ses clients,
• La capacité à communiquer et à utiliser sans perte ni ambiguïté, dans le
sens comme dans la forme, et de manière dynamique, des données, des
informations et des connaissances nécessaires tant en interne que tout
au long d’une collaboration avec d’autres entreprises,
• La capacité à piloter, synchroniser et manager des tâches communes et
à partager de manière pertinente des ressources (humaines, machines
ou applicatives) et des services.
Une fois évaluées ces capacités, l’entreprise dispose alors d’informations sur
ses faiblesses et peut alors tenter d’y remédier afin de gagner en efficacité tant
en interne en utilisant mieux ou différemment ses propres ressources, qu’en
externe en améliorant ses interfaces, ses comportements et son fonctionnement
global avec ses partenaires.
Les résultats attendus du projet CARIONER sont donc :
• La
définition
et
formalisation
de
règles
d’interopérabilité
organisationnelle et managériale d’une entreprise sous forme de
propriétés.
• Des enrichissements d’un langage de modélisation d’entreprise à choisir
pour rendre compte de la notion d’interopérabilité et rendre possible son
analyse. Il s’agira ici, dans un premier temps, d’extensions conceptuelles
liées au méta modèle de ce langage.
• Un ensemble de mécanismes de représentation et d’analyse des
propriétés d’interopérabilité d’une entreprise par preuve formelle et/ou
par simulation. Ces propriétés traduisent les exigences et contraintes
devant être respectées par l’entreprise, son organisation, son
fonctionnement et sa manière d’interagir avec son environnement. Les
mécanismes d’analyse permettront d’évaluer le niveau d’interopérabilité
d’une entreprise dans un environnement donné en tenant compte de
304
Management des Technologies Organisationnelles : Journées d’Etude 2009
•
modèles d’entreprise conçus avec les extensions de langages proposées.
Cette analyse aura pour résultat le positionnement clair et précis d’une
entreprise dans le profil de maturité. Elle permettra aussi de détecter
des situations dans lesquelles il existe des possibilités ou des risques de
non interopérabilité, totale ou partielle, permanente ou temporaire,
pouvant entraîner des pertes de performance, de stabilité ou d’intégrité
de l’entreprise en interne comme en externe.
Un démonstrateur intégrant ces mécanismes de modélisation de preuve
et qui permettra de valider l’ensemble de la démarche scientifique et
méthodologique sur des exemples issus du milieu industriel.
Démarche pour développer l’interopérabilité organisationnelle et
managériale des entreprises
La démarche méthodologique globale qui devra émerger à l’issue du projet
CARIONER, et qui est schématisée Figure 2, nécessite de modéliser des cas
d’études d’entreprise, puis de traduire les modèles obtenus dans des langages
formels permettant enfin de vérifier que les exigences d’interopérabilité sont bien
couvertes par l’entreprise.
Modélisation de
terrain
Interprétation
Langage
Référentiel
de propriétés
Caractérisation
Transformation
Réécriture
Règles T/R
Analyse
Mécanismes
de preuve
Conceptualisation
Send order s to
fi nan ci al departm ent
To f ulf ill or ders
to contr ol cr edit
Pr oc
Pr oc
qualit y avail abl e
<< Pr ocessus>>
To co nt rol quanti ty
available
Pro c
Qu antity contr ol led
T EL CO
P roc
Rules
quality not avail abl e
T o f ulfill o rder sf rom
shops and
fr anchisees
Pr oc
50
Centre de décision et
grille GRAI
Langage de
modélisation de
processus
Figure 2. Démarche méthodologique résultante du projet CARIONER
Phase 1 : Modélisation de terrain
Il faut choisir et adapter un langage de modélisation d’entreprise à la
définition retenue conjointement par les trois partenaires de l’interopérabilité. Le
choix portera sur BPMN [2], GRAI [3] ou UEML [4] pour leurs qualités
respectives. Il faut ensuite concevoir des modèles d’entreprise correspondant à
des cas d’étude issus du milieu industriel et servant de tests de validation du
travail.
En direct des laboratoires
305
Phase 2 : Formalisation
Il faut ensuite formaliser les exigences d’interopérabilité sous forme de
propriétés, les mécanismes de réécriture des modèles d’entreprise résultant de la
phase 1 vers des langages formels basé sur l’usage des Graphes Conceptuels et
permettant l’analyse et développer ou adapter les mécanismes de vérification
des exigences d’interopérabilité sur ces langages formels. Ces travaux
monopolisent l’essentiel des moyens demandés dans le projet. Pour cela, il faut :
• Etudier les exigences et contraintes d’interopérabilité des systèmes
d’entreprises.
• Formaliser les exigences d’interopérabilité et les problèmes liés à la non
interopérabilité des systèmes sous forme de propriétés (de type
propriétés système et propriétés métier).
• Etudier et formaliser les mécanismes formels de réécriture des modèles
établis avec les langages de modélisation proposés par la phase 1
• Etudier et formaliser le mécanisme de raisonnement et de détection de
problèmes de non interopérabilité par l’emploi des Graphes Conceptuels.
Cette étape va fournir :
• Des règles de traduction (respectant les principes de bases de
l’approche MDA) du méta modèle décrivant le ou les langages de
modélisation du système entreprise vers des Graphes Conceptuels. Il
faut en effet représenter le système (réseau) entreprise par un ou
plusieurs graphes cohérents représentant le même système vu sous
divers aspects.
• Des mécanismes mathématiques (projections, contraintes et règles
dynamiques) permettant d’une part de parcourir et d’analyser ces
graphes pour y détecter de possibles conflits, manques, limitations,
d’autres part de rechercher les causes de non satisfaction des
propriétés.
Phase 3 : Mise en œuvre
Il faut enfin opérationnaliser et valider la démarche scientifique proposée de
modélisation et de preuve. Cela consiste tout d’abord à définir des cas d’étude.
Cela consiste ensuite à développer une plate forme support de la démarche de
modélisation des exigences et de l’entreprise, de ré écriture des modèles
d’entreprise et de vérification des exigences. Cette plateforme de démonstration
sera donc composée d’outils de modélisation de l’entreprise et des exigences, et
d’un outil d’analyse sur lesquels les cas d’étude permettront de valider la
démarche méthodologique proposée. Les outils de modélisation peuvent être
choisis parmi des outils du marché.
306
Management des Technologies Organisationnelles : Journées d’Etude 2009
CONCLUSION
L’objectif du projet CARIONER est de formaliser et de tester in situ une
méthodologie permettant de caractériser et d’analyser de manière formelle
l’interopérabilité organisationnelle et managériale d’une entreprise voulant
évoluer dans le cadre d’un réseau d’entreprises. En effet, une entreprise doit
pouvoir évaluer sa capacité ou ses réticences à travailler avec des partenaires,
puis définir et éventuellement mettre en œuvre des changements nécessaires
dans son organisation (en termes de processus, de ressources, d’outils et de
moyens) et dans son comportement pour améliorer cette capacité à
communiquer, à collaborer, à coopérer ou simplement à mieux se coordonner
avec ses partenaires. Cette capacité, liée au niveau d’interopérabilité de
l’entreprise, doit donc être analysée afin de trouver des pistes d’amélioration
potentielle. Les résultats suivants sont attendus :
• Définition et formalisation de règles d’interopérabilité organisationnelle
et managériale d’une entreprise sous forme de propriétés
• Proposition d’enrichissements conceptuels d’un langage de modélisation
d’entreprise nécessaires pour décrire les conditions de ce type
d’interopérabilité
• Définition et adaptation des mécanismes formels d’analyse par preuve
de propriétés.
• Validation de la méthodologie globale de mise en œuvre avec un
démonstrateur
NOTES
[1]
XML signifie eXtended Markup Language. XML est un langage de codage de
données utilisé pour les échanges. http://www.w3.org/XML/.
[2]
Business Process Model Notation.
[3]
Graphe à Résultats et Activités Interreliés.
[4]
Unified Enterprise Modelling Language.
REFERENCES BIBLIOGRAPHIQUES
(APFA,
2004) Association pour
francophone.org, 2004.
Promouvoir
le
Français
des
Affaires,
www.presse-
(ATHENA, 2003) ATHENA Integrated Project, « Advanced Technologies for Interoperability of
Heterogeneous Enterprises Networks and their Applications », Integrated Project
description of work, 2003.
(ATHENA, 2004) ATHENA Integrated Project, « Requirement for interoperability framework,
product-based and process-based interoperability infrastructures, interoperability
life-cycle services », ATHENA deliverable A4.1, 2004.
En direct des laboratoires
307
(Bourey, 2007) Bourey, J-P., Grangel, R., Doumeingts, G., Berre, A.J., « Report on Model Driven
Interoperability », INTEROP Deliverable DTG 2.3, 2007, disponible en ligne à
l’adresse : http://interop-vlab.eu/
(Cabral et al. 2006) R. Cabral, G. Doumeingts, M.S. Li, K. Popplewell, Enterprise Interoperability:
Research Roadmap, Working document, Version 2.0, 2006.
(CAS 2003) Casualty Actuarial Society (CAS), “Overview on Enterprise Risk Management”, ERM
Committee, 2003.
(Chen et al. 2003) D. Chen, F. Vernadat, “Enterprise interoperability: a standardization view”,
Handbook on architectures of information systems, Springer, 2003.
(Chen et al., 2006) D. Chen, et al., “Enterprise Interoperability – Framework and knowledge
corpus – Advanced report”, INTEROP Deliverable DI.2 (Domain Interoperability),
2006, disponible en ligne à l’adresse : http://interop-vlab.eu/
(DoD, 2001) Department of Defense, « Department of defense Dictionary of Military and
Associated Terms », United States of America Department of Defense, 2001.
(EICTA 2004) EICTA Interoperability white paper, 2004, disponible en ligne à l’adresse :
www.eicta.org/web/news/telecharger.php?iddoc=367
(EIF, 2004) European Commission, « European Interoperability Framework For Pan-European
eGovernment Services », version 1.0, European Communities Ed., 2004.
(IDEAS, 2003) IDEAS Project Deliverables, WP1-WP7, public reports, 2003.
(IEEE, 1990) « A compilation of IEEE standard computer glossaries », standard computer
dictionnary, 1990.
(ISO 16100, 2002) ISO, « ISO 16100, 1 - Industrial automation systems and integration –
Manufacturing software capability profiling for interoperability – Part 1 : Framework
», ISO/TC 184/SC 5/WG 4, 2002.
(Larousse, 2003)
« Le petit Larousse illustré », dictionnaire de la langue française, 2003.
(OMG, 2003) Open Management Group, « MDA Guide Version 1.0.1 », omg/2003-06-01,
disponible en ligne à l’adresse : www.omg.org, 2003.
(Vernadat, 1996) Vernadat, F.B., « Enterprise Integration Modeling and Integration : Principles
and Applications », Capman & Hall, London, 1996.
308
Management des Technologies Organisationnelles : Journées d’Etude 2009
En direct des laboratoires
309
Les paiements, un nouveau challenge
pour l’entreprise
Philippe COIFFARD
Consultant en organisation et système d’information
Expert en relations interbancaires
PhC Consulting / Montpellier
RESUME
Les évolutions opérationnelles (SEPA), fonctionnelles (ISO 20022,
BIC/IBAN,…), organisationnelles (Monétique 3 coins, …) ou technologiques (arrêt
de l’X25, IP,…) conduisent l’industrie des paiements vers l’émergence de
nouveaux services (Payment factory, PSP,…) et de nouvelles conditions
financières. Quelle politique ? Quelle stratégie ? Quelle organisation ? Les
entreprises ont jusqu’à 2011 pour répondre à ce triple challenge.
SITUATION : PERSPECTIVES DES PAIEMENTS
Introduction
L’industrie des paiements procède à une gigantesque conduite du
changement dont la mise en œuvre effective se situe à l’horizon 2011 – 2012 :
c’est déjà demain !
Cette évolution revêt tous les aspects traditionnels de toute conduite du
changement, à savoir : opérationnel, fonctionnel, organisationnel,
technologiques. Ainsi, le SEPA propose une migration de la domesticité des
paiements d’un contexte résolument national vers un périmètre paneuropéen.
Les échanges de flux de paiement s’effectueront sur une norme
internationale ISO 20022, ce qui oblige tout un chacun à l’abandon de son RIB
traditionnel vers un identifiant bancaire international et normé, l’IBAN, pour
International Bank Account Number.
310
Management des Technologies Organisationnelles : Journées d’Etude 2009
La redéfinition des acteurs et des processus de la monétique, notamment,
ceux liés à l’acquisition des flux commerçant par la banque acquéreur, dessine
une architecture « 3 coins » permettant des économies substantielles de ces
mêmes processus.
Enfin, le développement des protocoles sous IP conduit au remplacement, à
plus ou moins long terme, des technologies et des protocoles liés à l’X25 ; ce
développement sera d’autant plus avéré que les protocoles actuels, ETEBAC 3, …
ne supportent pas la norme ISO 20022.
D’ici à 2012, les entreprises vont être sollicitées par nombre de leurs
partenaires habituels – banques, éditeurs de logiciels, SSII, … - qui vont leur
décliner nombre de services et/ou de solutions à valeur ajoutée afin de
rationaliser l’appréhension globale de ces évolutions.
Notre propos est de permette à ces mêmes entreprises d’apprécier les enjeux
à leur juste mesure et d’y répondre de la manière la plus pragmatique qui soit.
Le SEPA
La mise en œuvre du Single Euro Payment Area ou « Espace unique des
paiements en euros » est un enjeu majeur pour toutes les entreprises et pour
plus de 300 millions de consommateurs !
Son objectif est de permettre à tout acteur économique - corporate,
PME/PMI, TPE, administration, particulier, commerçant, artisan - d’effectuer des
paiements scripturaux dans l'ensemble de la zone euro à partir d'un même
compte dans l’un des 31 pays de l’espace en utilisant une gamme unique
d'instruments de paiements avec autant de facilité, d'efficacité et de sécurité qu'il
le fait aujourd'hui lors des paiements domestiques, et au même coût. La
domesticité des opérations se transpose, ainsi, d’un contexte strictement
national vers un contexte ouvert paneuropéen.
Cette gamme décline trois opérations de base :
• Le SEPA Credit Transfer, virement
• Le SEPA Direct Débit, prélèvement
• Le SEPA Card Framework, cadre régissant les cartes.
Il est vital que les entreprises s'approprient sans tarder ce dossier et le gèrent
comme un véritable projet d'entreprise. Il faut le faire dès à présent afin de
réduire, autant que faire se peut, les incertitudes juridiques et techniques liées à
l'ampleur et à la complexité de ce grand chantier européen.
Au sein de cet espace, la concurrence sera accrue et plus présente
qu’aujourd’hui ; ce qui nécessite que l'entreprise évalue les risques et les
opportunités, qu’elle définisse une stratégie pour ne pas rencontrer des
difficultés dans ses relations avec ses clients et ses fournisseurs, lorsque l’espace
sera définitivement ouvert et opérationnel.
En direct des laboratoires
311
Ignorer ce nouveau cadre, c’est courir le risque de perdre à terme des parts
de marché. Se projeter et maîtriser ce nouvel espace européen, c’est assurer le
développement des entreprises.
L’ISO 20022, Le BIC/IBAN
La norme ISO 20022 utilise les formats XML. Tous les fichiers actuels, dit « à
plat » de liaison entre l’entreprise et la banque, en émission comme en
réception, vont être remplacés par leur équivalent XML.
Certes, il sera toujours possible de conserver son référentiel aux normes et
aux formats actuels et d’échanger avec ses partenaires en transposant les
données, uniquement lors de leur émission ou de leur réception. Quelle est la
pérennité d’une telle solution ?
Au sein de l’espace unique de paiement en euros, les échanges de flux
interbancaires, mais aussi clients / Banques et Banques / Clients utilisent la
norme ISO 20022 et, par conséquent, les formats XML.
Les titulaires de compte bancaire disposent, aujourd’hui, d’un relevé
d’identité bancaire (RIB) qui se compose d’un code établissement, d’un code
agence, d’un numéro de compte et d’une clé RIB, contrôlant la cohérence des 3
premiers composants.
Au sein du SEPA, adieu le RIB ! Bonjour, l’IBAN… qui consiste en une
transposition de l’identifiant actuel, appelé BBAN dans la norme internationale,
spécifique à chaque pays « ibanisé ». Seul, l’IBAN ne sert à rien, il faut lui
associer un Bank Identifier Code (BIC) afin de router les flux vers le bon
établissement destinataire.
L’architecture « 3 coins »
Aujourd’hui, la monétique s’organise autour d’un modèle dit à « 4 coins » qui
sont respectivement :
•
Le porteur de la carte, l’acheteur qui souhaite régler ses achats au
moyen d’une carte de paiement.
•
L’accepteur, le commerçant qui accepte les cartes de paiement de ses
clients.
•
L’acquéreur, la banque du commerçant qui collecte les flux de ses
commerçants et les adresse aux banques confrères en vue d’être réglée
des achats effectués par leurs porteurs auprès de ses commerçants.
•
L’émetteur, la banque du porteur qui émet une carte de paiement et en
confie l’usage à ses clients.
Les relations interbancaires entre l’acquéreur et l’émetteur font l’objet de
commissions d’interchange, que la Commission Européenne, au travers du
programme SEPA, souhaite clairement abolir.
312
Management des Technologies Organisationnelles : Journées d’Etude 2009
Le modèle à « 3 coins » répond en principe à ce vœu puisque qu’il met en
relation directe l’accepteur avec l’émetteur, et supprime, de fait, les services
réalisés par l’acquéreur.
L’arrêt de X25 et des protocoles existants
Aujourd’hui, le protocole d’échange le plus utilisé dans les relations
Clients/Banques, quel que soit le sens de la relation C/B ou B/C, est ETEBAC 3.
Ce protocole permet l’échange de fichiers selon la norme AFB160 dans le sens
C/B, et AFB240 ou AFB120 en retour, dans le sens B/C. Ces normes et leur
format associé vont devenir obsolètes à l’aune du SEPA, car ils ne répondent pas
à la norme ISO 20022 et sont incompatibles avec le format XML.
Par ailleurs, l’opérateur historique a annoncé, le 14 décembre 2007, la
fermeture commerciale partielle du service X25 dès le 1er juillet 2008, date à
partir de laquelle « il ne sera plus possible de souscrire à un nouvel accès de ce
type ou de modifier les accès existants. La fermeture technique de ces accès,
identifiants et modems ID interviendra ultérieurement dans le respect des délais
prévus dans votre contrat X25 ».
PROBLEMATIQUE : QUELLE COMMUNICATION AUTOUR DU SEPA ?
La communication autour du SEPA est réduite à sa plus simple expression et
se confine actuellement au sein du microcosme interbancaire national, auquel
s’est ajouté quelques grands corporates, soit directement, soit par le biais
d’associations, telle l’Association Française des Trésoriers d’Entreprises (AFTE).
MERCATEL, organisme représentant des entreprises du commerce et de la
distribution, a rédigé le « Guide SEPA, Guide de gestion de projet en entreprise »
avec le concours et la contribution d’expert en moyens et systèmes de
paiements. Ce manuel a été largement diffusé, via les réseaux participatifs et/ou
associatifs, tel le MEDEF, la CGPME à leurs adhérents respectifs.
Les éditeurs de solutions pour les entreprises ont été invités par le Comité
Français d’Organisation et de Normalisation Bancaires (CFONB). Cette réunion
avait deux objectifs :
• Présenter le SEPA, les normes, les formats, les opérations, les
règlementations et les guides d’implémentation
• Etudier un calendrier de mise en place des évolutions afférentes au
SEPA au sein des solutions proposées.
Là encore, force est de constater l’absence de communication sur la mise à
disposition de solutions intégrant les évolutions nécessaires à l’appréhension des
composantes du programme SEPA.
En direct des laboratoires
313
RESOLUTION : QUELS SERVICES ?
La directive des services de paiement est résolument ouverte à l’apparition de
nouveaux acteurs dans le monde, actuellement fermé, des moyens et des
systèmes de paiements, domaine réservé du monde bancaire. Elle invite
notamment à la mise en œuvre de Payment Services Provider (PSP),
fournisseurs de services de paiement, fortement contesté par la profession
bancaire, qui y voit la mise en œuvre d’une concurrence déloyale en regard des
engagements qui leur sont imposés et pour lesquels les PSP verraient leurs
conditions d’application sensiblement aménagées.
Les établissements bancaires et financiers ont tout intérêt à garder
« captive » leur clientèle, notamment, celle des grands remettants et à leur
proposer une offre de service adaptée et répondant aux évolutions précitées.
Ces mêmes offres seront vraisemblablement déclinées pour les autres types de
clientèle, accompagnées le cas échéant de mesures fortement incitatives à
accepter les conditions proposées.
Ainsi, certaines banques ont, d’ores et déjà, adressé à leur clientèle de
particuliers un courrier leur précisant que tout ordre de virement effectué sur un
RIB ferait l’objet d’un tarif supérieur au même ordre de virement effectué via le
couple BIC/IBAN.
Il en ira de même avec les entreprises qui, soit ne pourront pas fournir le fameux
couple BIC/IBAN, soit ne pourront pas fournir leurs ordres de paiements selon le
format XML. Les services proposés par les banques vont être :
•
Une conversion « Ancien format / Format XML » avec transposition des
RIB en BIC/IBAN, systématique à chaque ordre de paiements
•
Une transposition RIB en BIC/IBAN « one shoot »
•
Une transposition RIB en BIC/IBAN ponctuelle à la demande
•
…
Ces services seront naturellement facturés ; d’où l’intérêt de voir apparaître
de nouveaux acteurs, qui jouant sur un plus grand nombre d’opérations à traiter,
pourraient proposer des conditions tarifaires plus avantageuses.
INFORMATIONS
Le bout en bout
La directive de services de paiements, s’appuyant sur la résolution No
1781/2006, insiste sur la transmission intégrale des informations remises par le
donneur d’ordre d’un bout à l’autre des systèmes des paiements. Ainsi, une
référence, un libellé, etc. devront être acheminés de bout en bout jusqu’à leur
destinataire.
314
Management des Technologies Organisationnelles : Journées d’Etude 2009
Les formats XML proposent des contenances de données plus larges, que les
formats actuels (une référence XML peut contenir 35 caractères contre de 10 à
16 caractères actuellement, un libellé passe de 30 caractères à 140).
C’est toute la chaîne de paiement – banque émettrice, réseau d’échange et
intermédiaires, banque réceptrice – qui doit être en mesure d’assurer l’exigence
de bout en bout. En effet, si un donneur d’ordre transmet à sa banque des
ordres de paiement au format XML, celle-ci doit les acheminer vers les réseaux
d’échanges qui relaient l’information vers les banques bénéficiaires. Ces
dernières ont l’obligation de recevoir ces opérations et d’informer leurs clients,
bénéficiaires de ces paiements, de leur arrivée. Si elles ou leurs clients ont
conservé les formats actuels dans la relation B/C, la transposition, effectuée à
partir des formats XML, tronquera inévitablement certaines données.
Le SDD : la gestion des mandats
Le SEPA Direct Debit (SDD), le prélèvement SEPA, modifie la gestion des
autorisations, telle que pratiquée actuellement en France.
Le mandat résulte d’un contrat entre un créancier et son client ; il est à
l’initiative du créancier de fournir les éléments nécessaires conformes à la
demande de prélèvement. Le créancier doit informer son client de chaque
échéance, au minimum 14 jours avant le terme. Le SDD transporte les
informations relatives au mandat, a priori accepté par le client. La banque du
débiteur, client du créancier, doit informer son client de l’arrivée sur son compte
d’un prélèvement 2 jours avant son échéance. Le client peut signaler, avant le
terme et pour quel que motif que ce soit, le refus de ce prélèvement. Ce refus
n’a valeur que pour l’échéance en cours et la banque du débiteur se doit de
l’accepter, de retourner le prélèvement à la banque du créancier, et de ne pas
imputer le montant du prélèvement sur le compte du débiteur.
Ce refus n’est pas une opposition systématique à tout prélèvement présenté
par le créancier, mais relève uniquement d’une contestation ponctuelle, mais
reconductible, sur une opération déterminée.
La documentation SEPA
Il est impossible de réunir l’intégralité de la documentation autour du SEPA
en un seul document : elle représente plus de 1 Giga octet. En revanche, les
liens ci-dessous peuvent vous orienter vers l’essentiel des documents nécessaires
à l’appréhension de ce programme :
• Le site d’European Payments Council (EPC) :
• http://www.europeanpaymentscouncil.eu/index.cfm
• Le site du Comité National SEPA Français :
• http://www.sepafrance.fr/
En direct des laboratoires
315
Glossaire
EPC
European Payment Council - Conseil européen des Paiements
PSD
Payment Services Directive - Directive des services de paiement
SEPA
Single Euro Payment Area - Espace Unique de Paiement en Euro
SCT
SEPA Credit Transfer - Virement SEPA
SDD
SEPA Direct Debit - Prélèvement SEPA
SCF
SEPA Card Framework - Cadre général des cartes SEPA
PSP
Payment Services Provider - Fournisseur de services de paiements
RB, IG
Réglementation et guide d’implémentation des opérations SEPA
REFERENCES BIBLIOGRAPHIQUES
[1]
DIRECTIVE 2007/64/CE DU PARLEMENT EUROPÉEN ET DU CONSEIL du 13
novembre 2007 concernant les services de paiement dans le marché intérieur,
modifiant les directives 97/7/CE, 2002/65/CE, 2005/60/CE ainsi que 2006/48/CE et
abrogeant la directive 97/5/CE (Texte présentant de l'intérêt pour l'EEE) (Version
anglaise et française)
[2]
RÈGLEMENT (CE) No 1781/2006 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 15
novembre 2006, relatif aux informations concernant le donneur d’ordre
accompagnant les virements de fonds
[3]
RÈGLEMENT (CE) No 2560/2001 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 19
décembre 2001 concernant les paiements transfrontaliers en euros
[4]
Rapport 196, fait devant le SENAT, le 31 janvier 2007, par le Sénateur M. Philippe
MARINI, sur la proposition de directive concernant les services de paiement dans le
marché intérieur.
[5]
World Payment Report 2006, document collégial entre ABN AMRO, CAPGEMINI et
l’European Financial Management and Marketing Association (EFMA)
[6]
L’espace unique de paiements en euro (SEPA), Un marché intégré des paiements de
détail, Banque Centrale Européenne
[7]
Annonce presse, faite par l’European Payment Council (EPC), sur le lancement du
SEPA CREDIT TRANSFER (SCT), le 28 janvier 2008
[8]
Le Guide du SEPA, Guide gestion de projet en Entreprise, document collégial, édité
par MERCATEL
[9]
Impact des règlements européens sur les modalités d'utilisation de l'IBAN et du BIC,
Fédération Bancaire Française
[10]
Migration vers les paiements SEPA : Recommandations à l'intention des donneurs
d'ordres pour la migration de leurs fichiers de RIB vers les couples IBAN + BIC
correspondants, Fédération Bancaire Française
[11]
Document de l'EPC intitulé "SEPA countries and SEPA transactions, Fédération
Bancaire Française
[12]
Register of European Account Number, European Committee for Banking Standards
316
Management des Technologies Organisationnelles : Journées d’Etude 2009
En direct des laboratoires
317
Les conditions de réussite d’un Projet
PGI / ERP
Marie-Françoise COMBAZ
Consultante
MFC Consultant / Clapiers
RESUME
Un projet ERP intervient dans la mise en œuvre d’une stratégie d’entreprise :
il s’agit de passer des objectifs de la direction, fil conducteur du projet tout au
long de son déroulement, à des objectifs opérationnels clairs, si possible
quantifiables.
Les enjeux pour l’entreprise sont multiples : gestion de l’information,
efficacité et qualité dans l’exercice du métier, responsabilité des personnels,
relation avec les partenaires, etc. L’élaboration des scenarii envisageables doit
ainsi prendre en compte la réalité de l’entreprise dans toute sa complexité.
Le choix final implique donc non seulement celui d’un outil, mais également
des décisions dans de nombreux domaines (technologies, finances, RH,
management, …) dont l’impact sur la vie de l’entreprise est crucial, voire vital.
INTRODUCTION
Qu’est-ce qu’un ERP ?
Deux sigles : ERP = Enterprise Resource Planning, PGI = Progiciel de Gestion
Intégré.
Définition : Outil permettant la gestion informatisée des grandes fonctions de
gestion de l’entreprise, en s’appuyant sur une base de données unique.
Vue la couverture croissante des fonctions, et la multiplicité des traitements
qu’il propose, l’ERP est au cœur du système d’information (SI) de l’entreprise.
318
Management des Technologies Organisationnelles : Journées d’Etude 2009
L’intérêt majeur d’un ERP est lié au fait qu’il s’appuie sur une base de
données unique : les informations saisies une fois sont potentiellement
disponibles pour toute autre opération s’y référant. Les conséquences :
• Gain de temps de saisie,
• Qualité des informations,
• Disponibilité
des
informations
pour
traitements
ultérieurs
(transformation d’un devis en commande par exemple)
• Possibilités de croisements, de rapprochements, d’extraction pour un
contrôle de gestion affiné ou une aide à la prise de décision.
L’ERP, progiciel* paramétrable pour être adapté aux besoins de diverses
entreprises, est aujourd’hui la solution de référence.
Quelques caractéristiques d’un projet ERP :
• Un coût élevé, demandant un investissement financier important, et
justifiant donc l’attente d’un retour sur investissement ;
• La modification des procédures et ses conséquences : réorganisation,
formation du personnel,
• Il est gourmand en temps, et risque de détourner le personnel de ses
tâches habituelles.
Le projet ERP en soi affecte donc profondément le fonctionnement de
l’entreprise.
Des échecs
Les échecs complets d’un projet ERP sont rares, mais existent. Les principaux
risques :
• Un risque juridique,
• Le risque fonctionnel lié au choix de la solution,
• Le risque fonctionnel lié à un défaut de paramétrage,
• Une sous-utilisation par rapport aux prévisions,
• Un dérapage des délais et de la charge de travail,
• Un dérapage financier.
Les 4 derniers risques sont principalement liés à la méthode utilisée pour
mener le projet.
Le diagnostic des causes suite à des années d’expertises judiciaires,
d’expertises pour le compte des DRIRE, ou d’OSEO, et de conseil :
• Une étude des besoins mal orientée, ou biaisée par des idées a priori, et
donc des solutions inadaptées au contexte général de l’entreprise,
• Une sous-évaluation de la charge de travail interne.
En direct des laboratoires
319
Quelle méthode appliquer ?
L’objet du propos est donc d’étudier en quoi l’alignement stratégique du
projet ERP est une condition indispensable pour piloter un projet ERP.
Les exemples donnés ont été rencontrés lors d’accompagnements de projets
ERP dans des PME.
DE L’ALIGNEMENT STRATEGIQUE …
L'alignement stratégique du système d'information est le fait de mettre en
cohérence la stratégie du système d'information avec la stratégie d'entreprise et
de la planifier dans une perspective pluriannuelle (Définition donnée par le
CIGREF dans son étude de 2002).
La stratégie de l’entreprise va donner une vision à moyen et long terme de
l’entreprise : elle définit des objectifs (chiffrés ou non) et des moyens qui
donnent des orientations pour l’activité de l’entreprise. Elle est ancrée dans le
métier de l’entreprise.
Il s’agit donc de traduire les objectifs stratégiques liés au métier de
l’entreprise en objectifs pour le SI.
Des objectifs
Des orientations fortes
Les objectifs stratégiques vont donner des contraintes qui vont définir un
premier niveau d’orientations des caractéristiques générales du SI à construire :
Ex : Une croissance de x M€ par une implantation dans tels pays, par création
d’antennes locales :
• le mode web peut être intéressant, peu coûteux …
• les outils doivent être multilingues, et même complètement régionalisés
ou localisés (adaptation à la culture des pays, en particulier aux
comptabilités et règles financières locales),
• …
Ex : S’imposer sur un marché en rachetant certains concurrents : pose la
question de l’interopérabilité* des SI des différentes structures.
Des objectifs opérationnels
Les objectifs stratégiques seront traduits en objectifs opérationnels, si
possible quantifiés par des indicateurs de performance :
320
Management des Technologies Organisationnelles : Journées d’Etude 2009
Premier exemple : « Améliorer de 15% la rentabilité de l’entreprise sur
2 ans »
Sera traduit par :
• Améliorer le taux de réussite des devis : passer de 30% à 45%
• Diminuer les coûts de revient de 5% par an,
• Réduire le volume des stocks de 5% la 1ère année, puis de 15 %
l’année suivante,
• …
Le point commun : on attend du SI qu’il donne les informations les plus
pertinentes pour la prise de décision.
Un ERP a capacité à donner quasiment toute information. Tous proposent des
tableaux de bord multiples. Mais chaque entreprise, en fonction de son métier,
de ses méthodes de gestion interne, et de ses objectifs, devra définir quelle est
l’information pertinente pour chacun des postes de décision.
Un des axes essentiels de la préparation d’un projet ERP est donc de :
• Définir les informations pertinentes, les analyses nécessaires, leur
fréquence, …
• Définir les règles de gestion nécessaires à l’élaboration des informations
pertinentes
• Définir les données nécessaires au calcul, et leur origine,
• Rendre ces données disponibles et fiables : question de la saisie, du
traitement, …
• Calculer les valeurs initiales et préciser des valeurs objectifs raisonnables
Dans les PME, on constate que le chef d’entreprise qui annonce comme
objectif premier la baisse des coûts de revient ne sait pas toujours comment les
calculer si ce n’est via la comptabilité analytique (quand elle est en place). Or
cette vision financière de l’entreprise ne permet pas de diagnostiquer les sources
possibles de gains de productivité par exemple, de connaître la rotation des
articles en stock, … Un ERP, par la gestion de production, la gestion des stocks,
… le permettra.
Parallèlement au projet ERP, un travail doit donc être réalisé en interne pour
analyser la structure des coûts de revient, construire les règles de gestion à
partir des méthodes classiques (ABC, …). Ce n’est pas la société de service qui
arrivera pour implanter l’ERP qui y répondra …
Décliner les objectifs stratégiques permet de définir les informations à traiter, et
les règles de gestion associées : saisie, traitements, calculs, validité, …
En direct des laboratoires
321
Un projet ERP entraîne l’ouverture de projets parallèles.
Deuxième exemple : « Faire face à une augmentation de l’activité de
15% par an, sans augmenter la charge en personnel ».
Cet objectif sera traduit par :
• Avoir recours à la sous-traitance pour les taches à faible valeur ajoutée,
• …
• Améliorer les processus,
• Optimiser les traitements.
Là s’ouvre tout un champ de réflexion, au cœur de tout projet ERP : la
cartographie des processus est une des étapes classiques, quasi incontournable.
Mais décrire les processus est une chose, les optimiser en est une autre. Le
travail à mener est important. On peut alors se poser la question des processus
les plus porteurs de valeur : c’est cette question qui permettra de concentrer
l’étude sur les processus les plus sensibles, souvent les plus spécifiques au
métier de l’entreprise.
De la même manière, un travail approfondi d’analyse des pratiques, tenant
compte de tous les cas particuliers, pourra déboucher à une réelle optimisation
des traitements, et à la rédaction des procédures.
Décliner les objectifs ouvre le champ de la réingénierie des process, de
l’organisation, et de manière plus large de la gestion du personnel sur le poste
de travail.
Décliner les objectifs stratégiques permet de concentrer l’étude sur les
questions les plus pertinentes pour la création de valeur.
Le cahier des charges pourra se concentrer sur les processus les plus
spécifiques au métier et à la culture d’entreprise.
Des contraintes techniques sous influence
S’ajouteront des objectifs qu’on peut considérer a priori comme strictement
liés au SI, mais ils découlent en fait eux aussi de la stratégie générale de
l’entreprise.
En matière de qualité et de sécurité du SI par exemple :
Les normes américaines Food and Drug Administration imposent aux
entreprises d’apporter la preuve de la justesse des données à tout moment. D’où
322
Management des Technologies Organisationnelles : Journées d’Etude 2009
la mise en place de procédures de vérification régulière des données, d’analyse
des règles de calcul, … qui visiblement n’avaient jamais été demandées à
l’éditeur de l’ERP installé. On est loin des procédures habituelles de recette.
Et des moyens
Financiers
Le financement est le moteur indispensable à la mise en œuvre d’une
stratégie. Et pourtant, dans les PME :
• il y a rarement une évaluation prévisionnelle d’un budget pour un projet
ERP ;
• Les budgets n’intègrent pas toujours la charge interne de l’entreprise ;
• Les budgets évaluent rarement le retour sur investissement, les gains à
venir ;
• Le financement n’est pas intégré comme une charge revenant à
l’entreprise, comme celui d’un investissement dont on attend un vrai
retour.
Toutes étapes indispensables dans la préparation d’un projet ERP.
Humains
La mise en œuvre d’un ERP demande en général de la formation, du
paramétrage, du travail pour effectuer la recette, les reprises de données et
saisies pour l’initialisation de la base de données. De manière générale, on
considère qu’il y a un rapport de 1 à 3 ou 4 entre les interventions des sociétés
externes et la charge interne de l’entreprise.
Par ailleurs, on a vu que l’étude révélait des champs complets de réflexion qui
généraient des sous-projets qui devront être menés en parallèle avec le projet
ERP. Ceux-là sont rarement pris en compte.
Techniques
Les technologies évoluent très rapidement, et cette évolution même permet
d’intégrer dans le projet une vision prospective de l’entreprise : comment
imagine-t-on l’entreprise, son fonctionnement interne, ses communications avec
les tiers ?
S’il est indispensable d’élaborer une stratégie de SI à partir des acquis de
l’entreprise, en matière de technologies et de savoirs-faires dans ce domaine, il
est tout aussi indispensable d’oser imaginer des solutions nouvelles qui seront
certainement banalisées d’ici quelques années.
En direct des laboratoires
323
… A LA CONSTRUCTION D’UN SCENARIO ADAPTE
Le scénario élaboré à l’issue de l’étude de faisabilité présente un plan
d’actions permettant la mise en production du projet, la mise en œuvre de l’ERP
choisi : les étapes, les méthodes, les moyens pour arriver au but. Ce dernier a
été défini par un Schéma Directeur Informatique et de Communication qui décrit
le SI objectif, et toutes les règles d’urbanisation*.
Face à la multiplicité des questions abordées par un scénario, nous retenons
3 règles complémentaires à celles qui président à la construction d’un scénario.
Un scénario global et évolutif
La conception du scénario est souvent pilotée par des « informaticiens » qui
privilégieront l’aspect technique.
Notre réflexion sur l’alignement stratégique et son impact sur un projet ERP
amène à 2 conclusions :
• Le scénario doit intégrer les sous-projets répondant aux divers
problèmes soulevés lors de l’analyse des objectifs ;
• Certains de ces sous-projets demandent des mises en tests, entraînent
des retours sur les objectifs, … et sont menés autant pendant l’étude de
faisabilité que pendant la mise en œuvre.
Cela signifie qu’un premier scénario doit être écrit en amont du projet, intégrant
les sous-projets induits par le projet ERP, suite à un premier diagnostic sur les
objectifs stratégiques et leur déclinaison.
Le scénario final devra intégrer les aspects non techniques que l’entreprise est la
seule à pouvoir maîtriser.
Il devra également rester ouvert à des modifications sensibles qui apparaîtront
au fur et à mesure de l’avancement des diverses parties du projet.
La gestion des priorités
Elle doit être réalisée à partir de 2 questions centrales :
• Quels sont les objectifs prioritaires retenus, à partir de l’analyse des
objectifs stratégiques, et de leur décomposition en objectifs
opérationnels ? Quels sont les délais qu’ils imposent ?
• Quelles sont les étapes ou fonctions à traiter qui permettront de faire
gagner du temps au plus vite, afin de dégager du temps pour le
personnel appelé à travailler sur des étapes ou fonctions plus sensibles
et plus gourmandes ?
324
Management des Technologies Organisationnelles : Journées d’Etude 2009
Les réflexions sur les objectifs prioritaires et sur l’urgence de dégager du temps
piloteront la construction du planning, en complément des questions habituelles
sur les étapes et leur durée.
Gérer les ressources et accompagner le changement
Le projet pose de multiples questions :
• Le partage de l‘information ne risque-t-il pas de déstabiliser certains
acteurs précédemment détenteurs d’un savoir-faire, ou qui constituent
un point de passage obligé ?
• Les nouveaux outils modifient les habitudes, et il y a toujours des freins
au changement,
• …
On a constaté qu’un projet ERP est central, mobilisateur de ressources
importantes, qu’il aura une influence sur l’ensemble de la vie de l’entreprise.
Où trouver ces ressources ? Comment mobiliser du personnel sans détourner
l’entreprise de son métier, et altérer ses résultats ?
Les solutions sont diverses, liées à chaque entreprise, mais doivent intégrer
quelques principes :
• Le projet a besoin de personnes clefs, des experts de chaque fonction
de l’entreprise ; ce sont donc des responsables qui devront être
déchargés d’une partie de leurs tâches quotidiennes ;
• Il y a un vrai danger de trop s’appuyer sur le consultant, qui ne doit pas
être le seul à maîtriser les questions clefs qui donneront lieu à des
décisions sensibles pour l’entreprise.
La seule solution est donc d’en faire un projet d’entreprise à part entière, et de
ne jamais sous-estimer l’impact qu’il aura pendant la phase de mise en œuvre, et
après la mise en exploitation.
CONCLUSION
Nous constatons une tendance de la part des chefs d’entreprise de traiter un
projet ERP comme une entité indépendante de la vie de l’entreprise, un
problème technique.
Or, nous l’avons vu, au minimum un projet ERP est l’occasion de dérouler les
orientations stratégiques, d’en préciser toutes les exigences et toutes les
conséquences. L’alignement stratégique de l’ERP, et plus largement du SI, est
une condition indispensable pour pérenniser l’investissement que représente le
projet, et le transformer en véritable outil au service de la stratégie.
En direct des laboratoires
325
Ajoutons enfin que les résultats obtenus en cours de projet et en phase
d’exploitation vont souvent au-delà des attentes … jusqu’à infléchir certaines
orientations initiales.
Il semble donc logique d’avoir une démarche alternant les phases
descendantes et ascendantes entre stratégie d’entreprise et stratégie du SI, et
d’intégrer le SI dans la stratégie d’entreprise.
LEXIQUE
Progiciel : « Un progiciel est un logiciel commercial vendu par un éditeur sous
forme d'un produit complet, plus ou moins clés en main. Le terme résulte de la
contraction des mots produit et logiciel (mot-valise). Plus récemment sont
apparus des progiciels libres, développés par des communautés d'utilisateurs. ».
Définition donnée dans Wikipedia, ainsi que l’origine du mot créé par Jean-Erick
Forge, fondateur du CXP (Centre d'eXpertise des Progiciels - http://www.cxp.fr).
http://fr.wikipedia.org/wiki/Progiciel
Interopérabilité : « Capacité à rendre compatibles deux systèmes
quelconques. L'interopérabilité nécessite que les informations nécessaires à sa
mise en œuvre soient disponibles sous la forme de standards ouverts. ».
Définition donnée dans Wikipedia
http://fr.wikipedia.org/wiki/Interop%C3%A9rabilit%C3%A9_en_informatique
Urbanisation : C’est le fait d’ « organiser la transformation progressive et
continue du système d’information visant à le simplifier, à optimiser sa valeur
ajoutée et à le rendre plus réactif et flexible vis à vis des évolutions stratégiques
de l'entreprise, tout en s'appuyant sur les opportunités technologiques du
marché. » Définition donnée dans Wikipedia, par le Club Urba-EA.
L’urbanisation « définit des règles ainsi qu'un cadre cohérent, stable et
modulaire, auquel les différentes parties prenantes se réfèrent pour toute
décision d'investissement dans le système d’information. »
http://fr.wikipedia.org/wiki/Urbanisation_du_syst%C3%A8me_d'information
REFERENCES BIBLIOGRAPHIQUES
Publications du CIGREF (Club Informatique des GRandes Entreprises Françaises) :
2002 : Alignement stratégique du SI
2007 : Plan stratégique du SI
326
Management des Technologies Organisationnelles : Journées d’Etude 2009
2008 : Dynamiques de création de valeur par les Systèmes d’Information (en
collaboration avec et McKinsey et Company)
http://cigref.typepad.fr/cigref_publications/
Hugues Jean, Grimal Michel et Leblanc Bernard – 1990 - Merise, vers la conduite de projet Dunod Informatique – 165 p.
Collectif Harvard Business School Press – 2000 - Harvard Business Review : La chaîne de valeur
– Editions d’Organisation - 328 p.
En direct des laboratoires
327
Une étude sur des effets de la
technologie informationnelle dans le
secteur hospitalier
Irène GEORGESCU
ERFI-ISEM / Université de Montpellier
GSCM / Montpellier Business School
RÉSUMÉ
Le plan hôpital 2007 prévoit la mise en place de la tarification à l'activité
fondée sur une technologie existante, le e-PMSI, et exigeant la réorganisation de
la structure par pôles d'activités dont la rentabilité est mesurée par le PMSI.
L'objectif est d'accroître le bénéfice de chaque pôle en tarifiant au plus juste les
actes pratiqués.
Inspiré du modèle anglo-saxon, cet outil informationnel s'accompagne de
nombreux effets comme le maintien d’un slack budgétaire, ou encore de la
création de nouvelles fonctions pour le médecin.
La contribution proposée aura pour objet de proposer une analyse des effets
de cette technologie organisationnelle au travers d'une note de recherche.
INTRODUCTION
La technologie fait l’objet de nombreuses recherches suite à l’identification
de son impact sur la structure de l’organisation par Woodward (1958, 1965).
Depuis les années 1970, la technologie joue un rôle actif à la fois dans le
management de l’organisation, la prise de décision, l’appréhension de
l’environnement mais aussi dans la performance de la structure (Gillepsie et
Mileti, 1977).
Bien qu’un grand nombre d’études se concentrent sur le secteur privé afin de
comprendre les effets de la technologie organisationnelle (Daft, 2001), il n’en
328
Management des Technologies Organisationnelles : Journées d’Etude 2009
demeure pas moins que le secteur public est également concerné par ces
dernières. Les organisations publiques doivent aujourd’hui être pilotées en
tenant compte de contraintes budgétaires imposées par l’Union Européenne.
En effet, dans un contexte de régulation des déficits budgétaires, le Pacte de
Stabilité et de Croissance a conduit naturellement les gouvernements à établir de
nouvelles règles visant à diminuer les dépenses publiques. L’introduction de la loi
organique relative aux lois de finances (LOLF), dès le budget 2006, instaure plus
de transparence et de flexibilité permettant de moderniser la gestion publique
dans une logique de performance. Ces nouvelles exigences se combinent, dans
le milieu hospitalier, à des contraintes spécifiques au secteur d’activité.
Un certain nombre de constats financiers comme les coûts croissants des
soins liés aux innovations technologiques, et sociaux -vieillissements de la
population, apparition de nouveaux pauvres, importance de l’hôpital public pour
les personnes en état de précarité- montrent la nécessité de mettre en place de
nouvelles réformes au sein des structures hospitalières afin de contrôler les
dépenses et d’améliorer la rentabilité de l’organisation.
De plus, les objectifs in fine sont non seulement de responsabiliser les
acteurs de santé à l’hôpital, mais également de permettre à l’organisation
hospitalière de bénéficier d’une autonomie de gestion, où la centralisation cède
la place à la décentralisation du pouvoir grâce à la création d’unités
indépendantes au sein de l’hôpital appelées pôle d’activité. L’hôpital doit devenir
une entité autonome tant dans son organisation de service que dans son volume
d’activité en se rapprochant du modèle de gestion du secteur privé (Abernethy et
Chua, 1996).
Aussi, de nombreuses interrogations ont motivé ces réformes : comment
optimiser l’allocation des ressources de santé, comment permettre aux médecins
de devenir des managers, comment concilier les exigences contradictoires, celle
du soin et de l’économie de ressources, quel outil introduire pour assurer une
lisibilité des dépenses de santé et permettre un remboursement par les
organismes sociaux ?
S’inspirant du modèle anglo-saxons, la France va procéder à une refonte de
la logique hospitalière afin d’entrer dans le cadre du nouveau management
public (Ferlié, Ashburner, Pettigrew et Filtzgerald, 1996).
Dès les années 1980, la majorité des pays anglo-saxons, ont tenté
d’améliorer la lisibilité, l’efficacité et la performance de la gestion des
établissements de santé grâce à la mise en place de Diagnosis Related Groups
(DRG). Elaboré par Pfeffer (1980), cet outil d’information permet de coder un
type de diagnostic et fixe ainsi un mode de remboursement par patient
hospitalisé. Une classification s’effectue par groupes réputés « médicalement
cohérents » et « isoressources » consommées afin d’identifier au plus juste le
En direct des laboratoires
329
coût de l’acte médical pratiqué. L’introduction de cette technologie de
l’information permet à l’établissement de santé d’identifier clairement le coût des
prestations médicales, de quantifier l’utilisation des ressources de l’hôpital, de
fournir une base pour évaluer les services de soins (Fetter et al, 1991) et de ce
fait de permettre un pilotage du centre de santé.
C’est pourquoi, la France transpose les DRG en Programme de Médicalisation
des Systèmes d’Informations (PMSI) et crée les départements d’informations
médicales (DIM) par la circulaire n° 303 du 24/07/1989.
Initialement maîtrisé et utilisé par le DIM comme instrument médicoéconomique, le PMSI permet de décrire l’activité des établissements, de
comparer dans le temps et l’espace les établissements, de confronter l’activité
aux ressources en rapprochant les données comptables et médicales.
Toutefois, la généralisation du e-PMSI en 2004 et le transfert de la cotation
du DIM aux médecins afin de les sensibiliser aux coûts des actes, sont les
prémices de nouvelles logiques.
Associé à la réforme de la tarification à l’activité (T2A) effective depuis 2007,
le support informationnel PMSI devient primordial. En effet, l’introduction de ce
nouveau mode de financement de l’hôpital alloue des ressources aux
établissements de santé en fonction de la nature et du volume de l’activité qu’ils
réalisent. L’activité est mesurée sur la base du PMSI permettant le codage des
diagnostics et actes pratiqués.
De plus, la T2A assure le passage d’une logique financière et comptable
fondée sur la dotation globale à une logique de projets liés aux besoins de
l’établissement. Il ne s’agit plus, avec le PMSI, de moduler le taux d’évolution de
la dotation globale mais bien d’en faire un pilier de financement de l’hôpital et de
développement de projets ou secteurs.
L’intérêt pratique de l’impact de cette technologie prend ainsi tout son sens
pour cette organisation.
De nombreux travaux sont menés afin de déterminer les contours du terme
technologie organisationnelle. En effet, les chercheurs montrent que ses effets
sur la structure sont fonction de la manière dont on définit le concept (Rainey,
2003 ; Tehnari, Montanari et Carson 1990). Scott (1998, p 228) propose de
comprendre ce concept comme le travail réalisé par l’organisation « work
performed by an organization », concept multidimensionnel (Gillepsie et Miletti,
1977). Le terme technologie organisationnelle regroupe ainsi un ensemble
d’outils, technologies, démarches intellectuelles et connaissances (Hulin et
Roznowski, 1985 : p 47) nécessaires à la compétitivité et la performance de
l’organisation.
Concept flou, la performance comprend quatre axes (Sicotte et al, 1998) :
l’accomplissement des objectifs (production de services), les relations humaines
330
Management des Technologies Organisationnelles : Journées d’Etude 2009
(climat social et personnel), un système ouvert sur l’environnement (patient et
familles) et une orientation vers le processus interne (qualité des soins).
Le PMSI s’intègre à la technologie organisationnelle car il est à la fois un outil
informatique mobilisant les acteurs de santé mais aussi un système d’information
à partir duquel les ressources futures de l’hôpital sont allouées.
Une interrogation peut alors être soulevée : est ce que la mise en place de
cet outil dans une logique de valorisation de l’activité, permet d’améliorer la
performance de l’hôpital ?
Bien que son application, en sens, soit récente en France (2007), de
nombreux effets sont mis en lumière dans les pays anglo-saxons.
Aussi nous tenterons, dans cette contribution, d’évoquer les effets de cette
technologie organisationnelle au travers des travaux réalisés aux Etats –Unis,
Australie, Norvège et Hollande dans lesquels un système identique est en place.
DES AVANCEES NOTABLES
Une traçabilité des coûts et un pilotage améliorés
Jusqu’à la mise en œuvre du plan « Hôpital 2007 », l’hôpital participant à une
mission de service public est financé par une enveloppe globale annuelle rendant
opaque la mesure de la rentabilité de chaque service. Le budget global
faiblement lié à l’activité et systématiquement reconduit permet aux structures
les moins actives de maintenir le même niveau de ressources. Aussi, aucune
structure n’a intérêt à développer son activité : l’enveloppe demeure la même,
les coûts augmentent, créent des déficits et diminuent de ce fait le slack
organisationnel (Cyert et March, 1963).
Afin de pallier aux effets pervers de ce système, un nouveau mode pilotage
est tourné vers l’activité mesurée sur la base de données du PMSI. Le PMSI
contient des groupes homogènes de malades (GHM) constitués de groupes
homogènes de séjours (GHS) auxquels sont associés un tarif. L’élaboration de ce
tarif nécessite l’identification de tous les coûts concourant à la production de
service. Basé sur la technique des coûts complets, le PMSI, identifie comme
charges directes l’ensemble des charges relatives aux médicaments, services
médico-techniques (unités d’hospitalisation, radiologie, laboratoire..) et comme
charges indirectes celles concernant les services administratifs (direction
générale, service du personnel…). Ainsi, le GHS est un forfait qui regroupe les
prestations hôtelières (prix de la journée, admissions) ; les prestations
d’environnement technique (forfait de salle d’opération, anesthésie).
Le mode de calcul des DRG est similaire, il est basé sur les ressources
consommées, les heures de travail des infirmières, médecins, les tests
En direct des laboratoires
331
laboratoires et médicaments. Cette quantification des ressources de l’hôpital
fournit une base d’évaluation des services de soins (Fetter et al, 1991). Elle
permet par la suite d’avoir une vision des coûts - recettes de chaque service, de
prendre des mesures correctives pour pallier aux déficits. Une nouvelle politique
de l’organisation ciblée sur l’approche volumique, quantitative des soins se
développe.
L’idéologie du secteur de la santé se modifie, la régulation par le marché
devient prédominante.
Le climat compétitif entre établissements de soins à buts lucratifs s’accentue
et rend nécessaire l’adaptation des hôpitaux à buts non lucratifs. Les hôpitaux à
buts non lucratifs optent pour des stratégies d’isomorphisme (Di Maggio et
Powell, 1983) en suivant les modèles pratiqués par les centres de soins à buts
lucratifs ce qui intensifie le climat de compétition régnant dans le marché de la
santé (Takagi, 2006).
Alexander et al (1988) montrent que les structures à buts non lucratifs sont
davantage orientées commercialement dans leur structure. Il ne s’agit plus de
soigner sans compter mais prendre conscience qu’il faut être rentable, et
proposer des soins performants. La culture de l’organisation de santé se
transforme (Mick 1990).
Le secteur non lucratif devient même un terrain d’expérimentation pour les
organisations lucratives. Ainsi, Schlesinger et al (1987) lors une étude
comparative entre centres de soins lucratifs et non lucratifs, découvrent que les
structures publiques hébergent des services ou pratiques non lucratives jusqu’au
moment où leur rentabilité est avérée. Une organisation à but lucratif apparaît
alors pour développer les techniques innovantes mises en place dans la structure
à but non lucratif.
L’hôpital public est un terrain de contribution pour l’amélioration des coûts
des soins dispensés et de ce fait un terrain d’apprentissage des technologies
organisationnelles.
La création d’un nouveau rôle pour le médecin
La mise en place de technologies organisationnelles passe nécessairement
par une nouvelle coordination du travail, une adaptation des ressources
humaines et le développement de nouvelles compétences. Dans le milieu
hospitalier, les fortes dépenses et un budget médical mal contrôlé justifient la
montée en puissance de l’administration, le passage d’une dominance
professionnelle à une ère managériale (Takagi, 2006).
L’émergence de cette nouvelle logique accentue l’incompatibilité des intérêts
entre médecins et managers (Leicht et Fennell, 1997) « mettant parfois à mal le
serment d’Hippocrate » (Takagi, 2006). Le médecin a pour mission d’apporter au
332
Management des Technologies Organisationnelles : Journées d’Etude 2009
patient la meilleure qualité des soins, l’administratif aspire à réduire les dépenses
en utilisant par exemple, les moyens de soins les moins chers ou en augmentant
le taux de rotation des patients pour bénéficier d’un remboursement maximal.
En ce sens, une étude HCFA de 2001 démontre qu’avant la mise en place de la
tarification à l’acte, le délai de moyen d’hospitalisation est de 10 jours, contre
7,1 jours, une fois la tarification instaurée.
Le médecin est également un acteur particulier car il appartient à une
profession dont les valeurs sont fortes (Hall, 1973). Les attributs de sa fonction
sont :
• l’appartenance et la reconnaissance d’un ordre professionnel comme
société savante, référence majeure ;
• la croyance en un service orienté vers le patient quelque soit son statut
social ou économique ;
• l’acceptation de l’évaluation du travail par ses pairs qui sont les seuls à
disposer d’une expertise et légitimité;
• la vocation pour cette profession ; le sentiment d’avoir choisir ce
domaine d’activité.
Aussi, le médecin a deux implications (Hafferty et Light 1995): une
implication professionnelle, « attachement qu’a l’individu envers sa profession »
(Lee et al, 2000) qui est liée à sa fonction mais aussi une implication
organisationnelle « interaction entre l’individu et son organisation » (Thévenet,
1992) comme tout membre d’une organisation.
Quelques travaux ont été réalisés afin de déterminer, en fonction du type de
structure quels étaient leurs niveaux et type d’implications chez le médecin. Dans
le cas où le médecin travaille dans une structure à but non lucratif son
l’implication organisationnelle est plus forte que dans le cas où son exercice
s’effectue dans une structure cherchant à maximiser son profit. Ce résultat est
motivé par la convergence des valeurs existants entre structure de soins à but
non lucratif et valeurs médicales (Lawrence,Mattingly, Ludden, 1997 ; Kuttner,
1998). La financiarisation de cette l’activité s’accompagne d’une implication
organisationnelle calculée, fondée sur un système de contribution- rétribution,
plus forte et d’une implication affective plus faible envers l’organisation.
De plus, l’avènement du PMSI et de la tarification à l’activité accentuent la
logique comptable dans les hôpitaux et conduit à des conflits de rôles chez le
médecin entre sa fonction de soignant et sa responsabilité économique dans la
prescription médicale.
Cependant il semble que ce conflit, notamment dans le cadre budgétaire ne
soit pas inévitable (Comerford et Abernethy, 1999). En effet, pour Vladek (1984),
la mise en place d’un nouveau système de pilotage hospitalier vise non
En direct des laboratoires
333
seulement à changer le mode management de l’institution mais aussi à changer
la relation entre médecin et managers.
Dans la logique de décloisonnement des activités, la T2A appelle une
réflexion commune entre gestionnaires et praticiens. La finalité est d’associer le
médecin à la gestion de l’établissement pour permettre une meilleure allocation
des ressources (Cauvin et Coyaud, 1990, p 193) et de mettre en place des outils
de pilotage médico- économiques afin d’assurer au centre hospitalier un
bénéfice. De nombreuses recherches (Scott, 1966 ; Hall ,1967 ; Copur 1990)
exposent l’existence de conflits lorsque les spécialistes sont engagés dans un
processus de contrôle budgétaire. Une solution émerge : afin d’éviter les
tensions, il suffit d’éviter la confrontation entre spécialistes et système de
contrôle administratif, ce qui restreint leurs champs d’action (Abernethy et
Stoelwinder 1990).
Pourtant, les travaux d’Abernethy et Stoelwinder (1995) montrent
qu’aujourd’hui la performance de l’hôpital passe par l’intégration des
professionnels de santé dans le management de l’organisation en les impliquant
au processus budgétaire. Ils ont une capacité à endosser les responsabilités de
managers d’unités opérationnelles (Abernethy et Vagnoni, 2004). Les médecins
managers sont appréciés car ils ont un potentiel pour poser les piliers de l’ère
managériale à l’hôpital (Schneller et al, 1997): ils possèdent à la fois la
compétence du monde médical dans le sens où ils maîtrisent ce langage,
appartiennent à l’ordre des médecins, mais ils sont également sensibilisés aux
exigences de pilotage associées aux contraintes de coûts (Dunham, Kindig et
Schultz 1994). Leur crédibilité est fondée sur leur expertise professionnelle mais
aussi sur leur fonction de liaison entre médecin et organisation ; ils bénéficient
ainsi d’une double légitimité, l’une associée au monde professionnel, l’autre
associée au monde administratif (Hafferty et Light 1995, Hoff 1999). Cette
double légitimité permet au médecin manager de devenir le lien, l’interface entre
le monde médical et le monde administratif. C’est en ce sens que le découpage
de l’organisation en pôle trouve son intérêt et la création d’une nouvelle
compétence est nécessaire, celle du médecin manager, chef de pôle.
Pour les médecins endossant ces nouvelles responsabilités, le passage du
statut de soignant à celui de manager engendre des difficultés, des doutes sur
soi (Hoff, 1999). Il semble que cela soit contingent à divers facteurs. On peut
citer tout d’abord le climat positif de travail (Mathieu et Zajac, 1990). Le climat
de travail est primordial, il va déterminer la réussite ou l’échec de l’hybridation
de la fonction de médecin. En effet, l’endossement de nouvelles responsabilités
peut s’accompagner de réaction négative de la part des collègues (Hoff, 1999).
Egalement, l’âge du médecin est un facteur important. Pour les hospitaliers
plus anciens, le management est un cap ou un complément dans leur carrière
334
Management des Technologies Organisationnelles : Journées d’Etude 2009
(Hoff, 1988, 1999). Leur implication organisationnelle liée à cette nouvelle
attribution s’accroît (Comeford et Abernethy, 1999). Montgomery (1992)
démontre que leur implication professionnelle se transforme en implication
organisationnelle. Cette évolution les conduit à adapter leur loyauté en fonction
des nouvelles sources de récompenses qui sont données par l’organisation, les
éloignant de leur profession (Wallace, 1995).
Enfin, le type et l’objet de l’organisation a un impact sur l’implication du
médecins manager. L’implication professionnelle et organisationnelle peuvent
être fortement compatible (Wallace, 1993).Dans les structures à but non lucratif,
les médecins managers ne sont pas considérés comme étant en conflit avec les
valeurs de la profession (Lawrence, Mattingly, Ludden, 1997 ; Kuttner, 1998). Ils
peuvent cumuler implication professionnelle avec implication organisationnelle
(Hoff, 2001) si l’organisation propose des opportunités de développement et si
les valeurs de l’organisation de sont pas en conflits avec celles de la profession.
En conséquence, les valeurs de l’organisation associées à une réorganisation
des rôles et du pouvoir influencent l’implication de l’acteur de soins (Hackman et
Oldman, 1980).
Bien que l’introduction de la technologie organisationnelle ait des impacts
favorables tant sur le plan du contrôle, du pilotage et des ressources humaines,
certaines nuances sont à apporter : des problèmes demeurent non résolus, de
nouveaux enjeux se profilent.
DES AVANCEES A NUANCER
L’existence de slack budgétaire
La lisibilité dans le mode de financement de l’hôpital permet d’assurer une
transparence dans l’attribution des ressources à chaque pôle. Cependant de
nombreuses limites au PMSI existent :
• l’exhaustivité de la cotation des actes n’est pas assurée, toutes les
activités ne sont pas couvertes,
• le mode de cotation n’est pas toujours adapté aux caractéristiques de la
structure hospitalière,
• l’outil de tarification est parfois douteux, les groupes homogènes de
séjours sont inhomogènes en terme de coûts.
De nombreuses études ont montré que l’on ne peut exclure un détournement
de la tarification, de l’utilisation de l’outil, pour obtenir des ressources
supplémentaires dans les hôpitaux publics et les hôpitaux privés.
Sur ce point, le département des soins américains estime qu’en 1996, le
mauvais codage des actes médicaux représente 14% des remboursements.
En direct des laboratoires
335
Silverman et Skinner (2001) précisent que le surcodage des activités intervient
dans 25% des hôpitaux publics et 32% des hôpitaux privés. Ce détournement du
système d’information génère un surcodage, une pratique de mauvais codage et
classification de données du patient pour recevoir de plus forts remboursements
(Lorence et Richards, 2002), générant un biais budgétaire, voire un slack
budgétaire dans le sens de montant alloué à une division au delà de ce qui lui
est nécessaire (Merchant, 1985).
Le « surcodage » est défini par Simborg (1981) comme un décalage
volontaire et systématique dans les casemix reportés de l’hôpital, pour
augmenter le remboursement. Les motifs de décalages proviennent soit de «
caprices médicaux » soit de l’incertitude dans certains diagnostics. Toute nuance
mineure de diagnostic ou d’imprécision dans le libellé, peuvent avoir des effets
financiers majeurs sur le remboursement des DRG. En conséquence, il y a un
maintien de l’asymétrie d’information dans le cadre de la théorie de l’agence
(Fama et Jensen, 1976) entre l’hôpital, le médecin et la compagnie d’assurance
maladie ou l’organisation gouvernementale responsable des remboursements.
D’autres variables influençant le surcodage sont mises en lumière. Tout
d’abord, les caractéristiques du marché des soins montrent que lorsqu’il est
fortement dominé par des structures à but lucratif, le surcodage des actes
survient plus fréquemment que dans les marchés marqués par des structures à
buts non lucratif (Silverman et Skinner, 2004). On comprend aisément que le
contexte de compétition entre les établissements est à la source de ce
dysfonctionnement
Ensuite, la situation financière ainsi que la taille de l’hôpital ont également un
impact sur le surcodage : le surcodage est fortement corrélé par le partage de
profit. Les hôpitaux qui sont en situation financière favorable sont plus motivés
au surcodage (Silverman et Skinner, 2001). Toutefois on peut s’interroger dans
ce cas si la relation n’est pas plus complexe : le surcodage est-il une
conséquence d’une bonne santé financière de l’organisation ou est-il facteur
d’amélioration de la situation financière ?
De plus certains acteurs de l’organisation ont un impact sur le processus de
surcodage. Dafny (2003) montrent que les grands hôpitaux financent des
formations pointues aux administratifs chargés du codage des actes leur
permettant d’anticiper les opportunités du système. La cotation n’est pas confiée
aux médecins mais à des professionnels disposant d’une expertise dans le jeu de
la cotation, d’une connaissance dans la manipulation des codes.
Enfin, la complexité du système de codage s’accompagne d’une ambiguïté
des critères de classification. Dans une étude comparative Steinbush et al (2007)
montrent que les systèmes américain et australien peuvent être plus aisément
biaisés que le système hollandais. Trois critères distinguent les deux systèmes.
336
Management des Technologies Organisationnelles : Journées d’Etude 2009
Le premier concerne l’exhaustivité : les systèmes de codage américain ou
australien sont moins exhaustifs que le système hollandais (559 codes pour les
USA, 665 pour l’Australie, 29 000 pour la Hollande). Plus le système de cotation
est exhaustif, plus il est difficile de mal coder.
Le second critère est temporel : le codage intervient après la sortie du patient
aux Etats-Unis ou Australie rendant plus aisé de saisir les opportunités de
surcodage alors qu’en Hollande, le processus de codification débute dès la
première visite avec un spécialiste, permettant de suivre le patient dans tous les
services de soins qui sont intervenus au cours du traitement. Dans le premier
système, le changement de code est plus difficile qu’en Hollande qui attribue aux
médecins une plus grande latitude dans les choix et décisions.
Toutefois, un troisième critère, celui de la récompense, peut modérer cette
proposition. Les spécialistes hollandais sont responsables du codage effectué,
leur salaire dépend de leur activité, ils seraient ainsi plus enclins à pratiquer le
surcodage qu’aux Etats-Unis et Australie où les médecins sont des salariés de
l’hôpital.
Un nouvel enjeu : la qualité des soins
Dans une volonté de transparence et de performance tournée vers le patient,
une procédure d’accréditation est imposée en France par l’ordonnance du 24
avril 1996. Cette procédure a pour objet d’évaluer la qualité d’un établissement
hospitalier ou médico-social sur un ou plusieurs services ou activités. Trois
grands axes sont privilégiés : le patient et sa prise en charge, le management et
la gestion au service du patient, la qualité et la prévention.
Issue du secteur de l’industrie, cette démarche qualité est une « variable
discriminante sur le marché des soins hospitaliers » (Tanti-Hardouin, 2005),
accentuant la concurrence entre les établissements hospitaliers. Mais on peut
s’interroger sur sa portée pratique.
En effet, les nouvelles logiques de management par les résultats et
l’augmentation des contraintes budgétaires ne permettent pas d’exclure un
impact sur la qualité des soins.
Les études déjà menées aux Etats-Unis donnent des résultats contradictoires
laissant penser soit que d’autres facteurs interviennent dans l’évaluation de la
qualité, soit que la qualité doit être définie de manière plus large.
Pour Manton et al (1993), la qualité des soins se reflète dans l’augmentation
du taux de mortalité ou de réadmission à l’hôpital. Leurs travaux ne constatent
pas de changement après l’introduction des DRG. Dans le même sens,
Desharnais et al (1987) examinent le nombre de décharges signées depuis
l’introduction du nouveau mode de financement de l’hôpital et confirment ces
résultats sur les courts séjours malgré une augmentation observée des soins à
En direct des laboratoires
337
domicile. Aussi l’introduction des DRG n’a a priori pas d’impact sur la qualité des
soins.
Néanmoins, une nouvelle stratégie apparaît pour certains hôpitaux. Certains
établissements se spécialisent dans des DRG pour diminuer leurs coûts (Farley et
Hogen, 1990) ce qui réduit l’offre de soins de ces organisations et leur permet
d’être plus compétitif sur le marché de la santé. De même, pour diminuer les
coûts afférents aux pratiques, des spécialisations et routines peuvent se
développer afin d’augmenter la marge bénéficiaire (Guterman et al 1988, Farley
et Hogen, 1990). On est face à une sélection indirecte de patients sur certaines
pathologies jugées plus rentables pour la structure.
De part leur mission de service public et d’accueil de tout profil de patient, les
hôpitaux universitaires sont confrontés à un fort de taux de complications
(Desharnais et al 1987).
Cela peut se justifier par le fait que certains établissements cherchent à
sélectionner les patients dont le coût du soin est inférieur au forfait, ou traiter
certaines pathologies et ainsi à renvoyer les patients à l’hôpital public si la
traitement est jugé non rentable ou en cas de complication.
De manière plus globale, dans un contexte où la qualité risque de devenir un
enjeu stratégique, un arbitrage entre coûts et qualité est à faire. Bien que
l’objectif de l’ère managériale soit la réduction des coûts, William (1985) montre
que la procédure qui coûte initialement le moins cher n’est pas nécessairement
celle qui va fournir des résultats sur le long terme. Aussi un arbitrage doit être
fait entre court terme et long terme : est ce que la prise en charge du patient
aujourd’hui est optimale ou risque-t-elle de s’accompagner de complications
prévisibles qui engendrent plus de dépenses ?
En conséquence les effets de cette technologie organisationnelle demeurent
discutables au regard de la qualité et de la prise en charge du patient.
CONCLUSION
Cette étude a tenté de démontrer que les effets des les technologies
organisationnelles sont multiples. Dans le secteur français de la santé, où de
nombreuses réformes voient le jour, le manque de recul ne permet pas
d’analyser les conséquences du PMSI dans une logique de T2A et de
performance.
En revanche, appliquée aux Etats-Unis depuis les années 1980, cette
technologie organisationnelle a donné lieu à des nombreuses analyses. Certains
effets sont associés à une meilleure connaissance de l’organisation, une
identification du processus de la production du service et de la consommation
des ressources, de nouvelles stratégies pour les établissements de soins.
338
Management des Technologies Organisationnelles : Journées d’Etude 2009
L’émergence de nouvelles compétences et l’implication des acteurs
accompagnent le développement du système d’information.
D’autres effets plus préoccupant sont à soulever : maintien du slack
budgétaire ne permettant pas un pilotage financier au plus juste, une qualité de
la prestation discutable face aux contraintes financières pesantes, un risque de
sélection indirecte des patients.
Les limites de cette contribution sont nombreuses et peuvent faire l’objet de
nouvelles recherches.
On peut tout d’abord soulever le fait qu’il s’agisse d’une étude sur les effets
constatés aux Etats- Unis, Australie et Hollande. Il sera donc intéressant, de se
demander si les effets seront identiques en France ou s’ils sont modérés par la
variable culturelle.
De plus, nous avons souligné que la mise en place des systèmes de
tarification a donné des résultats contradictoires dans le domaine du surcodage.
Ces résultats ont été justifiés par un mode de contrôle différent entre les Etats –
Unis, Australie et Hollande. Le système français permet-il de surcoter, est ce que
les modes de contrôles sont suffisamment contraignants pour limiter ce biais
budgétaire ?
De même, nous avons tenté de présenter les conséquences de la mise en
œuvre de ces nouvelles logiques au regard du concept de performance de
Sicotte et al (1998). La difficulté réside dans la mesure de ce concept. Peut-on
dire que les objectifs initialement fixés sont atteints ? En effet, il semble que d’un
coté, l’implication des acteurs se soit accentuée notamment par le
développement de nouvelles compétences, celle du médecin manager. D’un
autre coté, le patient, au cœur du système de soins, risque de ne pas bénéficier
de la qualité des soins. En effet, les structures qui sont soucieuses de faire face
aux contraintes financières peuvent prendre des décisions, comme le
raccourcissement de la durée de séjour, contraires au bien être du patient.
Enfin, l’intensification du climat de compétitivité peut conduire l’hôpital public
à des stratégies d’isomorphismes. Comme le souligne Gimaldi (Le Monde, 22
avril 2004) « Cette vision gestionnaire s’accompagne volontiers d’une
représentation purement technique de la médecine où le médecin est un
ingénieur et un producteur de soins et le malade un « porteur d’organes », et un
consommateur de soins ».
Est-ce que cette nouvelle idéologie est compatible avec la mission de service
public de l’hôpital ?
En direct des laboratoires
339
REFERENCES BIBLIOGRAPHIQUES
Abernethy, M. A. and Chua,W. F. 1996. A field study of control systems ‘redesign’: the impact
of institutional processes on strategic choice, Contemporary Accounting Research,
vol 13, p.569–606.
Abernethy, M.S. and Lillis, A.M. 2001. Interdependencies in organization design: a test in
hospital, Journal of management accounting research , vol.13, p.107-129.
Abernethy, M.S, and Stoelwinder, J.U. 1995. The role of Professional Control in the Management
of Complex Organizations, Accounting, Organizations and Society, vol. 20, p.1-17
Abernethy, M.S, and Stoelwinder, J.U. 1990. The relationship between organizational structure
and management control system in hospital, Accounting, Auditing and Accountibility
journal,18-34.
Abernethy, M. A. and Vagnoni, E. 2004. Power, organization design and managerial behaviour,
Accounting, Organizations and Society , vol. 29 , p. 207-225.
Comerford S.E., Abernethy M.A.1999. Budgeting and the management of role conflict in
Hospital, Behavorial research in accounting, vol. 11, p.93-110.
Copur, H.1990, Academic professionals: A study of conflict and satisfaction in professiorate,
Human Relations: 113-127.
Cyert, R. M., and March, J. G. 1963. A behavioural theory of the firm. Englewood Cliffs, NJ:
Prentice-Hall.
Dafny, S. How do Hospitals respend to price changes? NBER Working paper n° 9972, 2003.
Desharnais, S., Kobrinski, E., Chesney, J., Long, M., Ament, R., and Fleming, S. 1987. The Early
Effects on the Prospective Payment System on Inpatient Utilization and the Quality
of Care, Inquiry, vol. 24, p.7-16.
Daft, R. L. 2001. Organization theory and design. 8th ed. St. Paul, MI: West.
DiMaggio, P. J. and Powell, W. W. 1983. The iron cage revisited: institutional isomorphism
in organizational fields, American Sociological Review, vol. 48, p.147–160.
Dunham, N.C, Kindig, D.A, and Schultz,R. 1994. The value of the Physician Executive Role to
Organizational Effectiveness and Performance, Journal of Applied Psychology, vol.
81, p. 358-368.
Farley, D., and Hogan, C. 1990. Specialization in the Market for Hospital Services, Health
Services Research, vol. 25, p. 757-781.
Ferlie E, Asburner L, Fitzgerald L, Pettigrew A. A nova administração pública em ação. Brasília,
Universidade de Brasília:ENAP,1999.
Fetter, R., Brand, D., Gamache, D. 1991. DRGs: Their Design and Development. Ann Harbor,
MI: Health Administration Press.
Gillespie, D. F., and Mileti, D. S. 1977. Technology and the study of organization: An
overview and appraisal,. Academy of Management Review, vol. 2, p. 7-16.
Gutterman, S., Eggers, P., Riley, G., Greene, T.,and Terell, S. 1988. The First 3 Years on
Medicare Porspective Payment: An Overview, Health Care Financing Review, vol. 9,
p. 67-77.
Hackman, J.R., and Oldham, G.R.1980. Work Redesign, Massachusetts: AdissonWesley
Publishing Company.
340
Management des Technologies Organisationnelles : Journées d’Etude 2009
Hafferty, F.W, and Light D.W 1995. Professional Dynamics and The Changing Nature of Medical
Work, Journal of Health and Social Behavior, vol.36, p.132-153.
Hall, R.H., Intraorganizational Strcutural Variation: Application of the Bureaucratic Model,
Readings in Organizational Behavior and Human Performance, Scott Jr.W.E; and
Cummings L.L (Eds), Homewood III., Richard D.Irvin, 1973.
Hall, R.H. 1967. Some organizational considerations in the professional organizational
relationship, Administrative Science Quaterly, 461-478.
Hoff, T.J.1998. Physician Executives in Managed Care: Characteristics and Job Involvement
Across Two Carrers Stages, Jourbal of Health Management, vol. 23, p. 481-497.
Hoff, T.J. 1999. The Social Organization of Physicians Managers in a Changing HMO, Work and
Occupations, vol. 26, p.324-351.
Hoff, T.J. 1999. The Paradox of Legitimacy: Physician Executives and the Practice of Medicine,
Health Care Management Review, vol. 24, p. 54-64.
Hoff, T.J. 2001. Exploring Dual Commitment Among Physicians Executives in Managed Care,
Journal of Healthcare Management, vol. 46, p. 91-111.
Hulin, C. L., and Roznowski M. 1985. Organizational technologies: effects on organizations’
characteristics and individual’s responses, Research in organizational behavior, vol.
7, p.39-85.
Kuttner, R. 1998. Must Good HMOs Go Bad?, New England Journal of Medicine, vol. 338, p.
1558-1563.
Lawrence, D.M., Mattingly, P.H., and Ludden, J.M.1997, Trusting in the Future: The District
Advantage of Nonprofit HMOs, The Milbank Quaterly, vol. 75, p.5-10.
Leicht, K.T., Fennell M.L.1997. The Changing Organizational Context of Professional Work,
Annual Review of Sociology, vol. 23, p.215-231.
Lorence, P., Richards, M. 2002. Variation in coding influence across the USA: risk and reward in
reimbursement optimization. Journal of Management in Medicine, vol. 166, p. 422435.
Manton, K., Woodbury, M., Vertrees, J., and Stallard, E. 1993. Use of Medicare Services before
and after Introduction of the Prospective Payment System, Health Services Reseach,
vol. 28, p. 269-292.
Mathieu, J.E., and Zajac, D.M. 1990. A review and Meta analysis of the Antecedents, Correlates,
and Consequences of Organizational Commitment, Psychological Bulletin, vol. 108,
p. 171-194.
Merchant K.A.1985. Budgeting and the Propensity to create budgetary slack, Accounting,
Organizations and Society ,vol. 10 201-210.
Mick, S.S., Innovation in Health Care delivery: Insights for Organization Theory, San Francisco,
Jossey-Bass, 1990.
Montgomery, K.1992, Professional Dominance and the Threat of Corporatization, In Current
Research on Occupations and Professions, vol. 7, edited by H.Z.Lopata. Greenwich,
JAI Press.
Rainey, H. G. 2003. Understanding and managing public organizations. San Francisco, JosseyBass.
Schneller, E.S., Greenwald, H.P., Richardson, M.L., and Ott, J. 1997. The Physician Executive:
Role in the Adaptation of American Medicine, Health Care Management Review, vol.
22, p. 90-96.
En direct des laboratoires
341
Scott, W.R.1966, Professionals in bureaucracies -Areas of Conflicts. In Professionalization, ed by
H.M. Volmer, and D.L.Mills. Englewood Cliffs, NJ: Practive Hall.
Scott, J.E.1998. Decision Support Systems, ed.Elsevier.
Sicotte, C., Champagne F., Contandriopoulos A.P., Barnsley J., Béland F., Leggat S.G., Denis
J.L., Bilodeau H., Langley A., Brémond M., Baker G.R. 1998. A conceptual
framework for the analysis of healthcare organizations’, Health Services
Management Research, vol. 11, p. 24-41.
Silverman, E., and Skinner, J. 2004. Upcoding across hospital ownership. Journal of Health
Economics, vol. 23, p. 369-389.
Silverman, E., and Skinner, J. 2001. Are for-profit hospitals really different? Medicare upcoding
and market structure.NBER working paper n° 8133; 2001.
Simborg, D. 1981. DRG creep: A new hospital- acquired disease, The New England Journal of
Medecine.
Steinbush, P.J.M, Oostenbrick J.B, Zuurbier J.J, Schaepkens F.J.M. 2007. The risk of upcoding in
casemix systems : A comparative study, Health Policy, vol. 81, p. 289-299.
Takagi, J. 2006. L’évolution du management des médecins américains, Revue française de
gestion, vol.168-169, p. 55-81.
Tanti-Hardouin, N. 2005. La recomposition de l’offre hospitalière, Cahiers Français, vol. 324,
p.60-65.
Tehrani, M., Montanari, J. R., and Carson, K. R. 1990. Technology as determinant of
organizational structure: a meta-analytic review, Proceedings of the annual meeting
of the Academy of Management.
Thévenet, M. 1992. L’implication des salariés dans l’entreprise. éd.Liaisons. Paris.
Vladek, B. 1985. Medicare Hospital Payment by Diagnosis Related Groups, Annals of Internal
Medecine, vol. 100, p. 576-591.
Wallace, J. 1995. Organizational
and Professional Commitment in Professional and
Noprofessional Organizations, Administrative Science Quaterly, vol. 40, p.228-255.
Williams, S. 1985. The Impact of DRG- Based Prospectiv Payment System on Clinical Decision
Making, Medical Decision Making, vol. 5, p. 23-29.
Woodward, J. 1958. Management and Technology, HMSO.London.
Woodward, J. 1965. Industrial organization: theory and practice. Oxford, Oxford University
Press.
342
Management des Technologies Organisationnelles : Journées d’Etude 2009
En direct des laboratoires
343
Qui sont les entrepreneurs hightech : le cas du secteur des TIC en
France
Frank ROBERT, Frank LASCH
Groupe Sup de Co Montpellier
Frédéric LE ROY
Université de Montpellier
RESUME
Malgré la forte croissance du secteur des TIC en France, peu de recherches
apportent des connaissances sur l’entrepreneur high-tech. De plus, les
entrepreneurs dans ce secteur hétérogène ne constituent pas une entité
homogène. Cette recherche cherche donc à déterminer si les entrepreneurs TIC
sont similaires à ceux des autres secteurs et si ceux-ci ont ou pas des profils
différenciés. Un échantillon composé de 469 entreprises nous a permis
d’identifier quatre profils d’entrepreneurs TIC dénommés respectivement
« cadres d’expérience », « jeunes diplômés sans expérience », « prévoyants » et
« kamikazes ».
INTRODUCTION
Les Technologies de l’Information et de la Communication (TIC) sont, depuis
le début des années 1990, un secteur en forte croissance dans de nombreux
pays européens. Après les controverses initiales aboutissant au paradoxe de
Solow, il est aujourd’hui communément admis que les TIC sont des facteurs
stratégiques améliorant la compétitivité d’un pays (Souter, 2004). Même
l’explosion de « la bulle internet » en 2000 n’a pas affecté cette tendance
générale. En 2004, l’INSEE a constaté un nombre toujours croissant d’entreprises
dans le secteur des TIC (Rieg, 2004) et la contribution des TIC au PIB de la
344
Management des Technologies Organisationnelles : Journées d’Etude 2009
France a été évaluée à 5% (Idate, 2004). Selon une étude de l'Eurostat (Meri,
2007), la France reste particulièrement dynamique, puisque le secteur des TIC
figure parmi les secteurs les plus entrepreneuriaux en termes de nombre de
création d’entreprises.
Malgré cette importance croissante des TIC, les recherches sur les spécificités
des firmes et des entrepreneurs TIC restent peu nombreuses. Le profil de
l’entrepreneur TIC reste ainsi mal connu.
FONDEMENTS THEORIQUES
L’entrepreneur TIC : homo incognitus ?
Rares sont les travaux qui traitent des entrepreneurs dans les TIC. Parmi ces
quelques travaux, Marvel et al. (2007) ont étudié l’expérience, l’éducation et les
connaissances originales en matière de technologie des entrepreneurs TIC. Ces
auteurs considèrent que le capital humain et le capital spécifique, notamment
l’éducation et la connaissance de la technologie, sont deux atouts cruciaux
concernant l’innovation. Marvel et al. (2007) concluent que le capital humain des
« technology entrepreneurs » leur confère des avantages uniques. De la même
façon, Wright et al. (2007) montrent l’influence positive des caractéristiques du
capital humain sur la réussite de l’entrepreneuriat technologique.
Plusieurs facteurs expliquent le fait qu’il y ait si peu de recherches sur
l’entrepreneuriat TIC. Un premier facteur réside dans le fait que définir le secteur
et identifier les entreprises et, donc, les entrepreneurs, qui le composent
constitue déjà un grand défi. Les différentes études chiffrent le nombre
d’entreprises et employés dans ce secteur avec des très grandes amplitudes qui
varient de 56.000 à 99.800 entreprises pour 705.000 a presque 1 million
d’employés (Cases, Favre & François, 1999 ; Heitzmann & Rouquette, 1999 ;
INSEE, 2000 ; 2001 ; Lombard & Roussel, 2001). Le problème des différences
fondamentales dans la définition du secteur des TIC et indiquent que le secteur
est constitué de trois grandes « filières » (haute technologie industrielle,
télécommunications et services informatiques) est ainsi soulevé. Les différences
ne se limitent pas aux découpages d’activités, mais aussi aux grosses différences
de taille entre entreprises d’un même secteur. La taille moyenne des firmes
travaillant sur les systèmes d’informations informatiques est de sept salariés tant
que les sociétés de haute technologie sont en moyenne composées de plus de
quarante salariés.
Un autre obstacle est la faible disponibilité de données et statistiques
(Chandler & Lyon, 2001). Cette difficulté peut alors expliquer l’hétérogénéité des
recherches et des résultats constatés dans la littérature. Cet état de fait aboutit
En direct des laboratoires
345
alors à une connaissance insuffisante du secteur des TIC et des spécificités des
entrepreneurs dans ce secteur émergent.
Plusieurs variables caractérisant l’entrepreneur indépendant du secteur
d’activité de apparaissent le plus régulièrement dans la littérature : le capital
humain général, l’expérience de l’entrepreneur, les activités préparatrices à la
création, la motivation de l’entrepreneur et l’implantation. Ces cinq variables
seront en conséquence utilisées pour notre étude.
Le capital humain général est composé de variables comme l’âge, le sexe, la
nationalité et la situation professionnelle du créateur avant de débuter son
activité. De même, le genre et la nationalité sont aujourd’hui au cœur des
développements les plus récents qui analysent, par exemple, le rôle de
l’entrepreneuriat féminin ou, encore, les caractéristiques des entrepreneurs d’un
même pays.
L’expérience de l’entrepreneur est également une variable très fréquemment
retenue (Filion, 1997). Elle regroupe la qualification de l’entrepreneur, ses
expériences professionnelles antérieures, et la connaissance du secteur. Savoir si
un entrepreneur expérimenté a plus de chance de réussite que les autres est une
question cruciale, notamment pour financeurs et les pouvoirs publics.
Les activités préparatrices à la création sont également déterminantes. Elles
concernent toutes les démarches entreprises par le créateur afin de se lancer
dans son projet. Le fait de se préparer semble être une des étapes nécessaires,
voire indispensables, à sa réussite.
La motivation de l’entrepreneur apparaît comme une variable majeure dans la
littérature entrepreneuriale. Enfin, l’implantation territoriale apparaît aujourd’hui
comme une variable incontournable pour appréhender l’entrepreneur. Celui-ci,
souvent fortement ancré à son territoire, semble réellement lié à la dynamique
de création d’entreprise de la zone dans laquelle il s’implante. Dans cette
perspective, identifier les zones les plus efficaces en la matière permet de
comparer les politiques locales en matière d’entrepreneuriat. Le cas échéant, les
zones les plus efficientes servent d’exemple pour celles désirant redynamiser leur
comportement en matière d’accompagnement.
METHODE
La base de données
L’étude empirique est fondée sur l’utilisation d’une base de données
administrée par l’INSEE nommée « Enquête SINE ». Les données utilisées
correspondent à des cohortes de firmes nouvellement créées depuis 1994 afin
d’observer les caractéristiques principales des entrepreneurs lors de la phase
346
Management des Technologies Organisationnelles : Journées d’Etude 2009
d’émergence du secteur TIC. En d’autres termes quelles sont les caractéristiques
principales des entrepreneurs se lançant dans le secteur TIC ? Nous focaliserons
notre analyse sur le secteur TIC, 469 entreprises constituent notre échantillon
dans cette branche.
Définition du secteur TIC
La définition du secteur TIC est fondée sur la NAF700. La définition que nous
utilisons est similaire à celle qui est majoritairement utilisée dans les publications
les plus récentes en France (Lasch, 2003 ; Lasch et al., 2004). Elle exclut le
secteur national des télécommunications (France Télécom), les industries
aéronautiques et spatiales, ainsi que les industries pharmaceutiques.
Conformément à cette définition, le secteur TIC est composé de trois branches
principales : les industries high tech (première catégorie de la définition de
l’OCDE), les services TIC (services informatique/logiciels et télécommunications,
R&D non universitaire), et les autres services à forte intensité de connaissances
(études techniques, analyses, tests et inspections). Cette délimitation couvre 20
sous-secteurs de la NAF700 avec 87.200 entreprises et plus de 710.000
employés en France en 2002 (Lasch, 2003). Leur part dans l’économie globale
est de 3,2% (5,0% de tous les emplois).
Mesures des variables et analyse
Afin de répondre aux questions posées, nous utiliserons les variables de la
base SINE qui correspondent aux caractéristiques les plus fréquemment observé
dans la littérature (Capital humain général, expérience, activités préparatrices à
la création, implantation). Dans une première étape, l’objectif sera de regrouper
les entrepreneurs en classes ou « groupes » afin d’identifier similitudes et
différences. A la suite de cette analyse descriptive nous réalisons, dans une
deuxième étape, une analyse typologique afin de répondre à la question suivante
« qui sont les entrepreneurs high-tech ? ».
RESULTATS
Caractéristiques des entrepreneurs TIC
Capital humain
Les entrepreneurs créent leur entreprise à 8,7% dans la haute technologie
industrielle, à 48,5% dans les services informatiques et de télécommunications
et à 42,8% dans les autres services à forte intensité de connaissances. Cette
population est majoritairement masculine (82,7%), comprise dans une tranche
En direct des laboratoires
347
d’âge de 30 à 49 ans (70% des entrepreneurs). Les entrepreneurs de moins de
25 ans et de plus de 50 ans représentent seulement respectivement 3,6% et
10,9% de la population étudiée.
Qualification
Une part importante des créateurs fait apparaître un niveau de qualification
élevé, un peu moins de 60% d’entre eux ont un niveau d’étude de minimum bac
plus deux. Quelques différences au niveau sous-secteur sont néanmoins à
constater : dans la haute technologie industrielle, 19% d’entrepreneurs
possédant un niveau de formation de minimum Bac +3 ou un diplôme
d’ingénieur. Le niveau de qualification est inférieur dans les deux autres sous
secteurs (services informatiques et télécommunications, services à fortes
connaissances : les entrepreneurs hautement diplômés sont deux fois plus
nombreux).
L’expérience professionnelle diverse et spécifique
L’expérience diverse du créateur peut être obtenue généralement durant ses
activités précédentes. De nombreux créateurs ont eu une expérience
d’encadrement (68%) préalable. Cette expérience de management provient dans
un emploi dans d’autres secteurs autres. Les entrepreneurs puisent leur
expérience professionnelle dans leurs activités précédentes mais également dans
leur entourage entrepreneurial (30% dans leur entourage proche et familiale) et
dans le nombre de création déjà réalisée (25%). Néanmoins, seul un quart des
entrepreneurs a eu une expérience entrepreneuriale avant la création de
l’entreprise en question.
L’expérience spécifique réalisée au sein du même secteur est mesurée par
l’expérience professionnelle antérieure dans un secteur en rapport avec l’activité,
la durée de cette expérience et la taille de l’entreprise où elle a été acquise. Les
entrepreneurs TIC ont principalement une expérience antérieure dans le même
secteur ou un secteur proche. La durée de cette expérience est pour un tiers des
entrepreneurs de trois à dix ans et pour deux tiers plus de dix ans.
Activités préparatrices à la création
La littérature distingue différents types d’activités préparatrices : les études
de la concurrence, les études techniques et financières, les formations
spécifiques à la création, le conseil auprès de consultants, etc. Les activités
préparatrices sont souvent mises en relation avec le succès de l’entreprise pour
leur importance, mais seulement 45,5% des entrepreneurs effectuent une réelle
étude technique pour préparer leur démarrage. Les entrepreneurs TIC semblent
plus préoccupés par l’aspect financier de leur projet que par l’étude à
348
Management des Technologies Organisationnelles : Journées d’Etude 2009
proprement parler de la concurrence (70% d’entre eux ont réalisé une étude
technique contre seulement 37,5% ayant effectué une analyse des futurs
concurrents, du marché). Concernant le conseil auprès des professionnels, une
part importante des entrepreneurs TIC utilise ce service, mais le temps investi
est souvent limité (trois jours pour 36% ; seulement 13,9% des entrepreneurs
affichent une durée plus importante). Les entrepreneurs ont recours au conseil,
mais étonnement 77,6% d’entre eux ne suivent aucune formation spécifique à la
création.
Quels sont les types d’entrepreneurs dans le secteur TIC
Déterminer le nombre de groupes
En accord avec l’analyse descriptive, lors de la classification hiérarchique des
entrepreneurs TIC les trois variables suivantes sont conservées : le capital
humain (sans la nationalité), l’expérience, et les activités préparatrices à la
création.
L’utilisation dans un premier temps de l’algorithme de classification
hiérarchique permet de définir le nombre de sous groupes éventuels
d’entrepreneurs. Pour cela la méthode de partition optimale est mise en œuvre,
la lecture de la chaîne d’agrégation, du diagramme en stalactite verticale et du
dendrogramme nous laisse envisager quatre sous groupes : 175 entrepreneurs
pour le premier, 40 pour le second, 95 pour le troisième, et 159 pour le
quatrième.
Déterminer les discrimantes de chaque groupe
Pour chaque variable la comparaison des fréquences avec celle de la
population affecte un nom aux quatre groupes. L’écart positif signifie que le
groupe a une proportion d’entrepreneur supérieure pour une variable à la
fréquence de la population totale des entrepreneurs de notre échantillon.
Groupe 1 : « Les cadres expérimentés »
Ce groupe est caractérisé par les entrepreneurs de moins de 39 ans. On
constate qu’il existe une proportion plus importante de jeunes entrepreneurs 2529 ans que dans la population totale des entrepreneurs TIC (21,4% de plus).
Ces entrepreneurs affichent un niveau de formation élevée avec une part
importante de bac +3 et plus. Autres caractéristiques sont l’expérience dans le
secteur TIC, une durée d’expérience supérieure à 10 ans, majoritairement
obtenu dans le cadre d’un emploi dans une grande entreprise (de plus de 500
employés), peu de formation à la création d’entreprise suivi.
En direct des laboratoires
349
Groupe 2 : « Les jeunes diplômés »
Le deuxième groupe se caractérise par d’entrepreneurs (moins de 25 ans)
plus jeunes comparé à la population globale, un entourage familial
entrepreneurial très présent, une faible expérience professionnelle dans le
secteur TIC et très peu d’expérience de cadre et de manager. La durée de leur
expérience et la taille de l’entreprise du dernier emploi montre un écart
important entre ces jeunes entrepreneurs et les entrepreneurs TIC dans
l’ensemble.
Groupe 3 : « Les biens préparés »
Ce groupe est composé d’entrepreneurs ayant eu une fonction d’agent de
Maîtrise (expérience professionnelle préalable), mais avec comparativement peu
d’expérience entrepreneuriale. Ce manque d’expérience entrepreneuriale semble
être compensé par des formations spécifiques à la création. Fortement
demandeur de ce type de formation, leur niveau de préparation (étude de
marché, de la concurrence, financière, etc.) à la création est le plus important
que celui des autres entrepreneurs du secteur.
Groupe 4 : « Les kamikazes »
Ce type d’entrepreneurs affiche un faible niveau d’éducation (dernier
diplôme) et de qualification passée (expérience professionnelle). Principalement
des employés et des ouvriers sans expérience de création, ce type
d’entrepreneur tient son expérience dans des emplois en petite entreprise. La
durée de leur expérience est inférieure à celle constatée pour le secteur. En
revanche, la durée de l’expérience acquise dans des secteurs différents est
supérieure à celle constatée dans le secteur TIC. Ces entrepreneurs sont donc
mal préparés à la création d’entreprises dans le secteur TIC et ne suivent que
très peu les formations en ce sens.
CONCLUSION
Nos résultats permettent de rendre justice à une représentation parfois
caricaturale du profil des entrepreneurs dans le secteur TIC. L’image simpliste de
la start-up technologique fondée par un jeune ingénieur visionnaire s’efface
devant des résultats beaucoup plus contrastés. Si, dans l’ensemble,
l’entrepreneur TIC a un haut niveau de formation, une bonne connaissance du
secteur et de l’expérience, différents types d’entrepreneurs très contrastés
apparaissent. Il y a finalement peu de lien entre les entrepreneurs du groupe 1
et les entrepreneurs du groupe 4. L’entrepreneuriat TIC, pour ses particularités
et de sa diversité, mérite des recherches qui lui soient spécifiques.
350
Management des Technologies Organisationnelles : Journées d’Etude 2009
Dans l’ensemble, les résultats montrent que l’entrepreneuriat TIC est
différent de l’entrepreneuriat classique, notamment du fait d’un niveau de
formation supérieur. Quatre groupes différents d’entrepreneurs dans le secteur
TIC sont identifiés, que nous avons nommés « les experts », « les jeunes
diplômés », « les bien préparés » et « les kamikazes ». Ces résultats ne peuvent
être compris que relativement aux limites de l’étude. Il serait alors intéressant de
tester la portée des résultats obtenus en utilisant d’autres données sur la
création d’entreprises dans le secteur TIC français, notamment en utilisant des
données issues d’une période plus récente. Cette nouvelle analyse permettrait,
d’une part, de confirmer ou non les résultats obtenus, et, d’autre part, de mettre
en évidence une éventuelle évolution des catégories d’entrepreneurs après
l’explosion de la bulle internet en 2000.
Enfin, une des voies de recherche futures parmi les plus prometteuses serait
de croiser le type d’entrepreneur (groupe 1 à 4) avec la performance (survie,
succès). A priori, le groupe 1, composé des « experts » devrait connaître de bien
meilleures performances que le groupe 4, composé des « kamikazes ». Seules de
nouvelles recherches permettront de valider ou de réfuter cette hypothèse, alors
qu’elle peut être fondamentale pour des investisseurs publics ou privés.
REFERENCES BIBLIOGRAPHIQUES
Cases C., Favre F., François J. P. (1999), « L’innovation technologique dans les services aux
entreprises », Le 4 pages des statistiques industrielles.
Collin J., Moore D. (1970), The Organization Makers, Appleton-Century-Crofts.
Chandler G. N., Lyon, D. W. (2001), « Methodological Issues in Entrepreneurship Research: The
Past Decade », Entrepreneurship Theory & Practice, vol. 25, n°4, p. 101-113.
Filion L. J. (1997), « Le champ de l’entrepreneuriat : historique, évolution, tendances », Revue
Internationale PME. vol. 10, n°2, p. 129-172.
Fritsch M., Niese M. (2000), « Der Einfluss der Branchenstruktur auf das Gründungsgeschehen eine Analyse für die westdeutschen Raumordnungsregionen 1983-1997 »,
Geographische Zeitschrift, vol. 88, p. 234-250.
Heitzmann R., Rouquette C. (1999), « Les technologies de l’information et la communication :
5% du PIB » in INSEE Première, vol. 648, n°1.
Institut de l’Audiovisuel des Télécommunications en Europe (IDATE) (2004), « Compétitivité du
secteur TIC en France ». Etude réalisée pour le Ministère de l’Economie, des
Finances
et
de
l’Industrie
http://www.energie.minefi.gouv.fr/biblioth/docu/dossiers/ntic/pdf/4pagescompet.pd
f.
INSEE (2000), L’Economie française. Edition 2000-2001, Livre de Poche
En direct des laboratoires
351
Jaouen A. (2008), « Dirigeants de TPE et construction des alliances stratégiques : une analyse
par les liens », in Gundolf K. & Jaouen A. (éds), Les relations interorganisationnelles
de PME, Hermès Publishing, Lavoisier.
Julien P-A., Marchesnay M. (1988), La petite entreprise : principes d’économie et de gestion,
Vuibert.
Julien P-A., Marchesnay M. (1992), « Des procédures aux processus stratégiques dans les PME.
», Picola Empressa, n°2.
Julien P-A., Marchesnay M. (1996), L’entrepreneuriat, Economica Gestion Poche.
Hauknes J., 1999, « Knowledge Intensive Services – What is their Role? », in OECD Business
and Industry Policy Forum on Realising the Potential of the Service Economy:
Facilitating Growth, Innovation and Competition, Paris.
Lafuente A., Salas V. (1989), « Types of entrepreneurs and firms: the case of new Spanish firms
», Strategic Management Journal, vol. 10, n°1, p. 17-30.
Lasch F. (2003), « Innovations- und technologieorientierte Neugründungen in Frankreich. Eine
Untersuchung
von
Einflussfaktoren
auf
regionale
Disparitäten
im
Gründungsgeschehen in Informations- und Kommunikationstechnologien (1993 bis
2001) – La création d’entreprises dans le secteur des technologies de l’information
et de la communication (TIC) en France. Une analyse des facteurs déterminants de
la création régionale et une étude des déterminants de la survie et du succès des
jeunes
entreprises
(1993
à
2001)
».
Regensburg:
Beiträge
zur
Wirtschaftsgeographie Regensburg, Vol. IV.
Lasch, F., Le Roy, F. et Yami, S. (2004), « New firm formation in ICT sectors in France (19932001) », in M. Dowling, J. Schmude, D. Zu Knyphausen-Aufsess (éds.), Advances in
Interdisciplinary European Entrepreneurship Research, vol. 2, p.199-230.
Lasch F., Le Roy F. et Yami S. (2005a), « Les déterminants de la survie et de la croissance des
start-up TIC », Revue Française de gestion. vol. 31, p. 37-56.
Lasch. F., Le Roy F. et Yami S. (2005b), « L’influence de l’environnement socio-économique sur
la création d’entreprises TIC : le cas de la France », Revue Finance-ContrôleStratégie. vol. 8, n°1, p. 73-108.
Laufer J. (1975), « Comment on devient entrepreneur », Revue Française de Gestion. vol. 2, p.
11-23.
Lombard D., Roussel P. (2001), « Rapport du groupe de travail sur l’observation statistique du
développement des technologies de l’information et de la communication et de leur
impact sur l’économie », Conseil National de l’Information Statistique, Paris
Marchesnay M. (1998), « Une vision renouvelée du risque entrepreneurial » in Actes du colloque
de l’AIRE-PME, Metz-Nancy.
Marvel M.R., Griffin A., Hebda J., Vojak B. (2007), « Examining the Technical Corporate
Entrepreneurs’ Motivation: Voices from the Field », Entrepreneurship Theory and
Practice, vol. 31, n°5, p. 753-768.
MEFI, SESSI, (2001), « L’industrie française des technologies de l’information et de la
communication », SESSI Chiffres clés, Hors Série Production Industrielle.
Meri T. (2007), « L’emploi régional dans les secteurs de la haute technologie. L’Ile-de-France en
tête», Eurostat - Science et Technologie, Statistiques en Bref, n° 102, p. 1-8.
Miles R.E., Snow C.C., Meyer A. D., Coleman H. J. (1978), « Organisational Strategy, Structure
and Process », The Academy of Management Review, vol. 3, n°3, p. 546-562
352
Management des Technologies Organisationnelles : Journées d’Etude 2009
Miner J. B., (1990), « Entrepreneurs, High Growth Entrepreneurs, and Managers: Contrasting
and Overlapping Motivational Patterns », Journal of Business Venturing, vol. 5, n°4,
p. 221-234.
Miner J. B. (1997), « A psychological typology and its relationship to entrepreneurial success »,
Entrepreneurship and Regional Development, vol. 9, n°4, p. 319-334.
Rieg C. (2004), Forte hausse des créations d’entreprises en 2003 in INSEE Première, n°944.
Smith N. R. (1967), « The Entrepreneur and His Firm : The Relationship Between Type of man
and Type of company », East Lansing.
Souter D. (2004), « ICTs and economic growth in developing countries », The Dac Journal,
n°5(4), p.11-40.
Ucbasaran D., Westhead P., Wright M. (2001), « The focus of entrepreneurial research:
contextual and process issues », Entrepreneurship Theory and Practice, vol. 24,
n°4, p. 25-80
Vega G., Kidwell R. E. (2007), « Toward a Typology of New Venture Creators: Similarities and
Contrasts Between Business and Social Entrepreneurs », New England Journal of
Entrepreneurship, vol.10, n°2, p. 15-28.
Wright M., Hmeleski K. M., Siegel D. S., Ensley M. D. (2007), « The Role of Human Capital in
Technological Entrepreneurship », Entrepreneurship Theory and Practice, vol. 31,
n°6, p. 791-806.
Téléchargement