PDF 1.1 Mo M2.1 - Sequence 4

publicité
MASTER II ECONOMIE ET GESTION
Spécialité Management des Organisations de la Neteconomie
MODULE D01 - Séquence 4
INTRODUCTION
I. DU MANAGEMENT DE L'INTELLIGENCE ORGANISATIONNELLE
1.1. De l'émergence du concept de benchmarking
1.2. A sa mise en oeuvre
II. AU MANAGEMENT DE L'INTELLIGENCE COLLECTIVE
2.1. De l'émergence du concept d'intelligence collective
2.2. A sa mise en oeuvre
CONCLUSION
BIBLIOGRAPHIE
SITOGRAPHIE
QUIZ 1
QUIZ 2
APPLICATION 1
APPLICATION 2
APPLICATION 3
DIAPORAMA
Auteur : M. Alain DEPPE
: [email protected]
MANAGEMENT DE L'INFORMATION ET COMPETITIVITE DES
ORGANISATIONS
Séquence 4 : Du Management de l'Intelligence Organisationnelle au Management
de l'Intelligence Collective
Objectif général :
- Comprendre l'importance de l'économie de l'information dans les dynamiques
de changement organisationnel et de reconfiguration identitaire
Objectifs intermédiaires :
- Reconnaître et caractériser les différents types de benchmarking
- Mettre en place une opération méthodologique de benchmarking au sein de l'entreprise
en respectant les différentes étapes
- Distinguer les différentes formes de l'Intelligence Collective
- Percevoir la nécessité d'une évolution du comportement de l'entreprise et de ses acteurs
INTRODUCTION
La logique de compétition internationale sous-tendue par la globalisation se traduit par
des modifications en profondeur de l'environnement économique. Dans ce cadre, nous avons
vu que l‛information était perçue à la fois comme un capital (à la valeur économique évaluable
et croissante), comme un nouveau matériau stratégique (permettant des gains de
productivité) et surtout comme un facteur de stabilité (utilisé à la fois comme une
arme défensive pour trouver les parades aux menaces et comme une arme
offensive d‛influence pour tirer profit des opportunités qui se présentent). Le traitement,
la gestion et le partage d‛informations ne se limitent plus seulement à l'intégration des
TIC dans les pratiques managériales ou à la mise en place de cellules de veille. Ces
opérations sont devenues des axes prioritaires de développement qui passent
nécessairement par un traitement optimal de l‛information stratégique pour favoriser
la décision et la mise en place de stratégies de changement. Le règlement des
difficultés inhérentes aux échanges entre les individus a conduit les organisations à opérer
une révolution des pratiques à partir desquelles, tout d'abord, l'intelligence humaine a révélé
la capacité qu'ont les individus à mutualiser leurs savoir faire. De là à penser que
le développement des connexions interpersonnelles pouvait générer corrélativement
un accroissement de l'intelligence organisationnelle, il n'y avait qu'un pas allègrement
franchi au cours des années 90 par les entreprises qui ont bien saisi les enjeux de
la compétitivité et de la performance au sein de la société de l'information. Après
avoir présenté, dans une première partie, les fondements et les outils du Management
de l'Intelligence Organisationnelle (MIO), la séquence développera, dans une deuxième
partie, les différentes dimensions du Management de l'Intelligence Collective (MIC).
I. DU MANAGEMENT DE L'INTELLIGENCE ORGANISATIONNELLE
Si les fondements du MIO apparaissent déjà en filigrane, au début du XXe siècle, dans
les travaux de Taylor (l'observation empirique des comportements et des
performances individuelles permet d'établir un référentiel des compétences à partir
des meilleures pratiques identifiées dans l'entreprise et de systématiser au sein
de l'organisation un modèle d'efficacité généralisable), chacun s'accorde à considérer
que cette technique a été développée, sous le nom de benchmarking, au début des années
80, dans la sphère industrielle puis importée dans la sphère publique par l'Ecole du New
Public Management.
1.1. De l'émergence du concept de benchmarking
A l'ère du numérique, les changements rapides dans l'environnement de
l‛entreprise réclament une réactivité immédiate ; c‛est pourquoi il convient d'en connaître
les caractéristiques et les outils de sa mise en œuvre
1.1.1. Le développement du concept
La paternité du concept de benchmarking semble revenir, si l'on en croit la
littérature managériale, à la société américaine Rank Xerox.
1.1.1.1. La propagation du concept
Durement attaquée, au milieu des années 70, par la concurrence japonaise (Canon,
Minolta, Ricoh, Sharp), la société Rank Xerox (leader mondial des photocopieurs au milieu
des années 70 avec plus de 80 % de part de marché) perd, en moins de cinq années, la
moitié de ses parts de marché (elle passe de 82 % à 41 % entre 1976 et 1981).
L'analyse menée sur
la compétitivité des produits concurrents (aussi bons et moins chers) par Robert
Camp (Directeur chez Xerox du programme intitulé « Product quality and
features comparisons ») montre que la réponse que Rank Xerox doit apporter à cette
situation problématique se situe au niveau du processus de production lui même.
Elle constate, en particulier, que l‛un des éléments sur lequel s'appuient les
concurrents japonais est l‛échange sur les "best practices" qui s'effectuent entre
entreprises d‛activités différentes appartenant au même "keiretsu". Plutôt que de
réfléchir seules dans leur coin sur leurs pratiques managériales, les entreprises
japonaises avaient compris l'intérêt d'accroître leur intelligence organisationnelle au travers
la capitalisation des expériences de leurs partenaires en identifiant celui ou ceux
qui réalisaient de la manière la plus performante un processus ou une tâche, en les
observant et en adaptant ensuite ce processus à leur propre organisation (encadré 1).
Confronté à une situation financière critique, Xerox décide alors de réagir et de
s'intéresser, à son tour, aux meilleures pratiques de ses partenaires et de la concurrence
et de se comparer aux meilleures entreprises dans ses différentes fonctions ou métiers.
La société décide, pour accroître l'efficacité de son propre MIO, de se comparer
aux entreprises réputées pour exceller dans un des maillons de sa chaîne de valeur
(une société de vente d‛articles de sport par correspondance, L.L. Bean, qui excellait pour
la gestion des commandes, l'entreprise Toyota pour le pliage des tôles, et d'autres
encore reconnues pour leur expertise dans tel ou tel processus managérial).
Dès 1981, la pratique du benchmarking (néologisme fabriqué à partir de la contraction de
deux locutions qui sont bench testing - banc d'essai - et marking - notation -) fut appliquée
à l ‛ensemble des activités du groupe sous la forme d'un processus d'évaluation continu
des méthodes des entreprises leaders.
Xerox ne s'est pas contenté, en l'occurrence, d'importer un modèle conceptuel performant
au sein de son dispositif organisationnel ou de dupliquer une méthode qui a fait ses
preuves. Grâce à elle, le concept de benchmarking a fait acte de propagation nomade
dans l'ensemble des sociétés américaines en partie grâce à Robert Camp qui
définit simplement la discipline comme « la recherche des méthodes les plus
performantes pour une activité donnée, permettant de s‛assurer une supériorité ».
L‛emploi effectif
du benchmarking
s'est généralisé à
tous les secteurs,
tant au niveau
géographique qu'à
celui des domaines
d'application.
Le benchmarking
implique toutefois
de connaître sa
propre organisation
avant de vouloir se
renseigner sur
celles des autres.
Il suppose donc que
l'entreprise réalise
une analyse très
détaillée de son
propre processus
et détermine les
indicateurs
(encadré 2) qui
vont lui permettre
de mesurer ses propres performances et de les comparer.
Ces indicateurs (benchmarks pour se comparer soi-même avec le ou les meilleurs dans
le domaine concerné ou scoregards pour mesurer la performance de l'entreprise par rapport
à des objectifs prédéfinis) devront à la fois correspondre aux pratiques internes
de l'entreprise et à celles du secteur d'activité dans lequel elle se trouve. Leur sélection
est du domaine de responsabilité du décideur. Son objectif sera d'assurer la comparabilité
qui sera de fait elle-même un indicateur de base dans la mise en place de la démarche
du benchmarking.
Ce type d'activités est à la base même de la définition des politiques marketing de
la démarche opérationnelle. Le benchmarking, discipline apparue récemment dans
les entreprises, est ainsi souvent considéré comme une extension, voire une généralisation
de la démarche marketing et des analyses concurrentielles et/ou des pratiques de
veille afférentes comme le montre le tableau ci-dessous (tableau 1)
Cette approche met en évidence le lien étroit entre les pratiques mercaticiennes et
la démarche des benchmarkers pour lesquelles les analyses concurrentielles
apparaissent comme un trait d'union.
Tableau 1 - Le benchmarking, extension de la démarche marketing
Recherche marketing
Analyse concurrentielle
Benchmarking
Objectif
global
Analyser les marchés,
leur segmentation,
l'impact des produits
Analyser les stratégies des
concurrents (à leur insu)
Analyser ce que font les
meilleurs, pourquoi et
avec quels résultats
Principal objet
d'étude
Les besoins des clients
Les stratégies concurrentes
Les méthodes qui répondent
aux besoins des clients
Champ
d'application
Les produits et services
Le marché et les produits
Les méthodes aussi bien
que les produits
Limites
Porte essentiellement sur
la façon dont les besoins
des clients sont satisfaits
Les activités du marché
Pas de limites : benchmarking
interne, concurrentiel, ou
fonctionnel
Sources
d'information
Les clients
Les analystes
Les meilleurs dans la
fonction et les concurrents
Le benchmarking correspond au troisième niveau d‛intervention (ampleur de veille très
réduite et comportement de l‛entreprise très actif) et s‛apparente à une surveillance
assidue et rapprochée d‛un acteur au sein de l‛environnement pendant un temps limité
(Encadré 3)
. Cette
activité implique
la mobilisation
d‛une
équipe
polyfonctionnelle
qui aura pour
mission d‛apporter
les réponses les
plus pertinentes
au
problème
rencontré.
D‛autres
objectifs
peuvent
être
recherchés comme
les gains
de
productivité, l‛aide
à la
décision
stratégique,
la
recherche
d‛innovation,
l‛amélioration
permanente,
l‛évaluation
des
services
fonctionnels,
la recherche
de partenariat…
Il est
devenu aujourd'hui l'un des outils de management et d'amélioration de l'efficacité
préférés des entreprises (le benchmarking est considéré comme la technique de
management préférée des entrepreneurs européens) et est mis en œuvre à la suite de l'un
des facteurs déclenchants suivants (perte de marché important, perte de rentabilité,
arrivée de produits de substitution, audit de l'entreprise,...)
1.1.1.2. Le changement de perspective
Selon David Keans, de la Xerox Corporation, "Le benchmarking est un processus continu
et systématique d'évaluation de nos produits, services et méthodes par rapport à ceux
des concurrents les plus sérieux ou des entreprises reconnues comme leaders (il ne s‛agit
pas d‛imiter son concurrent mais de comprendre le fonctionnement de processus importants)."
Selon l‛AFNOR, le benchmarking est "un processus d‛étalonnage qui consiste à mesurer et
à comparer en permanence les processus opérationnels de l‛entreprise par rapport à ceux
des leaders" en vue d'obtenir un avantage concurrentiel.
L‛expression française la plus souvent utilisée pour traduire le concept de Benchmarking
est "étalonnage concurrentiel" (encadré 4) qui pourrait être assimilée à "une technique
de management qui consiste à apprendre des entreprises, considérées comme leaders dans
leur domaine ou fonction, ce qu‛elles savent faire le mieux pour l‛adapter en l‛améliorant si
cela est possible (la collecte de l'information passe avant tout par un échange
d'informations ouvert et réciproque entre les partenaires)".
Cette étude comparative
est menée, au niveau de
certains produits ou
services, process ou
techniques commerciales,
systèmes ou méthodes de
gestion, afin d'identifier
de nouvelles pratiques de
travail en vue de :
- permettre à
l'entreprise d'aborder ou
supporter des
changements
stratégiques et
d'améliorer sa
compétitivité,
- réduire les coûts,
- mieux répondre aux
besoins clients et
améliorer le niveau de
satisfaction de la
clientèle,
- motiver le personnel sur
la base d'objectifs
pertinents et réalistes,
- valider le progrès
réalisé à l‛intérieur d‛une
démarche d‛amélioration
continue de l‛efficacité,
A l'origine, la notion de
Benchmarking
(littéralement: marquage
des frontières et des
territoires ) ou
positionnement relatif
empruntée au référentiel sémantique militaire consistait à connaître le plus
précisément possible la composition et l‛armement des troupes de l‛adversaire pour mieux
le contrer.
La pertinence du benchmarking dans le monde contemporain s'appuie sur l'idée que
l‛avantage concurrentiel provient aujourd‛hui tout autant de la position relative que l‛on a sur
un marché que de la force absolue de l‛entreprise.
Dans l‛industrie et dans le secteur privé, où le benchmarking a pris naissance, le
benchmarking est aujourd'hui de plus en plus orienté vers les procédures commerciales, et
de moins en moins vers la production ou les activités de services. Sur les dix processus les
plus couramment soumis à évaluation dans les entreprises se trouvent par exemple «
les technologies des systèmes d‛information » et « le développement des mesures
de performance ».
Dans un premier temps, les entreprises ont commencé à mettre en place les stratégies de
« reverse engineering » (définie comme une démarche qui consiste à démonter
matériellement les produits concurrents) afin de déterminer les facteurs explicatifs de
la performance compétitive et d‛obtenir, à partir de cette approche imitative sommaire,
des résultats semblables ou plus performants. Dans un second temps, les entreprises, par
le biais des démarches dites de "Qualité totale" substituent à la logique de
l'efficience productive, jugée trop restrictive, la finalité de l'excellence organisationnelle.
De fait,
l'exigence
de compétitivité
fait apparaître,
au sein même
des organisations,
de nouveaux
profils
de compétences
et dessine
des
architectures
sociales à
plat
coordonnant,
dans des
structures à géométrie variable, les comportements individuels et les acteurs collectifs sur
le principe bien compris de la coopétition (innovations organisationnelles qui consistent
à introduire la concurrence sur les marchés internes par la mise en place d'intraprises).
L'exercice permanent de comparabilité auquel doivent dorénavant se livrer les entreprises
en mettant leurs performances à l'aune de l‛étalon généré par la compétition marchande
se trouve formalisé, dans les années 80, avec la pratique du benchmarking, dont les
objectifs (encadré 5) ont été résumés par Robert Camp en une phrase : « Qui veut
s‛améliorer doit se mesurer, qui veut être le meilleur doit se comparer».
Alors que la taylorisation et le partage des tâches recherchaient la standardisation de
la méthode la plus efficace, le benchmarking, pris comme vecteur de changement culturel
au sein des organisations considérées dorénavant comme apprenantes, place l'ensemble
des facettes d'une organisation (produits, services, méthodes, processus de fabrication,
de commercialisation...) sous tension compétitive en introduisant l'étalonnage
des performances.
1.1.2. A la formalisation du concept
La littérature managériale a classifié les types de benchmarking, et élaboré des
guides méthodologiques détaillés qui reproduisent les cinq séquences du processus
itératif suivi par Robert Camp (planification, analyse, intégration, action, rétroaction)
qui seront étudiées dans le point 1.2.2.
1.1.2.1. L'approche typologique
Ces classifications, établies selon la nature ou la fonction du mode d'évaluation retenu
par Robert Camp, mettent en évidence quatre principales catégories de benchmarking,
d‛autant plus variées qu‛elles s‛avèrent brouillées par le croisement des genres. On distingue :
- le benchmarking interne (par rapport aux services internes de l‛entreprise)
Il consiste à comparer les fonctions, les processus ou les opérations similaires entre
des services d'une même entreprise ou entre différentes filiales. Il est généralement
utilisé dans le cadre d'une première expérience. L‛avantage est caractérisé par une plus
grande facilité à partager des informations confidentielles à l‛intérieur d‛une
même organisation. L'adaptation est également facilitée puisqu'elle porte sur le même
métier. En revanche, l'entreprise ne peut s'attendre à mettre en évidence des pratiques
très innovantes puisque celles-ci s'intègrent dans un contexte de culture d‛entreprise avec
des projets et des objectifs communs. L'amélioration attendue des performances
est d'environ 10 %.
- le benchmarking concurrentiel (par rapport à des producteurs de
produits concurrents)
Le benchmarking auprès des concurrents directs consiste à comparer les produits
de l'entreprise par rapport aux meilleurs produits concurrents présents sur le marché et
qui sont porteurs de réelles sources d‛améliorations intéressantes. L‛avantage de choisir
ce type de benchmarking réside dans la facilité de partir d‛éléments de mesure
facilement comparables. Le benchmarking concurrentiel est assez facile à utiliser au
niveau des produits (il suffit de les acheter), mais plus délicat au niveau fonctionnel (il
exige alors savoir-faire et respect mutuel des partenaires). Par contre, c‛est pour ce
type d'évaluation qu‛il est le plus difficile d‛obtenir des informations car il trouve ses
limites dans la confidentialité (il convient de ne pas négliger l'aspect propriété industrielle,
et le risque de se positionner en tant que contrefacteur). L'amélioration attendue
des performances est d'environ 20 %.
- le benchmarking fonctionnel (par rapport aux services extérieurs et leaders
dans la fonction à benchmarker)
Le benchmarking orienté vers une fonction consiste à comparer des fonctions
similaires, génératrices de valeur ajoutée, dans des entreprises non concurrentes, à
l‛intérieur d‛un même secteur d‛activité. Il concerne des méthodes d'organisation et
de gestion (achats, logistique, SAV, recouvrement de créances, gestion
clients, recrutement, ...). Du fait qu‛il n‛y a pas de concurrence directe, il devient alors
facile d‛obtenir et d‛échanger des informations (mêmes confidentielles) et cela permet
de déboucher sur des techniques novatrices (encadré 6). En effet, une entreprise,
"leader" dans un secteur donné, a tout à gagner à partager des informations avec
des entreprises non concurrentes car sa position peut changer rapidement. Ainsi, de
véritables réseaux de collaboration peuvent se développer. Il permet une ouverture et
un apport créatif non négligeables, mais représente un investissement temps
important (difficulté d'identifier des "best in class" volontaires). Cependant, il est limité à
des processus universels et comparables. L'amélioration attendue des performances
peut dépasser 35 %.
Encadré 6 - Les règles du Benchmarking à connaître sur le bout des doigts
1. Ne jamais demander à votre partenaire de benchmarking (c‛est à dire l‛entreprise ou le groupe avec
lequel vous avez choisi de partager des informations) des informations que vous ne voudriez pas
communiquer sur votre entreprise.
2. Si vous avez le moindre doute sur le niveau de confidentialité d‛une réponse attendue par votre
partenaire, ne la communiquez pas avant de vous être assuré de son niveau de sensibilité ou d‛avoir
signé un accord de confidentialité.
3. Un benchmarking bien conduit doit déboucher sur un partage d‛informations mutuellement
bénéfique.
4. Le contact initial avec le partenaire de benchmarking devra être mené comme s‛il s‛agissait de nouer
une relation amicale et durable.
5. Rappelez-vous qu‛une entreprise ne peut être la meilleure dans tout ce qu‛elle fait. Ce n‛est pas
parce qu‛une équipe de benchmarking aura déterminé que telle entreprise est meilleure que vous pour
tel processus, qu‛elle est aussi la meilleure sur tel autre que vous avez décidé de comparer.
6. Respecter tous les engagements passés avec votre partenaire.
- le benchmarking générique ou horizontal (par rapport aux processus ou
aux méthodes de travail)
Le benchmarking horizontal qui consiste à comparer ses pratiques, ses méthodes de
travail, avec celles de l‛organisation d‛un secteur totalement différent (Ex : élaboration de
la stratégie, service client, prise de commande, ...). Il est assez proche du
Benchmarking Fonctionnel, à la différence qu‛il consiste à adapter une technologie (ayant
fait ses preuves) très éloignée de son propre secteur. Dans la pratique, comme pour
la démarche fonctionnelle, le benchmarking générique se révèle relativement simple à
mettre en œuvre car la concurrence n‛est pas un facteur de blocage. Ce benchmarking est
le plus productif mais aussi le plus difficile à concevoir et à manier car il fait appel
à l‛engagement et la curiosité de tous les acteurs participant au processus. Les avantages
sont multiples : partenariat sans contrainte de confidentialité, source d‛idées
innovantes, relations pérennes car basées sur un besoin réciproque et
permanent d‛informations. Les quelques difficultés qui subsistent sont liées à une plus
grande difficulté à adapter des pratiques qui viennent d‛un secteur différent.
L‛amélioration des performances pourra là aussi atteindre 35% ou plus.
Ces différents modes sont souvent confondus. Confrontés à cette confusion catégorielle,
les managers de l'Intelligence Organisationnelle doivent être capables de
comprendre comment le benchmarking organise le binôme partenariat/concurrence (tableau 2).
Tableau n° 2 - Exemples de benchmarking - source Benchmarking club de Paris
Entreprise
Renault
Type de
benchmarking
Interne
Objet du
benchmarking
Partenaires
Comparer les
différentes
filiales par
domaine
d'activité
Renault
IBM, Accenture, Fedex
Gan, IBM, Société Générale
Renault
Générique
Réduire les
coûts de
process
spécifiques
BNP
Générique
Améliorer la
satisfaction
des clients
France Telecom
Société Générale
Ministère de
l'économie
Carrefour
Concurrentiel
Accroître le
degré de
Nortel, Rank Xerox
satisfaction de
la clientèle
Générique
Améliorer
l'écoute de ses Darty, Accor
clients
Générique
Réduire le
nombre de
niveaux
hiérarchiques
Nestlé, Air Liquide
Concurrentiel
Améliorer le
taux de
fidélisation de
ses clients
3 Suisses, Mac Donald,
Dell,
Quel que soit le mode retenu, la mise en œuvre d'une évaluation comparative au sein
d'une organisation suppose le respect d'un certain nombre de conditions (engagement actif
de la direction pour conduire le changement et donner du sens au projet, motivation
et disponibilité des équipes pour mettre en place des innovations managériales,
parfaite connaissance des processus clés de son entreprise qui auront été évalués,
pertinence du choix du domaine d'activité, de la fonction, du service, du processus ou
du produit qui fera l'objet du benchmarking, identification des indicateurs de mesure
qui permettront de renseigner de manière objective sur la performance et le degré
de réussite).
1.1.2.1. L'intégration du benchmarking dans la sphère publique
Le benchmarking s'est organisé, tout au long des années 80, au travers de
l'échange informationnel et de l‛apprentissage mutuel entre tous les acteurs impliqués et
s'est progressivement mis en place aux différents niveaux de l'organisation
(étalonnée collectivement par rapport aux objectifs de compétitivité) et des
salariés (benchmarkés au niveau de leurs performances individuelles).
D‛abord soumis aux injonctions de l'efficience productive, la normalisation managériale
du benchmarking s'est étendue à l'ensemble des secteurs d'activité et des fonctions
de l'entreprise pour gagner progressivement, à la fin des années 80, la sphère
publique, sommée depuis un certain nombre d‛années d'accroître le niveau de
ses performances. Ce double processus d'intégration, amorcé dès la fin des années 80, a
été accompagné, pour ne pas dire initié, par le courant du New Public Management,
vecteur idéologique des thèses néolibérales quant à la rationalisation de l'action publique sur
le principe des règles du marché.
La dichotomie Public/Privé tend à s'effacer sous la pression managériale. Le
benchmarking, utilisé comme moyen d'intermédiation, chahute les frontières séparant
l'Etat et le Marché et s'empare, peu à peu, des territoires jalousement gardés
de l'administration publique. Aux règles de la comptabilité publique se surajoute
alors l'étalonnage de la performance organisationnelle étatique soumise dorénavant à
la rationalité des gestionnaires d'entreprises. L'analyse des processus, au travers
des indicateurs de performances (les benchmarks) permet de déceler les discordances
dans les résultats et d‛expliquer pourquoi elles existent (pourquoi une université
scolaire utilise-t-il autant de moyens que les autres établissements pour accueillir deux
fois moins d'étudiants). Les agents, confrontés à leurs propres processus, sont ainsi
intégrés dans une démarche de remise en cause et d‛apprentissage permanente qui peut,
dans certains cas, fausser les comportements (exemple des agents qui maximisent leur
score sur les indicateurs de performance retenus au lieu de fournir le service pour lequel
ils ont été recrutés).
Comme on le constate, cette avancée libérale au sein au sein de la sphère publique
s'apparente moins à une exportation des activités relevant du service public vers la
sphère privée qu'à une volonté de formater le fonctionnement des administrations sur
une logique d'efficacité et de compétitivité. L‛un des leviers incitatifs le plus utilisé
pour recourir au benchmarking dans le secteur public est la possibilité d'introduire la
logique concurrentielle. Les décideurs l'invoquent souvent pour démontrer, in vitro, le niveau
de performance atteint (mise en place des mécanismes managériaux de la coopétition chers
à Robert Camp), ou pour chercher, in situ, les meilleures manières de fournir un
service (l‛organisation doit admettre qu'il existe à l'extérieur des sources d'idées
pour améliorer ses performances).
Le processus d'étalonnage et d'ajustement de la norme concurrentielle à l'impératif
de compétitivité peut aussi être utilisé au niveau supranational. En imposant un
cadre coopétitif pour coordonner les stratégies de conception coopérative entre les
Etats membres de l‛Union européenne, la MOC (Méthode Ouverte de Coordination)
substitue au principe de subsidiarité régissant les domaines souverains de politiques
publiques (santé, éducation, recherche, ...) la pratique systématique du benchmarking
des performances nationales. Et c‛est au moyen de l'étalonnage, sur une norme de
performance quantifiée dans des tables de benchmarks, que s'opère cette
problématisation. Lorsqu‛il s‛agit d‛un étalonnage au niveau international, le problème de
la pondération des critères d'évaluation, par nature hétérogène, est accru. Lorsque
la difficulté tient à l'absence d'informations comparatives sur le niveau de
performance d'organisations de même niveau, il est parfois utile d'avoir recours à des
panels d'experts pour mieux identifier les "best practices". En outre, les processus ne
sont pas toujours clairement identifiés, et les cibles souvent difficiles à identifier.
Derrière
les
processus
internes
d'une
organisation,
quel que soit
son niveau,
se trouve une
série de
facteurs
(personnel,
locaux,
technologie,
budget, ...). Si
ces derniers
ne peuvent être contrôlés, alors la base de comparaison sera faussée (Encadré 7).
L‛étalonnage s'avère aussi d'une redoutable efficacité en provoquant une prise de
conscience, chez les décideurs, sur la pertinence de la mise en place de méthodologies et
sur les exigences en matière de performances et d'évaluation.
Le choix des domaines dans lesquels peut être déployé le benchmarking, par exemple,
est fondamental pour que la démarche d‛évaluation soit efficace. Il s‛agit de mettre
en évidence et de sélectionner les thèmes qui s'avèreront les plus pertinents par rapport
aux recommandations de l‛évaluation. L'identification des processus clés d‛un programme
ou d‛une organisation est un préalable nécessaire pour que le benchmarking remplisse son
rôle d'outil d‛évaluation et de résolution de problème. Le rôle des décideurs en la matière
est essentiel. En effet, l‛étalonnage est une activité exigeante en termes de temps (six mois
au minimum), d'argent (constitution d'un groupe de personnes employées à plein temps avec
la mise en place des moyens afférents), et de capitalisation d'expériences. Le
Top Management doit donc être particulièrement vigilant pour que des enseignements
soient tirés des avancées réalisées et des difficultés rencontrées par les évaluateurs dans
la mise en place du benchmarking.
CONCLUSION POINT 1.1
Le benchmarking est un processus séquentiel qui consiste, à l'aide d'indicateurs
de performance, à comparer les pratiques managériales à l‛aune d‛un principe de
compétitivité. Cette technique est exportée de la sphère marchande vers la sphère
non marchande. Si l‛étalonnage est une pratique courante au sein des établissements publics
à caractère industriel ou commercial, la culture de la qualité et de l'évaluation est
une démarche encore peu familière dans des administrations qui sont en situation de
monopole de fait sur chacun de leur domaine. Le transfert d'un domaine à l'autre ne va
donc pas de soi
1.2. La démarche de Benchmarking
Dans la pratique, le benchmarking est une démarche simple qui donne le plus souvent
des résultats très élaborés.
Sa mise en œuvre
présuppose que
l'entreprise aura
identifié et choisi les
indicateurs qui
mesureront ses propres
performances pour les
comparer ensuite à celles
des concurrents.
Ensuite, l‛intérêt du
benchmarking réside
dans la formalisation et
la systématisation de la
démarche comparative
suivant une méthodologie
rigoureuse en cinq
phases (encadré 8)
Il n'existe pas de
démarche
méthodologique
normalisée pour mettre en place un processus d'étalonnage. Dans le modèle
séquentiel présenté ci-contre, l'entreprise garde toujours toujours la possibilité d'ajouter
ou de retrancher une étape en fonction de ses propres contraintes ou objectifs.
Généralement, le modèle en cinq phases est retenu pédagogiquement pour des raisons
de simplicité. L'ordre, cependant, est invariable. Les étapes du modèle sont itératives.
1.2.1. La phase planification
La planification est la voie propédeutique du benchmarking. Elle permet de préparer
les recherches en définissant le quoi, le qui, et le comment
1.2.1.1. Identifier l'objet des recherches
Cette partie du travail va consister à identifier, dans l'activité de l'entreprise, les
fonctions, activités, processus, produits, coûts ou problèmes qui nécessitent une opération
de benchmarking à partir de laquelle elle pourra progresser et obtenir un
avantage concurrentiel. L'entreprise pourra, par exemple, évaluer la pertinence de son
offre commerciale par rapport aux attentes du marché ou la partie du champ
concurrentiel dans laquelle la pression est la plus forte. L'entreprise doit s'interroger
pour savoir si l'objet des recherches est essentiel pour le fonctionnement de l'entreprise.
Le niveau de précision retenu, plus ou moins élevé, facilitera la quantification des
résultats obtenus à la suite des changements opérés. Toutes les dimensions du
fonctionnement d'une entreprise et de sa performance peuvent donner lieu à évaluation
(ligne de production la plus importante, causes d'insatisfactions, ...).
Le problème ou le sujet à observer seront ensuite l'objet d'un découpage en subdivisions.
Ce découpage ne sera pas définitif. Il pourra évoluer au cours de l'opération de
benchmarking pour s'adapter aux contraintes des enquêtes de terrain ou aux besoins
de l'entreprise. Le choix des domaines sur lesquels portera le benchmarking doit conduire
à l'observation puis à l'évaluation des méthodes, techniques et outils utilisés dans
l'entreprise. Le système de mesure qui servira d‛étalon pour évaluer les résultats
des processus et les comparer efficacement avec d‛autres résultats devra comporter
des indicateurs pertinents que l‛entreprise aura elle-même sélectionnés (une unité de
temps pour évaluer la rapidité d‛un processus, une unité monétaire pour calculer un coût,
un niveau d'exigence pour apprécier la qualité perçue par les clients ...
1.2.1.2. Identifier les entreprises à comparer
Après avoir défini l'objet du benchmarking, l'entreprise doit chercher à qui et à quoi
se comparer. Il lui faut identifier le ou les partenaires avec lesquels il lui sera possible
de réaliser le Benchmarking. C'est le Pré-benchmarking. Les "best in class" (entreprises
qui maîtrisent le mieux le ou les processus à analyser ou qui sont considérées comme
les meilleures sur l'objet de l'évaluation à pratiquer) seront retenues. Les
partenaires potentiels peuvent être des concurrents directs ou des entreprises
qui interviennent dans des secteurs d'activités différents. Ils seront choisis en fonction
des objectifs recherchés (secteur des biens périssables et/ou ayant des marges faibles
pour fluidifier les flux, secteur bancaire pour accroître la fiabilité, secteur des
assurances pour minimiser le facteur risque, ...) et de la possibilité d'effectuer
des comparaisons.
Les prises de contact avec les partenaires potentiels apparaissent comme les stratégies
les plus enrichissantes en terme de collecte d‛information. Elles permettront de
connaître leurs positions vis-à-vis de la pratique du benchmarking. Elles se font
principalement par le biais de visites sur site. Il existe de nombreuses autres
sources d'informations (consultants, experts, fournisseurs, clients, salons
professionnels, conférences ou colloques, presse professionnelle, ...).
1.2.1.3. Choisir la méthode de collecte des données
La collecte des informations sur les partenaires potentiels de Benchmarking est un
processus continu dont la ou les méthodes de recueil et les critères auront été définis
au préalable.
- le type d'informations (les résultats souhaités, les tendances à moyen et long terme,
les ratios financiers, …) ;
- le volume d'informations (le temps nécessaire pour effectuer l'enquête, les
vérifications nécessaires,…) ;
- la fiabilité de l'information (la précision voulue, les méthodes de vérification, …) ;
- le coût de l'information (le coût d'acquisition, le coût de transfert, ...) ;
- le choix des personnes qui vont recueillir les informations.
Les méthodes retenues vont viser à exploiter tout d'abord les sources d'informations
internes puis les sources externes.
- exploitation de la documentation interne (publications et études internes, revues
et publications professionnelles, ...)
- exploitation des bases de données documentaires de l'entreprise,
- rencontres et entretiens avec les experts internes,
- réingéniering
- consultation des syndicats, fédérations et associations professionnelles du secteur
- consultation des dossiers réalisés par des experts ou consultants externes
- contacts personnels chez les partenaires externes (fournisseurs, clients, soustraitants, concurrents, ...)
Différents
moyens
(figure
1)
peuvent
être principalement
utilisés :
- les banques de données publiques ou l'Internet qui permettent un accès facile à
de nombreuses données ou articles de presses (Kompass, Info-greffe, société.com
pour rechercher une entreprise, INPI, ISO, AFNOR pour rechercher un brevet ou une
norme, COB, EDGAR-Online, Rapport-annuel.com pour rechercher un bilan ou un rapport, etc, ...)
- les Fédérations, Syndicats Professionnels et Associations qui fournissent des bases
de données et permettent d'identifier les entreprises leaders
- les contacts personnels (regroupant différentes sources formelles et informelles le
plus souvent à forte valeur ajoutée)
La mise en place de la collecte des données s'effectue par niveau de difficulté croissante.
Une fois la recherche d‛informations sur le partenaire terminée, l‛élaboration du
questionnaire peut être effectuée.
1.2.2. La phase analyse
La phase analyse comprend deux phases. Dans un premier temps, il s'agit de comparer
les indicateurs de performance retenus à un groupe significatif d'entreprises (choisies
pour leur niveau de comparabilité) et de déterminer les causes de variance. Dans un
deuxième temps, ces dernières, calculées sur des projections de résultats et
constamment réévaluées, permettront de planifier les niveaux de performance futurs et
de fournir une base objective d'action pour réduire les écarts ou capitaliser sur
l'avantage acquis.
1.2.2.1. Mettre en évidence les écarts de performance
Les données obtenues à l'issue du processus de benchmarking sont comparées aux
données internes. L'analyse comparative va mettre en évidence les écarts de
performance (positif, négatif, ou nul) et permettre de les comprendre. Elle doit conduire
à étudier les différences de méthodes et leurs impacts sur le plan qualitatif et quantitatif.
1.2.2.2. Fixer les futurs seuils de performance
Les écarts relevés sur les éléments clefs du ou des processus analysés qui sont à la base de
la réussite de l‛entreprise benchmarkée doivent être comblés. L'entreprise doit
s'interroger sur les actions stratégiques et tactiques à mettre en place pour devenir sur
ce processus la meilleure dans un délai raisonnable et moyennant un effort
d'investissement acceptable.
Le plus souvent, l‛entreprise partenaire devient la référence pour fixer les futurs seuils
de performance. L'équipe de benchmarking doit :
- établir une projection de l'évolution des écarts de performance sur le moyen terme
- définir une "feuille de route" pour parvenir à des résultats compétitifs en réduisant peu
à peu ces écarts
- déterminer les priorités et sélectionner et s'y tenir
Tous les scénarios possibles seront envisagés pour mettre en place le processus
d'amélioration de l‛organisation. L‛équipe de benchmarking s'assurera par exemple que
les objectifs fixés, en matière de réduction d'écarts peuvent être déclinés en
termes opérationnels, font mention et décrivent les méthodes retenues, permettent
aux acteurs impliqués dans l'amélioration du processus de s'approprier les méthodes,
et n'interfèrent pas sur d'autres processus.
1.2.3. La phase intégration
L'intégration consiste à faire accepter et à adapter, au sein de l'entreprise, les
concepts, processus, méthodes, outils, techniques, ... qui ont été analysés et retenus pour
leur critère de pertinence à partir d'objectifs opérationnels précis et réalistes.
1.2.3.1. Communiquer les résultats du benchmarking et les faire accepter
Pour réussir le benchmarking, l'entreprise doit commencer par convaincre et motiver
les acteurs qui seront impliqués dans la démarche d'amélioration de l'entreprise. L'équipe
de benchmarking procédera de la manière suivante :
- identifier les différents interlocuteurs auxquels il conviendra de s'adresser
prioritairement (responsable de production, chef d'atelier, chef d'équipes, ..) et
s'interroger pour savoir s'ils seront susceptibles de faire preuve de coopération.
- déterminer les besoins et contraintes pour chacun des niveaux d'acteurs impliqués
- sélectionner les méthodes de communication les plus adaptées en fonction des cibles
à traiter (rapports, compte rendus, lettres d'information, affichage, réunion, ...). Toutes
les méthodes de communication pour entraîner l'adhésion devront être envisagées.
- organiser la présentation des résultats pour assurer la communication la plus efficace
et permettre la meilleure compréhension possible (comparaison chiffrée des méthodes
de l'entreprise avec celles des entreprises extérieures, description des entreprises
étudiées et des processus suivis, des méthodes de collecte d'informations, des
techniques d'analyse, explication des choix, présentation complète des résultats obtenus,
des méthodes découvertes et dont l'application est envisagée, présentation de
l'impact prévisionnel de ces méthodes sur l'entreprise, synthèse des résultats clés,
des conclusions et des recommandations qui s'en suivent, ...).
1.2.3.2. Etablir des objectifs fonctionnels
Les objectifs fonctionnels sont génériques. Ils ne sont pas dédiés à un poste ou une
personne. Ils permettent de rendre opérationnelles les orientations stratégiques définies
par le benchmarking. Il est donc nécessaire de savoir quels sont les objectifs existants
dans l'entreprise et éventuellement de les réajuster (reprise de l'objectif
existant, modification de l'ordre de priorité, fixation de nouveaux objectifs...) par rapport
aux résultats obtenus au cours de l'enquête de benchmarking
1.2.3.3. Définir la méthode
Les actions que l'entreprise aura à mettre en place vont exprimer ce qu'il faut
changer concrètement dans le fonctionnement de l'entreprise. Elles s'appuient sur
une démarche méthodologique qui, conformément au modèle de Lasswell, doit répondre
aux questions : Qui ? Quoi ? Quand ? Comment ? Où ?
Deux façons différentes pour déterminer l‛emploi d‛une méthode spécifique répondant
au problème formulé peuvent être retenues :
- l'approche divergence/convergence dans laquelle l'équipe du Benchmarking essaie, à
partir des données recueillies lors de la collecte des informations, de lister l'ensemble
des solutions envisageables pour choisir celle qui apparaît comme la plus pertinente
pour l'entreprise . L'intérêt de ce type d'approche, généré par la prise en compte des
aspects purement factuels, peut être remis en cause par le risque d'infobésité
- l'approche par hypothèse qui revient à privilégier ses intuitions quant aux actions à
mener pour améliorer ses performances. Les responsables du benchmarking élaborent
toutes les variantes possibles de plans d'action à mettre en œuvre en se basant sur
l'existant pour déterminer l'hypothèse la plus adaptée. L'intérêt de ce type de
démarche, basé sur la réactivité de l'organisation, peut être minimisé si l'entreprise se
limite à la mise en œuvre de stratégies d'imitation.
Cette étape, au cours de laquelle seront définis les activités, les ressources à mobiliser,
le planning, les responsabilités, les résultats escomptés et les moyens de contrôle, prépare
le plan d'actions qui permettra d'atteindre les objectifs fixés, tant sur le long
terme (stratégique) que sur le court terme (tactique ou opérationnel).
L'équipe du benchmarking arrive à un moment où les résultats, déclinés en plans d'action,
ont été présentés aux différents acteurs et acceptés. Il lui reste deux étapes critiques
à mettre en place : les phases action et suivi. Ces deux phases doivent être, de
manière concomitante, réalisées avec l‛inventaire des progrès réalisés et la préparation
du prochain Benchmarking (il s‛agit d‛un processus continu).
1.2.4. La phase action
Les préconisations du benchmarking et les principes opérationnels définis doivent
être traduits en applications concrètes qui seront évaluées périodiquement pour mesurer
les progrès accomplis.
1.2.4.1. La mise en œuvre des actions
La mise en œuvre des actions qui ont été définies dans le cadre du projet de benchmarking
est le plus souvent prise en charge par le Top Management de l'organisation. Elle peut
aussi, plus rarement, être sous-traitée, pour des objectifs plus spécifiques, à une
équipe projet spécialement constituée, ou à des responsables désignés. Les opérations
de contrôle et de suivi sont assurées de façon régulière conformément aux
indications fournies dans le planning.
L'équipe doit vérifier que toutes les étapes ont bien été suivies et s'assurer que les
résultats du benchmarking sont bien mis en place. Une stratégie alternative
peut éventuellement être envisagée en cours de projet.
Il faut également vérifier si le benchmarking génère des résultats profitables.
1.2.4.2. Le réajustement des indicateurs
Le benchmarking est donc un processus d'ajustement permanent. L'entreprise doit réaliser
un suivi continu des résultats de la démarche d‛amélioration en cours, et surveiller en
même temps les évolutions dans les pratiques et méthodes des entreprises auxquelles elle
est comparée (figure 2).
Une fois la mise en place du
projet achevée, il faut estimer
les progrès réalisés et évaluer le
niveau de performance atteint
par l'entreprise pour
réactualiser ou ajuster, si besoin
est, les objectifs d‛amélioration
ou les plans d‛actions définis en
amont. L‛entreprise doit donc
mettre en place un processus de
contrôle afin de s'assurer que
toutes les étapes ont bien été
suivies, que les résultats du
benchmarking ont bien été
intégrés dans le processus de
management et/ou que d'autres stratégies de remplacement ont été envisagées.
Le suivi s'effectue avec un indicateur de type quantitatif (sur les chiffres clés en lien
direct avec les changements entrepris) mesurant la progression du projet par rapport
aux objectifs fixés au préalable. L'évaluation peut être pratiquée à partir d'un
questionnaire permettant de recenser les manques dans les informations mais aussi
les différentes attitudes dans l'entreprise vis à vis du benchmarking.
1.2.5. La phase maturité
C'est la dernière étape. Il s'agit d'une étude réalisée à postériori, généralement sous
forme d'enquête, sur la méthode qui a été utilisée pour intégrer l‛outil de Benchmarking
dans les objectifs à atteindre et au sein même du système de management. Cela permet
de réaliser les actions nécessaires afin de faire rentrer dans les mœurs l‛utilisation
du benchmarking et le placer comme processus permanent dans l‛entreprise.
Les éléments collectés au cours de l'enquête doivent permettre de cerner les améliorations
à apporter. Toutes les étapes sont passées en revue. L'entreprise peut aussi fixer des
points de repère qui déclencheront automatiquement une nouvelle série d'opérations
de Benchmarking.
Un projet de Benchmarking est une opération délicate à conduire. Le risque de
mésentente entre partenaires sur le type d‛informations à partager est élevé. Il peut
même conduire certaines entreprises indélicates dans l'illégalité (espionnage
industriel...). C'est pourquoi l' International Benchmarking Clearinghouse a élaboré un Code
de Conduite (encadré 9) comportant huit recommandations destinées aux partenaires
du Benchmarking :
Encadré 9 - Le code de déontologie en marketing - International Benchmarking
Clearinghouse
1. Légalité
• Ne pas engager des actes ou des paroles qui feraient entrer l'entreprise dans
l'illégalité
• Prêter une attention spéciale aux discussions sur les prix (un désaccord peut bloquer
le cours du marché)
2. Echange
• Définir un niveau d'attentes mutuelles entre les entreprises.
• Ne pas poser aux partenaires de l'entreprise des questions auxquelles celle-ci ne peut
pas répondre
3. Confidentialité
• Assurer aux informations transmises par les partenaires le même niveau de
confidentialité que pour ses propres informations
• Signer avec ses partenaires une clause de confidentialité
4. Utilisation de l‛Information
• Ne pas utiliser l'information à d'autres fins que celles déterminées dans l'accord de
Benchmarking
5. Contact
• Se Conformer aux procédures de contact définies entre les partenaires
• Respecter la culture de chacun (éviter les jugements subjectifs, les préjugés...)
6. Préparation
• Se préparer aux réunions afin d'améliorer leur efficacité et éviter les pertes de temps
7. Achèvement
• Ne pas prendre des responsabilités qu'on ne peut pas tenir
• Achever son travail de manière à ce que chacun des participants soit satisfait
8. Compréhension
• Traiter ses partenaires de la même façon que vous souhaiteriez être traité.
Ce code de conduite met ainsi en place de réelles relations de "coopétition".
CONCLUSION POINT 1.2
Un projet de benchmarking débouche sur un processus d'ajustement permanent qui
s'inscrit logiquement dans la durée. La constitution du groupe de partenaires qui acceptera
de partager de l'information doit se réaliser dans un climat de transparence et de
confiance mutuelle. La définition du champ d'application du benchmarking permet de
focaliser l'effort sur un facteur clé de la chaîne de valeur de l'entreprise sur lequel
les meilleures pratiques seront identifiées puis comparées à celle de l'entreprise initiatrice
du benchmark pour déterminer les opportunités d'amélioration.
CONCLUSION PARTIE 1
La démarche de benchmarking, parce qu‛elle est source de création de valeur, fait
désormais partie intégrante de toute démarche de management par la qualité totale. Elle
est aujourd‛hui devenue un outil de management complet qui permet de dire à quel moment
une entreprise est devenue la meilleure et comment elle y est parvenue. Une
parfaite compréhension de la part de tous et une adhésion de chacun à l'objectif "être
le meilleur" est une démarche continue qui doit être finalement institutionnalisée au sein
de l‛entreprise.
II. AU MANAGEMENT DE L'INTELLIGENCE COLLECTIVE
Si la performance de l'entreprise dans la société industrielle se mesure à l'aune des
résultats obtenus en termes de chiffres d'affaires et de résultats, celle de
l'organisation, définie comme intelligente dépend de sa capacité à mobiliser
l'intelligence collective en capitalisant les connaissances et en multipliant les
interconnexions entre les parties prenantes
2.1. De l'émergence du concept d'Intelligence Collective
Le concept d'Intelligence Collective (IC) a fait l'objet, depuis la fin des années 60, sous
des appellations diverses, de nombreux développements (noosphère de Teilhard de
Chardin, écologie de l'esprit de Gregory Bateson, cybionte de Joël de Rosnay, ...). Difficile
à cerner, l'IC a été formalisée, au milieu des années 90, avec l‛avènement de l‛Internet.
2.1.1. L'Intelligence Collective, un concept protéiforme
Selon les théoriciens des temps longs, l'avènement d'un cinquième cycle Kondratiev, au
milieu des années 90, pourrait correspondre à ce que certains appellent une
troisième révolution industrielle et que d'autres qualifient de révolution informationnelle
ou numérique, voire de mutation sociétale. Certains chercheurs, pour explorer cette voie,
ont avancé l'idée, souvent considérée comme utopique, que le modèle de société sousjacent pourrait constituer un espace anthropologique et collectivement intelligent
qui prendrait le relais des sociétés actuelles basées sur le capitalisme ou encore l‛Etat.
2.1.1.1. Les différentes dimensions de l'intelligence collective
Pierre Lévy, qui occupe aujourd'hui une chaire
de recherche sur l'Intelligence Collective à
l'Université d'Ottawa, a été très tôt convaincu du
rôle capital des techniques de communication et
des systèmes de signes dans nos sociétés. Son travail
de réflexion sur la "révolution numérique" remonte
aux début des années 80. Il forge, au milieu des
années 90, le concept d'Intelligence Collective en
publiant un ouvrage intitulé "L'Intelligence
Collective, pour une anthropologie du cyberespace,
Paris, La Découverte, 1997" dans lequel il décrit ce
que pourrait être un projet de société organisé autour
de ce concept (figure 3).
2.1.1.1.1. Intelligence collective et société numérique
L'intelligence collective considère tous les collectifs humains, quelle que soit l‛échelle
de référence (du groupe familial à la population du globe) comme des systèmes cognitifs,
c'est-à-dire des ensembles d'êtres humains, d'animaux ou d'agents artificiels
ordonnés capables de mettre à profit des processus cognitifs d‛apprentissage ou relationnels.
Son objectif est d'atteindre dans l‛action une performance d‛un niveau supérieur
en accroissant la cognition collective et en particulier les capacités intellectuelles
des groupes. Elle suppose une interaction entre un certain nombre d'acteurs engagés dans
une action commune qui peut être complètement définie (un projet) ou seulement
déterminée par ses fins (un programme), voire par les circonstances (une crise).
Les technologies de l'information et de la communication jouent un rôle important dans
ce domaine ou sont des facilitateurs (exemple de l'apprentissage collectif en ligne).
Pour qu'un collectif puisse atteindre le niveau de performance souhaité, plusieurs
thèses s'affrontent. D'un coté, le discours managérial dominant de ces dernières
années privilégie la mise en place d'un « modèle organisationnel » composé de
principes stratégiques, méthodes et consignes prédéterminés. De l'autre coté, les
théoriciens de la gestion des connaissances préfèrent s'intéresser, sans à priori,
aux processus qui sont susceptibles de mettre en évidence l‛existence et l‛intérêt des
actions et interactions individuelles, ainsi que des construits individuels
(représentations, enjeux). Enfin, un troisième courant, regroupant plusieurs thèses, explore
les capacités qu'ont les collectifs, humains ou non, à acquérir et à mobiliser une
cognition individuelle (être capable d'apprendre, de réfléchir, de prendre des décisions, ...).
Dans ce cadre, l‛usage des technologies de l‛information et de la communication et des
réseaux numériques donne aussi matière à discussion : certains pensent que l'individu
acquiert et raffine la connaissance grâce à la machine qui sert de révélateur et
d'autres imaginent que seule, l'action humaine, individuelle ou collective, est en mesure
de créer de la connaissance pour la transformer en savoirs opérationnels partagés.
Pour Pierre Lévy, les réseaux numériques ne sont que la première étape dans l'avènement
d'un cyberespace défini, de manière anthropologique, comme un nouvel
environnement communicationnel interactif de réflexion, de travail et de
relations interpersonnelles au sein duquel l'évolution des technologies de l'information et de
la communication se concrétise par une accélération de la vitesse (communication en
temps réel) et une optimisation des processus (élimination des déchets) et des
résultats (obtention d'une précision maximale). Ainsi définit-il l'Intelligence Collective
comme "une intelligence partout distribuée, sans cesse valorisée, coordonnée en temps
réel, qui aboutit à une mobilisation effective des compétences."
Le nouvel espace auto-organisé, en voie de constitution, formaté par l'intelligence
collective, repose sur un dispositif de communication et de coordination dynamique et
non hiérarchique au sein duquel chaque individu (porteur d‛une richesse qui lui confère
une position originale au sein du collectif intelligent) devient producteur de sens et de
savoir. Ce système de communication n'offre plus seulement la possibilité à des
groupes d'individus géographiquement dispersés mais réunis par des centres
d'intérêt communs de transmettre un message mais d'interagir au sein d'un collectif.
Ce système de repérage autonome et de proximité débouche sur une autre
architecture sociale dans laquelle les compétences, le savoir et les connaissances deviennent
la nouvelle infrastructure (Levy distingue, d'un coté, le savoir généré par
l'Intelligence Collective qui doit aboutir à un optimum humain et social, et de l'autre coté,
le savoir matériel de la société capitaliste inféodé aux impératifs de productivité et
de rentabilité).
2.1.1.1.2. Intelligence Collective et recherche scientifique
La polarisation d'un certain nombre de travaux sur les moyens d'assurer la transition
entre l‛Intelligence Collective, concept par définition inhérent à l‛état d‛humanité, et
les collectifs intelligents, qui cherchent à optimiser leurs ressources intellectuelles,
dessinent peu à peu les contours d'un domaine de recherche à part entière, avec son
cadre formel, son approche empirique, ses outils, ses instruments de mesure, ses
applications pratiques, son champ éthique.
Ce champ de recherche et d'applications, qui a pour objet l'étude et l'optimisation
des propriétés émergentes des collectifs, est intrinsèquement interdisciplinaire et
s'inscrit fondamentalement dans un vaste mouvement de décloisonnement. Il permet de
mieux comprendre les processus d'apprentissage, de collaboration et de création collective
Les premières études menées en la matière (notamment par des physiciens français)
ont démontré la pertinence des lois économiques de distribution parétienne (20 % de
la population accumulent 80 % des richesses) dans la compréhension des modèles de
justice sociale qui prévalent au sein des collectifs humains.
Par la suite, les recherches ont regroupé un certain nombre de travaux dans les domaines
de l'Economie et de la Gestion (Economie de la Connaissance, Nouvelles Approches liées à
la Confiance, Ecoles du Management de la Connaissance et Courants Théoriques
de l'Organisation Apprenante, ...), et de la Sociologie (Travaux de Scott, Degenne et Forsé
à propos des Réseaux, de Jones ou Bell sur le virtuel et l'Internet, ou encore de Castells sur
la Société de l'Information).
Au même titre que les réseaux de recherche sont clairement identifiés comme des
collectifs intelligents visant à accroître les capacités cognitives de la communauté,
les organisations impliquées dans un processus de coopération assisté par ordinateur
peuvent être considérées, elles aussi, comme des systèmes cognitifs et
opérationnels approfondissant, chacune à leur niveau, le concept d'Intelligence Collective.
2.1.1.2. Les différentes formes de l'Intelligence Collective
L'Intelligence Collective n'est donc pas un concept nouveau (de nombreuses espèces
animales sociales constituent des collectifs intelligents). A la base de toute
organisation sociale, elle apparaît comme le fondement des économies à somme
positive. Jusqu'à maintenant, les organisations se sont essentiellement développées à
partir d'un modèle d'architecture sociale verticale (qualifié d'intelligence
pyramidale) caractérisé par l'autorité hiérarchique, la division du travail, le contrôle et
une monnaie rare. Le contexte technologiquement et sociétalement instable dans
lequel évoluent aujourd'hui ces organisations a imposé la mise en œuvre d'autres formes
de gouvernance (qualifiées d'intelligence collective originelle), plus souples et plus liquides,
qui réconcilient les impératifs de compétitivité et de coopération. Une troisième
forme d'intelligence, en essaim, est aussi observée.
2.1.1.2.1. l'Intelligence Pyramidale
L'intelligence pyramidale s'est développée sur la base de quatre principes essentiels :
- le premier principe repose sur
la conception tayloriste
du partage des tâches
(rapport de subordination lié
au travail salarié et recherche
de productivité par économie
de temps) et sur une
structure
organisationnelle verticale hiérarchisée et codifiée (chaque fonction au sein de
l'organisation est clairement identifiée par un référentiel qui fixe les limites intrinsèques
du territoire et les prérogatives de chacun).
- le deuxième principe concerne le rapport à l'autorité et aux minorités dirigeantes qui
fixent les règles, organisent les territoires, distribuent les richesses et sont à l'origine
de nombre de conflits du fait de leur incapacité à percevoir et à traiter l'ensemble des
flux d'informations qui traversent leur organisation
- Le troisième principe est relatif à la monnaie gouvernée par la rareté,
propriété artificiellement entretenue par de puissantes institutions financières à
intelligence pyramidale qui décident des quantités et de la répartition des monnaies mises
en circulation.
- Le quatrième principe de l'intelligence pyramidale s'appuie sur les standards et les
normes censés organiser la perméabilité de l'organisation avec son extérieur mais le
plus souvent détournés au profit de stratégies de territoires et de monopoles
(brevets, concession, propriété intellectuelle…).
Ces structures à intelligence pyramidale, qui ont permis à la société de se construire et de
se développer dans un environnement socialement et technologiquement stable, ont
beaucoup de difficultés aujourd'hui à s'adapter aux contraintes d'un monde
mouvant, complexe et en pleine évolution et sont prisonnières d'un corset de plus en plus
étroit de règles et de normes qui les étouffent. De nouvelles formes de coordination
doivent apparaître et catalyser les collectifs humains vers les réponses les plus efficaces
aux problèmes organisationnels et humains que l'intelligence pyramidale n'a pas résolus.
2.1.1.2.2. l'Intelligence Collective Originelle
L'Intelligence Collective Originelle traduit l'idée que l'évolution a doté certaines
espèces dites sociales d'une forme d'intelligence collective dans laquelle se manifeste
une économie à somme positive. En ce qui concerne les collectifs humains, il serait
possible d'ajouter que l'Intelligence Originelle désigne un concept qui regroupe d'abord
des individus avec leurs qualités et leurs défauts. Elle est portée essentiellement par la
notion d'intention (ou encore de motivation) qui joue en l'occurrence le rôle
d'agent structurant de la capacité d'organisation. L'intention, qui procède de
différents facteurs liés aux contextes historiques, sociologiques, culturels et politiques
dans lesquels elle se développe, indique l'orientation qualitative que prend tout
collectif humain, et en particulier le type de modèle organisationnel qui va traduire les
choix cognitifs du collectif.
Dans sa dimension quantitative, l'Intelligence Collective est confrontée au problème du
nombre de relations à gérer sous contrainte temporelle. L'objectif est en effet
d'organiser ces relations de plus en plus nombreuses en temps quasi réel. L'espace n'est
plus une limite au développement du système.
L'Intelligence Collective Originelle rencontre donc deux limites naturelles :
- la première est numérique : un nombre trop élevé de participants limite les capacités
du groupe
- la deuxième est spatiale : les participants doivent se trouver dans un espace
physiquement circonscrit pour pouvoir interagir, appréhender la globalité de ce qui se passe
et adapter leur comportement en conséquence.
2.1.1.2.3. l'Intelligence en essaim
En Intelligence Artificielle, l'Intelligence Collective des sociétés d'insectes (par exemple
la capacité à résoudre des problèmes d'une manière très flexible en s'adaptant aux
brusques changements d'environnement ou en continuant de fonctionner lorsque
certains individus échouent à accomplir leur tâche) est devenue un objet
particulièrement observé.
Les chercheurs (expériences menées dans les années 1980 par Jean-Louis Deneubourg puis
par Marco Dorigo de l'Université Libre de Bruxelles) ont donc essayé de comprendre
comment des systèmes multi-agents composés d'unités qualifiées de non intelligentes
seraient capables collectivement de fournir une réponse intelligente pour résoudre,
parmi d'autres, les problèmes quotidiens nombreux et variés auxquels ils sont
confrontés (pourquoi, par exemple, entre deux chemins de longueur différentes
qui permettent à des insectes d'aller de leur nid à une source de nourriture, un individu
seul prendra indifféremment l'un ou l'autre chemin, alors que la colonie privilégiera le
chemin le plus court ?).
Ce phénomène, inhérent à
l'équipement sensoriel des insectes,
peut être simplement expliqué par un
lien de dépendance statistique. Les
fourmis, au départ, empruntent au
hasard l'un ou l'autre des chemins
qu'elles vont marquer en déposant une
certaine quantité de marqueurs
sensoriels, les phéromones. La voie la
plus rapide sera bientôt balisée par
une plus grande quantité de stimulants
vers lesquels, peu à peu, se dirigeront
naturellement la majorité des
individus. Il résulte de cette étude
que la probabilité qu‛une fourmi
choisisse un chemin plutôt que l‛autre
dépend de la quantité de phéromones
présentes sur le chemin choisi et de la
variation de la quantité de phéromones
qui dépend elle-même de l‛effectif des
fourmis.
Les comportements de ces colonies d'insectes résultent donc de processus décentralisés
et autonomes construits à partir d'informations partielles et tout à fait limitées et au
cours desquels une cohérence émerge peu à peu au niveau collectif. Ainsi la résolution est
le fait de la dynamique du système . Cette succession de comportements de type réflexe
est qualifiée d'intelligence en essaim (swarm intelligence).
Ce type d'approche ne se limite pas à la représentation de comportements naturels
de communautés d'insectes dits sociaux. Elle est aussi adaptée pour la modélisation
de systèmes faisant intervenir un grand nombre d'unités en interaction dans un
environnement dynamique et fonctionnant de manière décentralisée au problème de choix
dans le domaine de l'économie et de la gestion, à la gestion de trafics routiers urbains, à
la simulation du mouvement de foule, ... (encadré 11).
2.1.2. Les 12 principes de l'Intelligence Collective
12 principes, selon Jean-François Noubel, caractériseraient l'Intelligence Collective
2.1.2.1. les principes de l'Intelligence Collective Originelle
L'Intelligence Collective Originelle serait constituée de 7 principes
2.1.2.1.1. Premier principe : un tout émergent
Le tout émergent caractérise un collectif humain au sein duquel la coordination et
la synchronisation des individus en interaction seront
telles qu'une nouvelle communauté, différente des
sous-systèmes qui la composent, avec sa
propre personnalité, son propre style et des
qualités comportementales spécifiques aura émergé.
Selon Ken Wilber (figure 4), l'effet de synergie,
qui dépasse la simple somme des parties, doit aboutir à
un niveau de complexité supérieur qui transcende et
inclut sans les aliéner les sous-systèmes du niveau
de complexité inférieur. Ce résultat n'apparaît pas
à chaque fois que se constitue un collectif humain. Si
les interactions à l'intérieur du groupe ne sont
pas optimisées, elles ne produiront pas
systématiquement un niveau de complexité supérieure.
Quand les composants du système ne débouchent pas
sur ce Tout Emergent différencié, on obtient des phénomènes émergents partiels qui ne
sont que le résultat imparfait d'interactions complexes.
Il en est souvent ainsi lorsque la société souhaite agréger, à grande échelle, des
petits collectifs doués de l'Intelligence Collective Originelle.
2.1.2.1.2. Second principe : un espace holoptique
L'holoptisme (tiré des mots grecs holos -entier-, optiké -vision- et tekhné technique-) représente un espace physique ou virtuel dont l'architecture
est intentionnellement conçue pour donner, à tous les acteurs présents, la faculté de voir et
de percevoir l'ensemble de ce qui s'y déroule.
Un espace holoptique est donc un espace
qui offre à tout participant une
perception complète et sans cesse
réactualisée des manifestations des
autres membres du groupe ainsi que
celles provenant du niveau supérieur
émergent. Ainsi une équipe de football
(figure 5) fonctionne-t-elle en situation
d'holoptisme (la proximité spatiale
permet à chaque joueur de percevoir en
même temps, sur un plan horizontal, ce
que font individuellement les autres
joueurs et, sur un plan vertical, le tout
émergent du collectif) et réagit-elle en
conséquence (chaque acteur, avec son
talent et son expérience, se positionne
dans cet espace pour préparer ses
actions, les ajuster et les coordonner
avec celles les autres). Il y a un allerretour permanent entre les niveaux individuel et collectif.
Le panoptisme, opposé de l'holoptisme, correspond au design organisationnel d'un espace (banque,
prison, caserne, ...) dans lequel le niveau des droits d'accès est inversement proportionnel à celui du
niveau hiérarchique ou de la place occupée par l'individu dans l'espace panoptique (voir séquence 2 sur
la veille).
Ainsi en est-il des communautés du logiciel libre (open source) qui se développent dans
le cyberespace et qui pourraient être assimilées à des espaces holoptiques qui sont capables
de dépasser les contraintes de disponibilité et d'accessibilité à l'information et au savoir
2.1.2.1.3. Troisième principe : une architecture polymorphe
La représentation des différentes relations entre les membres d'un collectif est sans
cesse redessinée au gré de l'évolution des perceptions de chacun, des analyses réalisées,
des activités à faire, des contraintes à gérer. Elle se construit autour des
orientations catalysées par telle ou telle personne qui, compte tenu de son expérience ou
de son expertise, et des réponses qu'elle peut apporter en l'occurrence, draine avec
elle l'ensemble de la communauté. Dans une logique d'intelligence originelle, cette position
de leader n'est pas recherchée pour ce qu'elle représente mais naturellement occupée pour
ce qu'on peut apporter pour le collectif. Elle sera abandonnée dès qu'un besoin
émergent nouveau nécessitera une autre expertise.
L‛équilibre, au sein de cette organisation réticulaire, est ainsi naturellement dynamique et
se vérifie tant au niveau d'une communauté qu'entre les différentes communautés.
2.1.2.1.4. Quatrième principe : un objet-lien en circulation
Les groupes humains, quelle que soit leur structure, s'organisent autour
d'objets collectivement recherchés, que ces derniers soient réels (marchandise,
produit, œuvre d'art, ..) ou symboliques (objectif, projet, idée...).
Ces objets clairement identifiés par
chaque membre de la communauté permettent de catalyser l‛intelligence collective. Sur
un espace holoptique comme peut l'être une scène de théâtre, la position des comédiens,
des techniciens et des spectateurs fournit à chacun des acteurs des informations qui
seront traitées et exploitées individuellement et collectivement en fonction des
objectifs poursuivis. Cette mise en synergie spontanée des compétences et des actions
n‛est possible que grâce au texte créé par l'auteur, objet-lien en circulation et catalyseur
du rapport social .
Selon Jean-François Noubel, on peut distinguer trois grandes catégories d'objets-liens :
- les objets miam-miam ou objets d'attraction (or, argent, pétrole, temps, pouvoir, ...)
que chacun cherche à s'approprier dans un contexte de compétition du fait de leur rareté
- les objets sorcières ou objets de répulsion (maladie, étranger, danger, ennemi, ...)
utilisés dans la mobilisation de collectifs parce que faciles à objectiver
- les objets art, par nature non rationnels, qui résultent d'un acte créateur en se
renouvelant sans cesse
L'Intelligence Collective doit apprendre à objectiver chacun de ces objets-liens dans
les espaces holoptiques où ils seront représentés et au sein desquels ils circuleront (un
ballon sur un terrain de football - figure 6).
2.1.2.1.5. Cinquième principe : un nouveau contrat social
La notion de contrat social, au niveau de la nation, est encore aujourd'hui très enracinée
dans une forme délégataire où le représentant, élu par les électeurs, est reconnu
comme légitime pour incarner la volonté générale. Au niveau du groupe, les règles du jeu, que
ce soit en matière artistique, sportive ou professionnelle sont formalisées dans un contrat
dit social, qui peut être tacite ou explicite, objectif et/ou subjectif, mais qui est accepté
et porté par chacun des participants. Dans ce cadre, le contrat dit social définit non
seulement les règles de vie et de fonctionnement du groupe, mais également ses valeurs,
sa raison d'être.
A cet égard, si l'utilisation d‛un objet, par exemple, comme moyen d'induction de
l'Intelligence Collective, nécessite toujours, par les parties prenantes, l'acceptation
d'une règle du jeu, généralement formalisée dans une convention ou un contrat, il convient
de rappeler que le contrat, à lui tout seul, ne génère pas d‛intelligence collective qui
est catalysée par l'éclosion de l'objet.
L'avènement de l'Internet et le développement des technologies afférentes ruinent
les stratégies traditionnelles d'espaces durables (notion de territoire) et de temps
durables (lien contractuel qui associe nation et territoire) et valident de nouveaux
modes comportementaux basés sur l'adhésion volontaire (nouveau contrat social) des
individus-citoyens à des formes d'institutions politiques nouvelles et holoptiques.
2.1.2.1.6. Sixième principe : une organisation apprenante
L‛émergence de la société du savoir, en générant de manière concomitante l‛explosion
et l‛obsolescence des connaissances, provoque des changements profonds dans le monde
du travail et induit la nécessité de l‛apprentissage tout au long de la vie.
L'apprentissage concerne non seulement le niveau individuel, mais aussi le processus
collectif social qui prend en charge l'information et la transforme en objet de
cognition partagé. Il en s'agit pas en l'occurrence de l'addition des apprentissages
individuels mais de ceux réalisés à différents niveaux collectifs de l‛organisation, sinon
dans l‛organisation tout entière ; le concept d‛organisation apprenante s‛appuie sur
une approche systémique (être capable de gérer l'ensemble de la chaîne documentaire
et remédier aux dysfonctionnements) et la construction d‛une mémoire
organisationnelle (conserver et organiser les réponses privilégiées) qui vont lui permettre de
se transformer en un système intelligent capable de s‛autoréguler (le système doit apprendre
à apprendre collectivement).
Pour ce faire, l'organisation apprenante doit être en mesure, au travers l‛apprentissage
en boucle double, de procéder à des changements (remise en cause des normes et
des paramètres conventionnels de fonctionnement) dans son programme traditionnel
de réponses. L'apprentissage en boucle simple, traditionnellement mis en œuvre, ne permet
pas la remise en cause des modes de fonctionnement. Il peut devenir apprentissage en
boucle double s‛il y a changement de perception collective de la situation et modification
des normes organisationnelles. On passe alors à la forme d‛organisation apprenante
et l‛apprentissage se fait collectivement dans la réflexion et dans l‛action (analyse
et anticipation du changement au sein du système et de son environnement, acquisition
et développement des capacités de questionner, de provoquer et de modifier les normes
de fonctionnement ainsi que leurs postulats, mise en place et renforcement d‛une
direction habile à transformer de façon constante l‛organisation, ..)
De fait, l'objectif de ces systèmes est de maintenir un apprentissage en boucle double afin
de ne pas se retrouver progressivement cantonné dans des fonctionnements en boucle simple.
2.1.2.1.7. Septième principe : une économie du don
L'économie du don est un système économique dans lequel les participants
commencent d'abord par donner, et ce, pour le bénéfice de la communauté (élever
ses enfants, s'investir dans une association, ...) et sont rétribués ensuite, en retour, une
fois que le collectif a gagné en richesse. Chaque individu trouve un bénéfice personnel fort
qui le motive à donner le meilleur de lui-même.
Le don ne doit pas être confondu avec le troc. Le don n'est pas un échange. En principe, il
n'est pas effectué par le donateur dans le but d'obtenir, à terme, une contrepartie.
La donation est un acte de pure générosité. Il appartient au bénéficiaire, qui accepte le don,
de savoir si cette action génère l'obligation d'une contrepartie. En aucun cas, le donateur
ne peut se prévaloir d'une quelconque situation d'asymétrie d'obligations après sa
donation (celui qui offre une tournée ne génère aucune obligation pour les
consommateurs présents qu'il invite à boire. Ils peuvent néanmoins souhaiter, à leur
tour, offrir un verre).
L'économie du don, si elle traverse l'ensemble de la hiérarchie sociale, a besoin de relations
de proximité et d'effectivité. Elle est caractéristique de l'Intelligence Collective Originelle
et assure le passage de l'individuel au collectif. L'économie du don est actuellement à
la recherche du modèle monétaire qui lui permettra, à grande échelle, d'acquérir le niveau
de reconnaissance désiré et de devenir à la fois un instrument d'échange et une valeur
de réserve
2.1.2.2. Les 5 principes de l'Intelligence Collective Globale
5 principes supplémentaires, selon Jean-François Noubel, viennent renforcer et stabiliser
les organisations qui fonctionnent sur le principe de l'Intelligence Collective Originelle.
Ainsi, la monnaie catalyse les hiérarchies, les standards et les normes établissent les
règles d'inclusion-exclusion, les systèmes d'information modélisent la réalité, le
cyberespace redessine les territoires et les formes de communication, et le
développement personnel facilite la pratique de l'Intelligence Collective Globale
2.1.2.2.1. Premier principe : une monnaie suffisante
Dans un système économique traditionnel, la monnaie n'existe en tant que telle et n'a
de fonction économique positive que par sa circulation.
Cependant, la
monnaie est aussi une unité de compte qui sert à mesurer la valeur des biens économiques.
Elle a donc une fonction cognitive, une fonction de signe (sous forme de lingots d‛or,
de monnaie fiduciaire ou scripturale, de monnaie électronique...) au sein d'un
système d'information monétaire qui aura un rôle de régulation entre la monnaie, utilisée
d'un coté en tant que valeur d'échange et de l'autre coté comme une valeur de réserve.
Dans un système d'Intelligence Collective, les signes monétaires, quel qu'ils soient (ils
peuvent représenter, comme le suggère Joël de Rosnay, du capital temps), peuvent servir
de systèmes d'équivalence entre les informations et les idées qui ont un prix et la monnaie
qui peut permettre de les exploiter (figure 7) en hiérarchisant les choix (en donnant plus
ou moins de valeur à telle ou telle nouveauté informationnelle ou à telle ou telle idée originale).
Le participant n'est plus seulement rémunéré en monnaie comme dans l'économie
classique mais en informations et en temps potentiel (devenus instrument d'échange et
valeur de réserve). L'information mémorisée et accumulée sur Internet crée de la
valeur réinvestie dans un capital partagé par tous.
2.1.2.2.2. Deuxième principe : des normes et des standards
Confondus dans le référentiel sémantique anglo-saxon, les normes (référentiel publié par
un organisme de normalisation officiel, reconnus au niveau national par leurs états
comme l'AFNOR en France, ou au niveau international par des traités comme le CEN ou
l'ISO) et les standards (référentiel à diffusion large publié par une entité privée comme
les formats HTML ou la suite bureautique Office de Microsoft dans le domaine
informatique ) font l'objet d'une distinction qui se situe essentiellement au niveau des
acteurs en jeu et des procédures de consensus attachées.
Un référentiel, norme ou standard, sera considéré comme ouvert s'il est diffusé
librement (format HTML par exemple) et fermé dans le cas contraire (suite
bureautique office). Dans ce dernier cas, le fait pour un standard d'occuper la totalité
du marché (système d'exploitation Windows par exemple) permet à son propriétaire de
se retrouver dans une position de monopoleur de fait génératrice d'importantes rentes
de situation.
Ces référentiels communs n'en restent pas moins indispensables pour organiser la cohésion
et l'interopérabilité des organisations de l'intelligence collective globale.
2.1.2.2.3. Troisième principe : un système d'information
Pour créer aujourd'hui de la valeur, l'entreprise collecte, traite et diffuse de l'information
au moyen d'un ensemble de ressources (personnel, données, procédures, matériel, logiciel,
…) permettant d'acquérir, de stocker, de structurer et de communiquer des informations
sous forme de textes, images, sons, ou de données codées dans un système d'information
qui organise et optimise l'espace holoptique partagé par le collectif.
Si les systèmes d'information recèlent une forte composante technologique et
informatique, leur utilité réside dans leur capacité à interconnecter les individus dans
un modèle d'ingénierie des connaissances qui s'articule d'abord autour de la gestion
de contenu (en anglais Content Management), destinée à gérer les informations brutes
à transformer en connaissances mieux structurées, et ensuite autour de la gestion des
accès, c'est-à-dire la gestion des flux et des protocoles d'échange dans les réseaux
de télécommunications internes ou partagés avec les partenaires.
Le problème de l'intelligence collective globale est donc de savoir comment développer
des systèmes d'information efficaces et cohérents quelles que soient les activités qui
seront développées au sein des collectifs.
2.1.2.2.4. Quatrième principe : l'émergence du cyberespace
Terme créé par l'auteur de science-fiction William Gibson ("Le Neuromancien", ed.
La Découverte, 1985), afin de décrire les mondes des réseaux informatiques, le
cyberespace reprendrait l'idée d'une métaphore qui représenterait dans un premier temps
le domaine des interactions entre données et réseaux accessibles par ordinateur, puis dans
un deuxième temps, le monde global de tous les ordinateurs et systèmes connectés
par Internet.
Le philosophe Pierre Lévy, pour qui les réseaux électroniques (entrelacs de
connexions informatiques, de serveurs et de postes clients fédérés par la couche logicielle
qui les recouvre) ne sont qu'une première étape, entrevoit le cyberespace comme un
nouveau milieu de communication non médiatique, de pensée, de travail et de relations
humaines à grande échelle. Chaque participant, au sein de ces nouvelles formes
d'Intelligence Collective, devient potentiellement un émetteur et un récepteur dans un
espace qualitativement différencié. Il ne s'agit plus seulement de recevoir ou de diffuser
une information mais d'interagir dans des contextes que chacun contribue à modifier
ou stabiliser, et d'objectiver des messages livrés au partage et à la réinterprétation dans
des dispositifs de communication tous-tous.
Le « cyberespace » véhicule des idées et des caractéristiques nouvelles, qui en font
un instrument de coordination non hiérarchique et de mise en synergie rapide des
intelligences. Il est par essence un outil capable d‛autorégulation, de décision,
d‛évolution, d‛autonomie, et dont l'extension doit s‛accompagner d'une rupture
de comportements au sein des organisations.
2.1.2.2.5. cinquième principe : un développement personnel
Le développement personnel regroupe toutes les pratiques qui permettent de libérer
notre expression personnelle, d'apprendre mieux, de mieux comprendre autrui. Il contribue
à augmenter la capacité à la pratique de l'Intelligence Collective Globale. Le développement
de l'Intelligence Collective Globale n'est possible qu'à la condition que les acteurs
soient impliqués dans une démarche de développement de soi. De même, le
développement personnel n'a de sens que s'il vise l'amélioration de nos
capacités relationnelles, qu'elles soient de nature affective (pratique de
l'empathie, compassion vis à vis d'autrui, ...) ou cognitives (écoute active, développement
du dialogue, ...)
Ainsi, le travail de décentrage de soi (séparation entre la vision individualiste immédiate et
les exigences de l'intérêt général), entrepris dès les premières expériences de
socialisation vécues par le jeune enfant en contexte d'intelligence collective originelle
(groupe familial, école, ...), conduit-il l'individu à privilégier les attributs sociaux
externes (culture, langue, formation, style, ...) et l'image que ceux-ci renvoient au
détriment de l'intériorité quand l'individu, devenu adulte, s'intègre dans la vie
sociale (dissociation entre sphère privée et sphère professionnelle) au sein des
collectifs d'intelligence pyramidale (université, entreprise, nation, ...).
CONCLUSION POINT 2.1
L'intelligence pyramidale se substitue à l'intelligence collective originelle dans la
majeure partie des collectifs humains pour des raisons liées au nombre d'individus et
aux distances qui les séparent. Elle s'est révélée particulièrement bien adaptée au pilotage
de processus répétitifs et aux principes d'économie d'échelle du paradigme dominant
qui privilégie les rapports de force et l'appropriation des biens rares.
Dans les structures de l'intelligence originelle, le credo est de s'impliquer pour donner
et partager, non pour prendre et lutter. Cette condition d'abondance et de
pluralité représente probablement l'action individuelle la plus difficile à mettre en œuvre,
mais la plus enrichissante collectivement. Cette expérience passe par la construction
d'une vision partagée sur les enjeux d'un tel processus, par un apprentissage individuel
et collectif de méthodologies, d'outils et de technologies
2.2. A sa mise en oeuvre
L'Intelligence Collective conjugue, dans les organisations, changements organisationnels
et mutations comportementales, voire culturelles d'une part, et intégration des
outils technologiques d'autre part. Une communauté, pour apprendre et évoluer, doit
s'appuyer sur une dynamique catalysant des finalités partagées. Cela suppose un
minimum d'alliance entre les acteurs, et un ensemble d'accompagnements interconnectés
2.2.1. L'entreprise intelligente
L'Intelligence Collective répond aux finalités et enjeux de la révolution informationnelle
et suppose la réunion d'un certain nombre de conditions pour permettre à
l'entreprise intelligente d'émerger.
2.2.1.1. Finalité et enjeux de l'Intelligence Collective
L'intelligence collective apparaît comme un moteur du changement. Elle doit être organisée.
2.2.1.1.1. Finalités
L'Intelligence Collective est une problématique récurrente qui suppose l'avènement
d'une démocratie cognitive basée sur des minorités actives.
Le paradoxe en la matière est l'exemple fourni par les chercheurs de l'Université libre
de Bruxelles sur le modèle d'Intelligence Collective des sociétés de fourmis qui
s'avère inapplicable aux sociétés humaines. L'intelligence collective humaine ne se réduit pas
à la simple interaction de ses membres ou ne résulte pas de mouvements de foule,
voire d'effets de masse auto-organisés mais bien de démarches collectives et optimisées
de traitement de l'information dans lesquelles les processus d'adaptation non formels
se substituent à la sélection aveugle ou aux mouvements d'une opinion manipulée par les médias.
Les masses ne sont pas naturellement intelligentes. Le tout émergent n'est pas seulement
un peu plus que la somme de ses parties. Il est en même temps certainement moins que
la somme de ses potentialités individuelles. Comme l'a démontré Herbert Simon,
notre information est toujours imparfaite. Notre temps disponible et nos capacités
d'analyse sont très limités. C'est d'ailleurs cette capacité limitée d'accès et de traitement
de l'information qui obère les possibilités de communication de masse et
d'Intelligence Collective.
La résolution de ce paradoxe passe donc nécessairement, au sein des organisations, par
une division des tâches et une organisation qui reprendraient les avantages des
structures pyramidales avec des nœuds de concentration, la constitution d'une
mémoire collective et une restructuration du traitement et de diffusion de l'information.
La finalité de l'opération est de limiter les déperditions entre les objectifs politiques,
fixés par le sommet, et leur traduction concrète sur le terrain telle qu'elle peut être
vécue par la base. En quelque sorte, l'autonomie réelle de l'individu ne peut être que le
produit d'une organisation apprenante, structurée sous forme de "démocratie cognitive",
et animée par des minorités actives coordonnées entre elles et intégrées en réseau.
Cette "entreprise intelligente", qui conjugue Intelligence collective, Knowledge Management
et Technologies de l'Information et de la Communication repose sur les
nécessaires coopérations intellectuelles (intra et interorganisationnelles) qui sont le moteur
du changement.
L'Intelligence Collective, à finalité ontologique, a donc besoin que les participants acceptent
de partager, au sein de cette nouvelle structure organisationnelle, ce qui leur
semblera important, voire prioritaire (leur activité professionnelle au sens strict par
exemple), mais aussi ce qui est constitutif de leur vie personnelle et de leurs valeurs. .
2.2.1.1.2. Enjeux
Le management de l'Intelligence Collective doit faciliter le passage des organisations
vers l'ère informationnelle en capitalisant les acquis de l'ère industrielle.
La situation, qui s'avère
paradoxale, articule deux logiques contradictoires qui se superposent et doivent
coexister : d'un coté le modèle de la société industrielle, porté par le taylorisme, dont
le principe est pyramidal et hiérarchique, et de l'autre coté le modèle de
l'ère informationnelle, aux modes de pensée systémique, qui relève de l'intelligence
collective originelle.
Dans cette situation, pour résoudre les contradictions, les participants s'inscrivent dans
une dynamique de subsidiarité oscillant entre des approches exogènes d'autorité et
de contrôle (figure 8) dans le cadre d'un optimum cartésien (théorie X de Mac Gregor) et
des pratiques managériales heuristiques et endogènes (figure 9) basées sur
la responsabilisation et la confiance (théorie Y de Mac Gregor).
Le responsable de l'organisation doit initier, étape par étape, à partir d'une
logique hiérarchique et directive, un processus permettant de générer de la subsidiarité
pour donner aux acteurs impliqués dans le collectif des moyens de prendre des
responsabilités. C'est une démarche au cours de laquelle il doit, peu à peu, tout en
délégant progressivement ses responsabilités, continuer de maintenir un contrôle sur
le processus pour une éventuelle reprise en main si la situation vient à déraper.
En outre, les organisations sont entrées dans une reconfiguration permanente du marché où
la vitesse de réaction (early warning) et de renouvellement de l'entreprise est devenue
une variable stratégique de première importance. Cette adaptation de l'organisation
aux nouvelles contraintes et la complexité croissante de l'environnement concerne tous
les niveaux de l'entreprise, du local au global, et impose de nouveaux schémas caractérisés
par des dynamiques non seulement réactives mais aussi proactives. Le capital de
l'entreprise est aujourd'hui sa matière grise mobilisée par cette nouvelle culture de
projets transverses centrés sur le client et l'action prospective.
Le développement du travail collaboratif, au sein des groupes projets, oblige les acteurs
à percevoir collectivement les enjeux et à articuler leurs interventions et leurs activités
dans une logique où ils sont amenés à repenser leur travail en fonction de leur
contribution individuelle à la réalisation de l'objectif commun. Les logiques sectorielles
ne peuvent être arbitrées que par un accord sur les finalités.
Les enjeux stratégiques, tactiques et opérationnels ne peuvent plus s'inscrire uniquement
dans des logiques d'anticipation et de planification. L'intelligence collective disqualifie
les logiques de segmentation et de ciblage pour valoriser les logiques de processus
émergents. Désormais, les choix stratégiques et les décisions de quelque nature
qu'elles soient, tactiques ou opérationnelles, sont le fait de l'ensemble des acteurs
impliqués dans l'organisation. Le pilotage devient multi-niveaux. Ce sont désormais
les exécutants qui pensent et les managers qui exécutent. La logique de délégation, peu à
peu, se transforme en une logique de subsidiarité. L'intelligence collective devient le
fonds sédimentaire de la croissance et de la survie de l'entreprise.
2.2.1.2. Les conditions de l'Intelligence Collective
La logique taylorienne qui prévaut encore aujourd'hui dans les organisations réserve aux
seuls managers le droit de penser et de prendre les décisions. Dans ce cas, les marges
de manœuvre pour introduire une démarche d'Intelligence Collective sont étroites
et n'autorisent que des pratiques délégataires (transmission progressive exogène du
pouvoir qui reste entre les mains des hiérarques). L'organisation ne pourra passer
d'une logique d'obéissance à une logique de responsabilité que dans la mesure où
les responsables de l'organisation qui souhaitent s'engager dans une démarche
d'Intelligence Collective ont défini des objectifs clairs (savoir coopérer, vouloir
coopérer, pouvoir coopérer), des enjeux mobilisateurs pour les participants, et créé le
niveau de confiance nécessaire pour catalyser une dynamique de responsabilisation et un
esprit entrepreneurial.
Le développement d'un esprit entrepreneurial est une condition forte. L'Intelligence
Collective ne peut être le résultat d'un simple changement organisationnel ou d'un
changement d'attitude du ou des managers au sein de l'entreprise. Toutes les études
réalisées dans ce domaine démontrent que la pérennisation des activités des
entreprises repose principalement sur le fait de posséder un noyau de valeurs fortes,
des objectifs ambitieux, et une vision émergente partagée par l'ensemble des acteurs à
tous les niveaux de l'organisation.
Les responsables de l'entreprise, en devenant des centres ressources qui impulsent
des processus plus éducatifs que didactiques, reconfigurent les hiérarchies
intermédiaires d'une architecture sociale qui s'aplatit et se liquéfie.
Un niveau plus profond de changement peut s'avérer nécessaire au delà de celui qui touche
les organisations. Il concerne les individus qui doivent en permanence passer d'un
niveau logique à un autre (Top management, Middle Management, Collectif) et situer le sens
de chacune de leurs actions par rapport à l'action globale. La maîtrise des
compétences nécessaires en termes de mobilité intellectuelle et relationnelle ne peut
faire l'économie de processus éducatifs générant plus d'autonomie et d'interdépendance.
Enfin, les préoccupations de l'émetteur et du récepteur, par nature dissociées dans
les collectifs de l'intelligence originelle, nécessitent de définir des règles de communication
et d'échange appropriées comme celles de la métacommunication et de la redondance. pour
le partage d'informations, l'actualisation des savoirs et des pratiques.
2.2.2. Les outils de l'Intelligence Collective
Le concept d'Intelligence Collective, qui conjugue communication tous-tous, collaboration
et partage des connaissances, s'est construit à partir des interactions et des
réflexions menées par des collectifs humains. Ces nouvelles voies de coopération et d'accès
à la connaissance ont essentiellement été ouvertes grâce aux développement des
technologies informatiques et des réseaux.
2.2.2.1. les outils actuels
L'organisation et l'exploitation de la masse d'informations offerte par les
réseaux informatiques ont été rendues possibles grâce aux différents logiciels et
programmes informatiques qui ont été développés depuis une quinzaine d'années.
2.2.2.1.1. Outils d'accès à l'information
L'Intelligence Collective a besoin d'outils qui favorisent et structurent l'accès des individus
à la connaissance des autres. On distingue :
- les normes et les standards qui orientent les logiciels vers le traitement de formats
de données compatibles en ce qui concerne les formats d'enregistrement de données (base
de données SQL, Oracle, LDAP,...) les formats de documents (html, xml, xhtml, XPointer,
XML Base, XLink, XSL, RDF, SMIL, SVG, WML, OPML, VRML, ...), les langages de
définition (DTD, XML Schema, RDF Schema, ...), les langages d'ontologies permettant
la représentation de concepts (OML, XOL, OIL, ...), les langages de services (Web
services, SOAP, XML-RPC, ...)
- les outils de cartographie de l'information qui ont pour objectif de permettre
une visualisation aussi simple que possible d'un nombre très élevé de données et qui
regroupent les arbres de connaissance (cartographie dynamique des savoirs et savoir
faire transformés en un visuel accessible à l'interprétation individuelle), la
cartographie dynamique des membres d'un réseau, l'arbre des forums pour répartir
les discussions sur des forums thématiques distincts.
- le web sémantique, dont l'objectif est de représenter les données qui se trouvent dans
les différents documents dans un langage, basé sur la technologie RDF (Resources
Description Framework), qui soit à la fois analysable et interprétable par les
différents logiciels et qui puisse mettre en collaboration effective les hommes et les machines.
2.2.2.1.2. Outils de collecte de données
Pour faciliter la recherche et la collecte d'informations présentes sur le Web sont
apparus, dans les années 90, de nombreux moteurs de recherches, soit de type
généraliste comme Google, Yahoo ou Altavista, soit destinés à la recherche d'informations
plus spécifiques comme NecResearch (documentation scientifique), Aleph (moteur
de recherche spécialisé en sciences humaines, ...).
A coté des moteurs de recherche se sont développés des vigiciels (petits programmes
qui circulent sur les réseaux à la recherche d'informations) appelés agents, souvent
spécialisés dans des tâches précises (surveillance, alerte, ...) comme Copernic Agent
(méta agent qui utilise les résultats de plusieurs moteurs de recherche), InfoFinder (agent
qui produit des résumés des sources qu'il parcourt), PicaLoader (spécialisé dans la
recherche d'images, ...).
La syndication (flux RSS) est aussi un outil de collecte de données dont le principe consiste
à rechercher et aspirer les nouveautés des sites favoris en fonction de la nature
des informations souhaitées.
Ce sont cependant les techniques d'intelligence artificielle (systèmes experts ) et
les connexions neuronales qui, à partir de bases de connaissances, d'heuristiques et
des algorithmes de data mining, vont pouvoir traiter les grandes bases de données afin
d'en extraire des informations pertinentes et assurer une gestion distribuée
des connaissances.
2.2.2.1.3. Outils de communication
Les outils qui facilitent la communication sont parmi les plus utilisés dans le monde
de l'entreprise. On distingue :
- les outils classiques de communication électronique asynchrone (messagerie
électronique, clavardage, forums de discussion électronique, foires aux questions, ....)
- les outils classiques de communication électronique synchrone (logiciels peer-topeer, tableaux blancs, systèmes de visioconférence, ...)
- les weblogs ou blog qui sont des outils de publication de contenus interactifs
(journaux intimes sous forme de textes, photos, hyperliens, ...) qui
s'indexent automatiquement sur le net et constituent un immense répertoire
d'expérience collective et d'agrégation des savoirs individuels
- les outils collaboratifs qui ont pour objectif de centraliser les données (Microsoft
Project Server pour la gestion du temps et des ressources, Microsoft Share Point pour
la centralisation et le partage de documents, ...) ou qui permettent de partager l'édition
d'un site web entre plusieurs internautes (technologie Wiki pour l'intégration des
savoirs individuels et l'optimisation du savoir collectif, espaces collaboratifs, ..).
A l'ère du numérique, l'intelligence collective ne peut se développer sans l'aide d'outils,
de programmes et de logiciels qui vont rechercher, collecter, hiérarchiser,
sélectionner, organiser, et diffuser aux individus les connaissances disponibles. La plupart
de ces outils, programmes et logiciels ont été créés pour pallier les insuffisances
de l'intelligence pyramidale qu'ils cherchent à rendre plus horizontale. Ils s'inscrivent
encore cependant dans des dynamiques individuelles génératrices de rareté qui permettent
de maximiser les contreparties au partage du savoir
Les outils dits "Open Source" semblent néanmoins ouvrir la voie d'un cyberespace
débarrassé des contraintes hiérarchiques et territoriales de l'Intelligence Collective.
2.2.2.2. les outils du futur
Si les outils créés deviennent de plus en plus conviviaux et relationnels, peu d'entre
eux permettent l'holoptisme ou la création et la circulation d'objets-liens
2.2.2.2.1. les jeux de rôle en ligne massivement multi-joueurs
Derrière les barbarismes de MMOG (Massively Multiplayer Online Game) et
MMORPG (Massively Multiplayer Online Role Playing Game) se cache une forme récente
de logiciel vidéo ludique sur Internet à partir duquel un ou plusieurs individus (un jeu
est massivement multi-joueurs lorsque il peut accueillir une centaine de
joueurs simultanément) peuvent interagir simultanément.
Les
jeux multi-joueurs en ligne et les jeux de rôle en ligne massivement multi-joueurs
consistent en un univers virtuel persistant (le monde évolue même quand vous ne jouez pas)
et évolutif (les territoires se perdent et se gagnent de jour en jour) accessible uniquement
sur Internet auquel le participant se connecte via un avatar (personnage) qu'il fait évoluer.
On commence généralement par jouer en solitaire, puis on rencontre des joueurs qui vont
vous aider et avec lesquels on va former un groupe, qui pourra se formaliser en une guilde.
Ces univers incroyablement riches et dotés de leurs propres référents culturels (le
classique du genre dans le style fantasy, Dark Age Of Camelot, représente un univers
médiéval fantastique fictif) peuvent être considérés comme des simulations
d'organisations sociales plus ou moins développées en constante évolution (les
éditeurs apportent constamment des améliorations et des modifications sous forme de plugin que les joueurs doivent télécharger pour continuer de participer. Une forme
d'existence virtuelle donne donc vie à ces communautés auxquelles le réseau va se
consacrer (apparition d'une offre commerciale de produits/services en ligne
permettant d'acheter des objets « virtuels » avec de l'argent « réel » pour le jeu Everquest 2)
Certains de ces jeux de rôle multi-joueurs en mode texte , dérivés du genre MUSH
(Multi-User Shared Hallucination) sont basés sur l'identification, la socialisation et
la construction d‛un monde virtuel et poussent les participants jusqu'au bout de
leur imagination. Le jeu, à l'instar d'Elendor, le plus ancien et le plus populaire des
MUSH, propose un monde rempli de salles interconnectées parmi lesquelles le joueur
peut évoluer et explorer le monde à sa guise au travers les descriptions de paysages et
de personnages présentées. Chaque salle possède son environnement propre, des
objets interactifs, des avatars et la liste des sorties possibles. Le succès est tel
qu'une simulation d'entraînement massivement multi-joueurs, appelée AWE
(Asymmetric Warfare Environment) a été développé par l'armée américaine en 2004
pour former ses soldats à la guerre urbaine.
Il s'agit donc incontestablement des premiers outils au sein desquels la notion d'holoptisme
a été le plus explorée. Les réalités virtuelles, les avatars et les nouveaux codes
sociaux s'entremêlent et dessinent peu à peu un autre paradigme de communication à
partir duquel se forment les espaces de l'écologie sociale de demain.
Ainsi, les membres des communautés ne se contentent-ils pas d‛échanger. Ils s'engagent
dans des processus d'apprentissage nouveaux à partir de prototypes d‛interface
qui préfigurent les pratiques culturelles systémiques de demain. Le sens stratégique
et tactique, la capacité à s‛approprier des systèmes complexes et à y interagir, la culture
de réseau représenteront les éléments indispensables du portefeuille de compétences que
les individus devront se constituer pour utiliser ces outils avec efficacité.
2.2.2.2.2. les outils digitaux dans les espaces de synthèse
Dans les cyberespaces nouvellement créés, les individus ne peuvent utiliser actuellement que
la vue et l'ouïe. Les évolutions opérées dans les interfaces homme-machine, notamment
grâce aux micro-technologies intrusives (prothèses intra-auriculaires) ou non
(puces électroniques logées dans les vêtements) autorisent dorénavant nos autres
sens (toucher, odorat, goût) à s'approprier la sphère virtuelle, transformant peu à peu
les êtres humains en cyborg (Le terme "cyborg", contraction de l'expression d'origine
anglaise « cybernetic organism », popularisé par Manfred E. Clynes et Nathan S. Kline en
1960, se réfère au concept d'un être humain « amélioré » doté d'un cyberorganisme qui
lui permettrait de survivre dans des environnements extra-terrestres).
Dans son libre, "Cyborg, portrait de l'individu du 21e siècle", Jacques Dufresne représente
le cyborg comme "un individu doté d‛oreillettes et de microphones miniaturisés, équipé
de lunettes avec écran à cristaux liquides et de micro-caméra, relié au web en permanence
et pouvant accéder, en temps quasi réel, à toute la connaissance et la mémoire humaines.
Son corps a incorporé des extensions qui décuplent ses facultés physiques et mentales. Il
est homme et machine. "
L'immersion totale dans des espaces de synthèse permet, grâce au multimédia, de
modéliser les savoirs dans une configuration digitale commune restituée à la demande ou
en fonction de scénarios préformatés. Des programmes de formation distancielle par
Internet proposent déjà aux apprenants de dialoguer en langage naturel avec des
personnages fictifs et interactifs dotés d'une véritable personnalité et capables de
s'adapter à la progression pédagogique et au profil psychologique des étudiants par
un processus dynamique et ludique.
On peut imaginer que ces mêmes technologies, vulgarisées, permettront à chacun de
décalquer, sur ses propres avatars virtuels, les traits caractéristiques de sa
personnalité. Ceux-ci pourraient donc tenir, en notre absence, un rôle de représentation
et nous remplacer pour dialoguer avec les personnes qui cherchent à nous joindre. Ainsi le
don d'ubiquité pourrait-il devenir réalité en donnant aux individus la faculté d'être présent,
au même moment, en plusieurs lieux à la fois en y exerçant tous les rôles.
CONCLUSION POINT 2.2
L'Intelligence Collective correspond à une culture émergente dans les pays industrialisés
qui est caractérisée par l'horizontalisation des organisations, la prégnance de l'Internet
et des réseaux dans les schèmes culturels et une dynamique sociale fondée sur
l'échange relationnel. Elle participe pleinement de la société de l'information et du savoir
au sein de laquelle la création de valeur est moins fonction du territoire, du capital ou
du travail que des idées et/ou des innovations que les individus peuvent porter.
Elle suppose à la fois l'intégration d'une dynamique organisationnelle et une
reconfiguration identitaire permanentes
L'Intelligence collective doit permettre à la chimie sociale du cyberespace de produire
des collectifs humains inter ou transentreprises plus efficaces et plus attrayants pour
leurs participants.
CONCLUSION
Le Management de l'Intelligence Organisationnelle, au travers la mise en œuvre
du benchmarking, processus séquentiel d'étalonnage des meilleures pratiques sur un maillon
de la chaîne de valeur de l'organisation, permet de déterminer les opportunités
d'amélioration et d'accroître l'efficacité et la compétitivité de l'entreprise. Source
de création de valeur, il est aujourd‛hui considéré comme un outil de management complet
qui permet de dire à quel moment une entreprise est devenue la meilleure et comment elle
y est parvenue.
Il est la voie propédeutique à la mise en place du Management de l'Intelligence
Collective (MIC). Celui-ci substitue au pilotage de processus répétitifs et aux
principes d'économie d'échelle de l'intelligence pyramidale les démarches managériales
de l'Intelligence Collective Originelle qui privilégient le partage des savoirs dans
des organisations qui s'horizontalisent et au sein de communautés de pratiques où
la satisfaction des besoins individuels peut s'avérer compatible avec la satisfaction
des besoins collectifs.
BIBLIOGRAPHIE
ATTALI J., L‛homme nomade, in Lignes d‛Horizon, Ed Fayard, 1996, 81p
BALM J.G, Evaluer et améliorer ses performances, Editions Afnor, 1994
BARTHE M., Ergonomie des logiciels, une nouvelle approche des
méthodologies d‛informatisation, Paris : Masson, 1995., 191 p.
BAUMARD P., La gestion stratégique de la connaissance, Masson, 1997
Bouchaud JP, "La (regrettable) complexité des systèmes économiques", Article dans "Pour
la Science", décembre 2003
BRETON P., À l‛image de l‛homme: de Golem aux créatures virtuelles, Paris, Seuil, 1995
BRETON (le) D., L‛adieu au corps, Métailié, 1999
CAMP Robert C., Le Benchmarking, éditions d'organisation, 1993
CAMP Robert C., Le Benchmarking, Pour atteindre l'excellence et dépasser vos
concurrents, éditions d'Organisation, 1992
CHANG R. , KEITH K., Progresser avec le Benchmarking, Les presses du management, 1995.
CNET , Cahier des charges type pour les tests d‛ergonomie, Notes techniques CNET, 1992
DE ROSNAY J., L'homme symbiotique, Seuil, 2000
DUFRESNE J., Après lhomme, le cyborg ?, Éd. Multimonde, 1999
DYENS O., Chair et métal: évolution de l'homme, la technologie prend le relais, Montréal,
VLB, 2000
ELMUTI D., KATHAWALA Y., An overview of benchmarking process : a tool for
continuous improvement and compétitive advantage, in Benchmarking for Quality
Management and technology, Vol 4, n°4, 1997, pp. 229-243.
GENOT G., le benchmarking, nouvel outil du management., In : Revue française du marketing, n
°141, 1993., pp 66-70
HAUGHTON M., GRENOBLE W., THOMCHICK E., The role of benchmarking in performance
of the import process, in International Journal of Physical Distribution and
Logistics Management, Vol 29, n°9, 1999
KURZELL R., The Age of Spiritual Machines. When Computers Exceed Human
Intelligence, Viking, 1999
LENHARDT V., BERNARD V., L'intelligence collective en action, Village Mondial, 2005
LEPEULE J.M. ; MARTI Y. M., Benchmarking et intelligence économique , Edition
Eurostaf, 1999
LEVY P., Cyberculture. Editions Odile Jacob, Paris, 1997
LEVY P., L'intelligence collective. Pour une anthropologie du cyberespace, La Découverte,
Paris, 1994, collection de poche en 1997
LEVY P., Cyberdémocratie, Editions Odile Jacob, 2002
MANN S., Cyborg. Digital Destiny and Human Possibility in the Age of the
Wearable Computer, Doubleday Canada, 2001
MENZEL P., FAITH D'A., RoboSapiens, une espèce en voie d‛apparition, Autrement, 2001
NOUBEL Jean-François, Guide pratique d'Intelligence Collective , www.thetransitioner.
org, 2004
SALOFF-COSTES M., Le management du 3e millénaire, Editions Guy Trédaniel, 2004
SENGE P., La cinquième discipline, First, 1991
ZARA O., L'intelligence collective, Editions M2, 2005
SITOGRAPHIE
http://www.3ie.org 32
http://www.vision-nest.com
http://www.apqc.org
http://www.bmpcoe.org
http://www.ihmc.us
http://europa.eu.int/comm/enterprise/ict/policy/benchmarking.htm
http://vigie.adepa.asso.fr/services
http://www.benchnet.com
http://www.thetransitioner.org
http://www.fing.org
http://wiki.crao.net/index.php/IntelligenceCollective
http://www.axiopole.com/
http://www.cornu.eu.org/texts/jean_michel_cornu.shtml
http://membres.lycos.fr/natvidal/levy.htm
http://www.sudqualité.org/documents/mementos/benchmarking/bench.htm
http://www.efqm.org
http://endehors.org/news/7248.shtml
http://www-tic.unilim.fr/article.php3?id_article=94
http://www.mic.gouv.qc.ca/publications/outils-gestion/analcom.pdf - Analyse comparative de
la valeur des produits par la clientèle - Benoît TREMBLAY - Publié par la Direction
des communications - avril 1995 - Révisé en novembre 1997 - N° de document : 1383
http://strategis.ic.gc.ca/SSGF/bs00025f.html - Code de conduite en matière
d'analyse comparative
http://www.sudqualite.org/documents/mementos/Benchmarking/bench.htm - Le Benchmarking
http://strategis.ic.gc.ca/SSGF/bs00212f.html - Les Dix étapes de l'analyse comparative
LE BENCHMARKING
1 - La paternité du concept de benchmarking revient à
Minolta
Canon
Rank Xerox
Ricoh
Sharp
2 - Le benchmarking est un processus (cocher la mauvaise réponse)
continu (les méthodes et les savoir-faire évoluent très rapidement sur le marché
concurrentiel
systémique (approche globale qui comprend des étapes et des moyens)
d'évaluation (comparer et mesurer les éléments du processus, dégager les
différences, analyser les écarts observés, en identifier les causes, valider le progrès
réalisé et retranscrire les différences observées)
de nos produits, services et méthodes par rapport à ceux des concurrents les plus
sérieux ou des entreprises reconnues comme leaders
de management qui consiste à apprendre des entreprises, considérées comme
leaders dans leur domaine ou fonction, ce qu'elles savent faire le mieux pour l'adapter
en l'améliorant si cela est possible
3 - Un benchmark est un indicateur qui permet de
comparer les produits de l'entreprise avec ceux des concurrents
mesurer la performance de l'entreprise par rapport à ceux des concurrents
mesurer la performance de l'entreprise par rapport à des objectifs prédéfinis
se comparer soi-même avec le ou les meilleurs dans le domaine concerné
comparer ses résultats avec ceux des années précédentes
4 - Le benchmarking concurrentiel se pratique par rapport à
plusieurs services internes de l'entreprise
des producteurs de produits concurrents
des services extérieurs et leaders dans la fonction à benchmarker
des processus
des méthodes de travail
5 - L'intégration du benchmarking dans la sphère publique a été intiée par
L'Ecole de Chicago
The New World Management
The Public Choice
The New Public Management
L'Ecole de Lausanne
6 - La MOC
soumet la norme concurrentielle à l'impératif de compétitivité
impose un cadre compétitif pour coordonner les politiques nationales des Etats
membres de l'UE
remplace la pratique du benchmarking par le principe de subsidiarité
substitue au principe de subsidiarité la pratique du benchmarking
est un outil de politique nationale
7 - L'une des 5 propositions suivantes n'appartient pas à la démarche du
benchmarking. Laquelle ?
Planning
Analysis
Integration
Action
Budget
8 - La phase intégration consiste à
comparer les indicateurs de performance de l'entreprise avec ceux des concurrents
déterminer les causes de variance
planifier les niveaux de performance futurs
faire accepter le benchmarking dans l'entreprise
évaluer le benchmarking
9 - L'un des indicateurs ci-dessous n'est pas un indicateur de performance.
Lequel ?
Performance client
Performance financier
Performance opérationnel
Performance développement
Performance stratégique
10 - Le code de déontologie a été édicté par
International Benchmarking Clearinghouse
International Benchmarking Sandhouse
International Benchmarking Management
Benchmarking Network Management
Management benchmarking Group
Voyons vos résultats et la correction ...
LA MANAGEMENT DE L'INTELLIGENCE COLLECTIVE
1 - Pierre Levy a écrit, au début des années 80, un ouvrage intitulé
La révolution numérique
La révolution informatique
L'intelligence numérique
L'intelligence collective
L'informatique collective
2 - Pour atteindre le niveau de performance souhaité dans le cadre d'un modèle
d'intelligence collective, Pierre Lévy pense qu'il faut
à la mise en place un modèle organisationnnel composé de principes stratégiques,
méthodes et consignes prédéterminés
des processus susceptibles de mettre en évidence l'existence et l'intérêt des
actions et interactions individuels, ainsi que des construits individuels
des êtres humains capables individuellement d'apprendre, de réfléchir et de
prendre des décisions
des collectifs, humains ou non, capables d'acquérir et de mobiliser une cognition
individuelle
des entreprises qui mutualisent leurs ressources (matérielles, financières,
humaines) pour accroître ce niveau de performance
3 - Une des propositions ci-dessous ne correspond pas à une forme d'intelligence
collective. Laquelle ?
intelligence pyramidale
intelligence en essaim
intelligence collective originelle
intelligence artificielle
swarm intelligence
4 - L'holoptisme représente
un collectif humain qui a atteint un haut degré de cohésion
un espace physique ou virtuel au sein duquel les acteurs ont la faculté de voir tout
ce qui se passe
un desing organisationnel d'un espace dans lequel le niveau des droits d'accès est
inversement proportionnel au statut des membres
un objet collectivement recherché
un ensemble de règles du jeu
5 - L'Economie du Don est caractéristique de
l'intelligence pyramidale
l'intelligence collective originelle
l'intelligence en essaim
l'intelligence artificielle
l'intelligence service
6 - L'une des 5 propositions suivantes ne correspond pas aux principes de
l'Intelligence collective globale
monnaie suffisante
normes et standards
système d'information
émergence du cyberespace
contrat de vente
7 - L'une des propositions ci-dessous ne convient pas pour qualifier le
cyberespace
le domaine des interactions entre données et réseaux accessibles par ordinateurs
le monde global de tous les ordinateurs et systèmes connectés par Internet.
un nouveau milieu de communication médiatique à grande échelle
l'instrument de coordination non hiérarchique et de mise en synergie rapide des
intelligences
l'outil capable d'autorégulation, de décision, d'évolution, d'autonomie, et dont
l'extension doit s'accompagner d'une rupture de comportements au sein des
organisations
8 - Le web sémantique est basé sur une technologie
PDF
UDF
RDF
ASF
QDF
9 - La syndication (flux RSS) est un outil de collecte des données qui permet
une visualisation complète d'un nombre très élevé de données
une structuration de l'accès des individus à la connaissance des autres
un outil de collecte de données dontune recherche et une collecte des nouveautés à
partir des sites favoris en fonction de la nature des informations souhaitées
de publier des contenus interactifs (journaux intimes sous forme de textes,
photos, hyperliens, ...) qui s'indexent automatiquement
le partage de l'édition d'un site web entre plusieurs internautes
10 - Les MMOG et MMORPG sont
des univers non virtuels persistants et évolutifs
des univers virtuels non persistants et évolutifs
des univers virtuels persistants et non évolutifs
des univers virtuels persistants et évolutifs
des univers réels non persistants et non évolutifs
Voyons vos résultats et la correction ...
MANAGEMENT DE
L'INFORMATION ET COMPETITIVITE DES
ORGANISATIONS
Séquence 4 : De la prise de décision au management de l'Intelligence
Collective Application 1
EXERCICE 1
Retrouvez les 10 commandements du benchmarking tels qu'énoncés par
LEONARD FULD dans son Monitoring the Competition: Finding Out What's
Really Going On Over There (New York, John Wiley & Sons, 1987).
Commentez les
EXERCICE 2
Retrouvez les 8 recommandations du code de conduite du Benchmarking de
l' International Benchmarking Clearinghouse. Quel types de relations ce
Code de bonnes conduites est-il destiné à mettre en place entre les acteurs
impliqués dans le benchmarking.
EXERCICE 3
Vous devez procéder au benchmarking des contrats d'externalisation
passés avec vos différents fournisseurs, notamment dans le domaine des
IT, en précisant quels seront les indicateurs de coût et de prix que vous
allez utiliser pour cela, quels seront leurs objectifs, et les résultats que
vous attendez
MANAGEMENT DE L'INFORMATION ET
COMPETITIVITE DES ORGANISATIONS
Séquence 4 : De la prise de décision au management de l'Intelligence
Collective
Application 2 - Sans corrigé
CAS BENCHMARKING
Vous êtes chargé (e), dans le cadre de votre stage, de réaliser une
opération d‛étalonnage concurrentiel pour le compte de l‛Université de
Picardie sur les meilleures pratiques en matière de e-learning.
L‛objectif de l‛Université sera à terme de conduire une opération de
reengineering pour améliorer l‛efficacité des processus actuellement
utilisés
Après avoir identifié et caractérisé les éléments clés d‛un dispositif de
formation e-learning (technique, organisationnel et pédagogique), vous vous
acquitterez des tâches suivantes : - choix des indicateurs qui permettent
d‛évaluer le processus en termes de plate-forme, de coût, de qualité du
produit, de services à l‛apprenant, ….
- choix des acteurs les plus performants sur ces processus
- recueil de l‛information sur les pratiques et le niveau de performance de
ces acteurs
- analyse des données et mise en évidence des écarts et des opportunités
d‛amélioration
- adaptation et mis en œuvre des meilleures pratiques en fixant des
objectifs d‛amélioration raisonnables et acceptés
Vous travaillerez dans le cadre d‛une équipe et utiliserez les outils de
travail collaboratif. Vous respecterez la démarche méthodologique fournie.
GUIDE METHODOLOGIQUE DU BENCHMARKING
La démarche méthodologique de benchmarking s'articule autour des quatre
phases suivantes :
Phase 1 : Planification
Cette phase consiste à préparer les recherches en définissant quoi, qui, et
comment :. Que doit-on rechercher (choix des domaines du benchmarking) ?
. A qui (choix des partenaires) et à quoi (choix des benchmarks) doit-on se
comparer ?
. Comment collecter les données (choix des méthodes) ?
Il est important de considérer le benchmarking comme un processus de
découverte et d'analyse des meilleures méthodes qui permettront de
réaliser des objectifs
Phase 2 : Analyse
L'analyse implique une connaissance parfaite de ses propres méthodes, une
évaluation rigoureuse de ses points forts et de ses points faibles, et une
analyse tout aussi rigoureuse des méthodes et partenaires du
benchmarking.
Les réponses donneront la mesure de l'écart de performance négatif,
positif ou nul. Cet écart fournit une base objective d'action : réduire
l'écart ou capitaliser sur l'avantage acquis. Cet écart est calculé sur une
projection des résultats, il est donc amené à changer au fur et à mesure
que les méthodes évoluent. Le benchmarking doit donc être un processus
permanent, permettant d'assurer une réévaluation constante des objectifs.
Phase 3 : Intégration
L'intégration est le processus qui permet d'utiliser les conclusions de
l'enquête du benchmarking pour la fixation d'objectifs opérationnels. Cela
demande une planification rigoureuse pour incorporer les nouvelles
méthodes au fonctionnement de l'entreprise. L'intégration consiste aussi à
obtenir l'accord de l'encadrement puis de l'ensemble du personnel. Pour
cela il faut communiquer à tous les niveaux et apporter la preuve de la
crédibilité et de l'exactitude des conclusions de l'enquête.
Phase 4 : Action
Les conclusions du benchmarking et les principes opérationnels définis
doivent être traduits en applications concrètes qui seront évaluées
périodiquement pour mesurer les progrès accomplis
Ces 4 phases se déclinent en 10 étapes
Phase 1 : Planification
1.
Identifier l'objet des recherches
- Identifier les produits ou les problèmes qui nécessitent une opération de
benchmarking. Cette identification peut se faire de différentes manières :
à partir de la mission principale de l'entreprise, d'un secteur ou d'une
fonction, on évalue les produits, les services que les clients sont en droit
d'attendre ou bien on établit la liste des dysfonctionnements présents ou
prévisibles.
2.
Identifier les indicateurs de mesure et les entreprises à comparer
- Exploiter dans un premier temps toutes les informations disponibles dans
le domaine public afin d'identifier les indicateurs quantitatifs et qualitatifs
et les entreprises à évaluer .
- Sélectionner dans un second temps les entreprises dont les méthodes
surpassent les autres.
3.
Choisir la méthode de collecte des données
Le choix de la méthode de collecte des données est fonction de plusieurs
critères et caractéristiques : la qualité et la quantité des données, leur
coût d'obtention, le temps nécessaire à leur collecte et le recours éventuel
à des spécialistes. Les méthodes retenues vont viser à exploiter tout
d'abord les sources d'informations internes puis les sources externes.
- Analyse de produits de la concurrence,
- Exploitation des publications et études internes,
- Interview des experts internes,
- Consultation de base de données documentaire,
- Exploitation des revues et publications professionnelles (bibliothèques,
centres de documentation, annonces publicitaires, magazines économiques,
séminaires, conférences, sources universitaires),
- Consultations d'associations professionnelles,
- Consultation de dossiers de missions de consultants (par l'envoi d'un
questionnaire ou par la demande d'un rapport écrit),
- Appel à des analystes, experts dans certains domaines (systèmes
informatiques, logiciels, ...),
- Contacts personnels chez les concurrents...
Dans le choix de la méthode de collecte des données, il est recommandé de
procéder par étapes de difficulté croissante.
Phase 2 : Analyse
4.
Déterminer l'écart de performance
- Comparer les données obtenues aux données internes pour dégager un
écart de performance, positif ou négatif.. L'analyse comparative de l'écart
doit conduire à étudier les différences de méthodes et de leurs impacts
sur le plan qualitatif et quantitatif.
5.
Fixer les futurs seuils de performance
- Projeter l'évolution des écarts de performance définis et fixer les
objectifs à atteindre pour les combler et arriver à des résultats
compétitifs ( fixer des objectifs peu nombreux et traduire en termes
opérationnels pour l'entreprise, ce qui a été découvert à l'extérieur).
La définition des objectifs doit faire mention des méthodes retenues. En
outre une description précise de ces méthodes contribue à une meilleure
adhésion des acteurs du changement.
Phase 3 : Intégration
6.
Communiquer les résultats du benchmarking et les faire accepter
- Vaincre les réticences au changement et "vendre" les nouvelles méthodes
à ceux qui devront les appliquer.
- Déterminer la cible et ses besoins puis sélectionner les méthodes de
communication adaptées et enfin organiser la présentation des résultats
pour la meilleure compréhension possible. Cette étape doit permettre
d'inciter les acteurs à prendre des initiatives en matière de recherche du
changement.
7.
Etablir des objectifs fonctionnels
- Etablir une liste des objectifs existants dans l'entreprise
- Réexaminer ces objectifs par rapport aux résultats de l'enquête de
benchmarking
- Modifier les objectifs (confirmation, modification de l'ordre de priorité,
fixation de nouveaux objectifs...)
Phase 4 : Action
8.
Elaborer des plans d'actions
- Opérer la distinction entre les méthodes et les moyens de faciliter leur
mise en œuvre. Ils doivent être intégrés dans le processus de planification.
Le plan d'actions est établi en répondant aux questions : Qui ? Quoi ?
Quand ? Comment ?
Lors de cette étape, il est nécessaire non seulement de définir les tâches,
les ressources, le calendrier de mise en place mais aussi les différentes
responsabilités, les résultats escomptés et de spécifier les moyens de
contrôle qui seront mis en place.
9.
Démarrer des actions spécifiques et contrôler la progression
La mise en œuvre de nouvelles méthodes s'effectue par les voies
hiérarchiques ou par le biais d'une équipe projet spécialement constituée.
Elle peut aussi être confiée à des cercles de qualité ou à des responsables
désignés. Le suivi doit être régulier et à un rythme adapté aux objectifs
fixés.
Enfin on doit mettre en place un processus de contrôle afin de s'assurer
que les résultats du benchmarking sont bien mis en place ; vérifier si toutes
les étapes ont bien été suivies ou si d'autres approches de remplacement
ont été envisagées. Il faut également vérifier si l'entreprise a gagné en
efficacité et expertise.
10. Réajuster les benchmarks
Une procédure de réajustement doit être prévue pour adapter les
références fixées à l'évolution de l'environnement. L'évaluation peut être
faite à partir d'un questionnaire permettant de recenser les manques dans
les informations mais aussi les différentes attitudes dans l'entreprise vis à
vis du benchmarking.
MANAGEMENT DE L'INFORMATION
ET COMPETITIVITE DEs ORGANISATIONs
Séquence 4 : De la prise de décision au management de
l'Intelligence Collective Application 3
EXERCICE 1
Caractérisez la notion de cyberespace en 20 lignes
EXERCICE 2
Quels sont, selon Pierre Lévy, les enjeux politiques de l'intelligence
collective (10 lignes) ?
EXERCICE 3 (sans corrigé)
Rendez vous sur le site Wikipédia à l'adresse suivante (à coller dans
le navigateur)
http://fr.wikipedia.org/wiki/Wikip%C3%A9dia
Prenez connaissance des informations qui sont proposées. Rendez
vous ensuite sur la page aide.
Créez vous un compte et contribuez à l'enrichissement de
l'encyclopédie
EXERCICE 4
Définissez en 15 lignes le concept de monnaie sociale
EXERCICE 5
Regroupez vous avec 4 autres étudiants et inscrivez vous sur un site
de jeu massivement-multijoueur en ligne (MMPOG), basé sur un
monde persistant. Vous mettrez un "pointeur" dans le forum de
discussion pour informer l'ensemble de la e-communauté et intégrer
d'autres joueurs dans votre équipe.
MANAGEMENT DE L'INFORMATION
ET COMPETITIVITE DEs ORGANISATIONs
Séquence 4 : De la prise de décision au management de l'Intelligence
Collective
Solution Application 1
EXERCICE 1
Retrouvez les 10 commandements du Benchmarking tels qu'énoncés par
LEONARD FULD dans son Monitoring the Competition: Finding Out What's
Really Going On Over There (New York, John Wiley & Sons, 1987)
1. THOU SHALT NOT LIE WHEN REPRESENTING THYSELF
2. THOU SHALT OBSERVE THE COMPANY'S LEGAL GUIDELINES
3. THOU SHALT NOT TAPE-RECORD A CONVERSATION
4. THOU SHALT NOT BRIBE
5. THOU SHALT NOT PLANT EAVESDROPPING DEVICES
6. THOU SHALT NOT DELIBERATELY MISLEAD ANYONE IN AN
INTERVIEW
7. THOU SHALT NEITHER OBTAIN FROM NOR GIVE PRICE
INFORMATION TO THY COMPETITOR
8. THOU SHALT NOT SWAP MISINFORMATION
9. THOU SHALT NOT STEAL TRADE SECRETS
10. THOU SHALT NOT KNOWINGLY PRESS SOMEONE FOR
INFORMATION IF IT MAY JEOPARDIZE THAT PERSON'S JOB OR
REPUTATION
EXERCICE 2
Retrouvez les 8 recommandations du code de conduite du Benchmarking de
l' International Benchmarking Clearinghouse
1. Légalité
• Ne pas engager des actes ou des paroles qui feraient entrer l'entreprise
dans l 'illégalité.
• Prêter une attention spéciale aux discussions sur les prix, car une
mésentente sur les prix bloquerait artificiellement le cours du marché.
2. Echange
• Définir un niveau d'attentes mutuelles entre les entreprises.
• Ne pas poser aux partenaires de l'entreprise des questions auxquelles
celle-ci ne peut pas répondre
3. Confidentialité
• Considérer les informations qui sont communiquées par les partenaires
avec autant de confidentialité que ses propres informations.
• Signer avec ses partenaires une clause de confidentialité.
4. Utilisation de l‛Information
• Ne pas utiliser l'information communiquée à d'autres fins que celles
déterminées dans l'accord de Benchmarking
5. Contact
• Se Conformer aux procédures de contact qui ont été définies entre les
partenaires, et respecter l es cultures de chacun (éviter les jugements
subjectifs, les préjugés...).
6. Préparation
• Se préparer aux réunions afin d'améliorer leur efficacité et éviter la
perte de temps pour chacun des participants.
7. Achèvement
• Ne pas prendre des responsabilités qu' on ne peut pas tenir . Achever son
travail de manière à ce que chacun des participants soit satisfait.
8. Compréhension
• Traiter ses partenaires et les informations qu'ils ont révélées de la façon
dont on voudrait qu'ils traitent les nôtres.
Ce code de conduite met ainsi en place de réelles relations de "coopétition".
EXERCICE 3
Vous devez procéder au benchmarking des contrats d'externalisation
passés avec vos différents fournisseurs, notamment dans le domaine des
IT, en précisant quels seront les indicateurs de coût et de prix que vous
allez utiliser pour cela, quels seront leurs objectifs, et les résultats que
vous attendez
a) les benchmarks de coût
objectif : comparer les coûts d'exploitation d'un environnement IT interne
avec les coûts d'exploitation d'autres environnements similaires
types d'indicateurs de coût
• Coût IT par utilisateur
• Coût par MIPS /GB utilisé
• Coût par transaction effectuée
• Coût par appel traité
• Coût par incident résolu
• Temps moyen de résolution d‛incident niveau 1, niveau 2, niveau 3, ...
• Temps de réponse moyen
• Nombre de routeurs managés par 1 technicien
résultat : mesurer les coûts réels avec exhaustivité
b) les benchmarks de prix
objectif : évaluer la compétitivité du prix annuel d'un ensemble de services
externalisés
Types d'indicateurs de prix
• Prix par MIPS / GB utilisé / mois
• Prix par circuit, port, MB/s
• Prix par PC, mobile
• Prix par minute locale / nationale/ internationale
• Prix par processeur Unix
• Prix appel traité, transaction effectuée, incident résolu
• Prix par mois par utilisateur
résultat : normaliser les prix des contrats comparables
MANAGEMENT DE L'INFORMATION
ET COMPETITIVITE DES oRGANISATIONS
Séquence 4 : De la prise de décision au management de
l'Intelligence Collective
Solution Application 3
EXERCICE 1
Caractérisez la notion de cyberespace en 20 lignes
Le vocable anglais Cyberspace est apparu au début des années 1980, dans
les romans de science-fiction de William Gibson qui le définit comme « une
hallucination consensuelle vécue quotidiennement en toute légalité par des
dizaines de millions d'opérateurs, dans tous les pays... Une représentation
graphique de données extraites des mémoires de tous les ordinateurs du
système humain ». C'est aujourd'hui une expression devenue courante pour
désigner une forme d‛universalité technologique permettant l'accès à
l'ensemble des ressources proposées en ligne et notamment sur Internet
Il se caractérise, selon Levy, à la fois par une infrastructure matérielle et
intellectuelle
1) l'infrastructure matérielle
a) les mécanismes de coordination réticulaire comme support
de l'infrastructure
Trois raisons expliquent cette tendance
- un environnement technologique de plus en plus performant
- des prix de plus en plus bas
- une utilisation de plus en plus simplifiée
Cette tendance s'impose d'autant mieux que les mécanismes de
coordination réticulaire (dispositifs qui mettent en relation des
ordinateurs), grâce au développement du numérique, favorisent les
interconnexions.
b) Le développement du numérique dans le cyberespace.
Le numérique, qui représente les données sous la forme binaire, s‛étend à
tous les systèmes électroniques et permet la compatibilité entre tous les
systèmes. Pour Lévy, on passe d‛une technologie molaire (qui prend les
choses en gros, en masse, de façon entropique) à une technologie
moléculaire (qui permet un contrôle de la matière à l‛échelle microscopique
grâce à un assemblage de molécules atome par atome et une exploitation au
plus juste de chaque ressources de façon indépendante (les risques de
gaspillage sont nuls). Les sciences de l‛information distinguent trois
groupes :
- les techniques somatiques :celles qui engagent le corps pour la production
de signes (la voix, la danse)
- les techniques médiatiques : celles qui reproduisent ces signes et les
diffusent à une plus grande échelle (l‛écriture, les médias de masse tels que
la télévision ou la radio)
- les technologies numériques : celles qui permettent de retravailler les
documents à l‛infini quasiment bit par bit notamment par l‛utilisation de
l‛hypertexte (le récepteur n‛est donc plus cantonné à un rôle passif).
c) l‛hypertexte comme architecture du cyberespace
Grâce aux liens qu'il propose (renvoi sur un autre fichier dans un autre
système), l'hypertexte permet une adaptation très souple au besoin du
lecteur qui n‛est pas obligé de lire l‛intégralité du document et donne accès
à une réserve d‛information qui ne prendra forme qu‛avec l‛action de
l‛utilisateur. l'hyper-document, restructuré en temps réel par le réseau,
reformule la théorie de la communication.
d) la communication dans le cyberespace
Grâce à l'outil numérique, le signal se trouve alimenté par une multiplicité
d'acteurs sans cesse renouvelés au moyen de l'hypertexte. Il ne s‛agit pas
de bruits qui viennent parasiter la transmission de l‛information mais bien
au contraire de compléments qui viennent l‛enrichir. Le canal ne suffit plus à
expliquer la circulation des informations. Sa vision n'est plus linéaire mais
réticulaire. . A regarder les nœuds qui forment le réseau, parler de
circonvolutions serait plus approprié.
2) l‛infrastructure intellectuelle du cyberespace
a) l'hybridation du réel et du virtuel
Les chercheurs ne font plus de distinguo entre théorie et expérience. Les
deux peuvent désormais être liées. Les évolutions d‛un travail peuvent se
voir en temps réel de façon virtuelle (Lévy parle donc de "connaissance par
simulation ").
b) l'émergence de l'informatique communicante
l‛informatique a perdu son statut de technique et a commencé sa fusion
avec les télécommunications, l‛édition , le cinéma et la télévision. On assista
ainsi à la naissance d‛un nouveau secteur TMT (Technologies, Média,
Télécommunications). On parle à ce sujet d'informatique communicante qui
traduit l'universalisation du standard numérique à tous les secteurs de la
communication. Elle permet d'offrir des outils qui valorisent les richesses
intellectuelles personnelles au sein du cyberespace
EXERCICE 2
Quels sont, selon Pierre Lévy, les enjeux politiques de
l'intelligence collective (10 lignes) ?
Pierre Levy suggère que les enjeux politiques de l'intelligence
collective seront liés aux problèmes de transition anthropologique.
Un nouvel Espace du Savoir est en train d'émerger dans lequel la
compétence humaine est le fonds sédimentaire de la pyramide de valeur
d'une économie au sein de laquelle l'Internet prend une place croissante.
La transition vers cet Espace nouveau du Savoir pourrait apparaître comme
une voie possible vers la résolution des problèmes de notre temps
(chômage, inégalités, exclusion, ..) qui représentent dans ce cadre une perte
de richesse (Selon Lévy, le chômage, considéré comme une variable
économique parmi d‛autre dans l‛Espace des Marchandises est une anomalie
dans l‛Espace du Savoir où il sera naturellement résorbé).
Cette évolution anthropologique est freinée par des espaces vieillissants
(espace marchandises, espace territoire, ...) en conflit perpétuel pour le
pouvoir (décalage spatio-temporel entre les logiques de l'espace territoire
et de l'espace marchandises). La situation de blocage est encore accentuée
par l'inadaptation des espaces dominants aux nouvelles problématiques
(propriété intellectuelle, gratuité, aterritorialité, vitesse, ...) de la Net
Economie.
Or, Lévy considère que le propre de l‛évolution anthropologique réside dans
le fait que chaque nouvel espace dominant, loin de faire disparaître les
anciens, vient les compléter en les subordonnant (l'espace marchandises,
pour fonctionner, a besoin d‛un espace Territoire garantissant la sécurité
policière, économique, commerciale et juridique des échanges). Il pense
donc que les espaces n'ont pas à entrer en conflit mais à s‛entraider
mutuellement pour mieux prospérer.
Les enjeux politiques de l'Intelligence Collective convergent sur l‛idée
(utopique ???) d‛une finalité politique humaniste dépassant le stade social
que nous connaissons aujourd‛hui. Pierre Lévy a été l'un des premiers à
entrevoir dans le phénomène de l‛Internet le premier véritable prémisse du
changement d‛ère, de la révolution anthropologique qui se dessine et qu‛il
convient de favoriser par tous les moyens.
EXERCICE 3 (sans corrigé)
Rendez vous sur le site Wikipédia à l'adresse suivante (à coller dans
le navigateur)
http://fr.wikipedia.org/wiki/Wikip%C3%A9dia
Prenez connaissance des informations qui sont proposées. Rendez
vous ensuite sur la page aide.
Créez vous un compte et contribuez à l'enrichissement de
l'encyclopédie
EXERCICE 4
Définissez en 15 lignes le concept de monnaie sociale
Ce sont des dispositifs d‛échange liés à l‛économie solidaire et fondés
à la fois sur une proximité territoriale et relationnelle. Ils sont
apparus au début des années 80,. Ils procèdent de la combinaison de
trois grands objectifs :
• dynamisation des échanges locaux au bénéfice des populations
(internalisation d‛échanges réalisés auparavant avec l‛extérieur et
fixation de règles facilitant l‛accès au crédit)
• transformation de la nature de ces échanges en privilégiant les
compétences des individus
• lutte contre la déterritorialisation des activités économiques grâce
à l‛usage local de revenus tirés d‛une production locale.
Le développement des monnaies sociales (Time dollar américain, LETS
canadiens pour Local exchange and trading systems,SEL français pour
systèmes d‛échange local, Red Global de Trueque argentins)
s'inscrivent dans un double mouvement de multiplication (croissance
très forte des dispositifs existants) et différenciation (apparition de
nouveaux modèles de monnaie sociale avec des objectifs et des
logiques d'organisation différents) mais toujours à partir de
métalogiques communautaires et de spécificités locales.
Au départ, ce sont des dispositifs dans lesquels le temps est la base
de la comptabilité des échanges. Les LETS, en passant d‛une monnaietemps à une monnaie ancrée sur le dollar canadien, introduisent la
nécessité de respecter un rapport entre salaires minima et maxima
qui ne soit pas trop élevé. Au début des années 1990, le système
Ithaca Hour réhabilite l'utilisation des billets représentant une unité
de compte heure (un Ithaca Hour correspond à 10 dollars américains)
et très vite avalisés par les acteurs économiques de la région. Dans
les années 90 se développent les SEL français sur des bases d'abord
inspirées par les LETS Britanniques puis sur des expériences de
temps partagé et de troc.
Ces interconnexions entre les diverses expériences ont été
favorisées, depuis une dizaine d'années , par le développement du
réseau Internet qui a permis de mettre en contact des collectifs
altermondialistes proposant des stratégies de forme réticulaire à
visée alternative. Les monnaies sociales s‛inscrivent en privilégiant le
principe du localisme des échanges (communautaire le plus souvent) au
sein de ces réseaux.
EXERCICE 5 (sans corrigé)
Regroupez vous avec 4 autres étudiants et inscrivez vous sur un
site de jeu massivement-multijoueur en ligne (MMPOG), basé sur
un monde persistant. Vous mettrez un "pointeur" dans le forum
de discussion pour informer l'ensemble de la e-communauté et
intégrer d'autres joueurs dans votre équipe.
Téléchargement