Espaces collaboratifs, métaphores graphiques et exploration visuelle

publicité
RENCONTRES RIC’2006
Intelligence collective
Nîmes, 22-24 mai 2006
Site EERIE de l’Ecole des mines d’Alès
Dans le prolongement des conférences NîmesTIC’2000, NîmesTIC’2001, et des
Journées IC’2004, les rencontres RIC’2006 ont été organisées à Nîmes par le
centre de recherche LGI2P de l’Ecole des Mines d’Alès en collaboration avec les
centres de recherche CERIC et LIRMM de l’Université de Montpellier et avec la
participation de la FING - Fondation Internet Nouvelle Génération.
Le thème des rencontres est la coopération intellectuelle entre acteurs humains
dans un environnement techniquement augmenté.
Comité scientifique : Bruno BACHIMONT, Godefroy BEAUVALLET, Yann
BERTACCHINI, Olivier BOISSIER, Pierre BOMMEL, Paul BOURGINE, Robert
BOURRE, Vincent CHEVRIER, Philippe DURANCE, André DEMAILLY, Rose DIENG,
Jean-François DORTIER, Serge GARLATTI, Norbert GIAMBIASI, Pierre-Léonard
HARVEY, Francis LAPIQUE, Matthieu LATAPY, Dominique LESTEL, Pierre LEVY,
Anne MAYERE, Guy MELANCON, Michel MOATTI, Alex MUCCHIELLI, Jean-Pierre
MÜLLER, Hélène PIGOT, Serge PROULX, Louis QUERE, Pascal ROBERT, Yves
ROUCHALEAU, Dany TROM.
Comité de programme : Eric AUZIOL, Monique COMMANDRE, Jean-michel
CORNU, Michel CRAMPES, Daniel DIEP, Emmanuelle JACQUES, Arnaud KLEIN,
Serge-André MAHE, Eunika MERCIER-LAURENT, Jean Michel PENALVA, Joël
QUINQUETON, Pierre-Michel RICCIO.
Comité de rédaction : Jean Michel PENALVA, Pierre-Michel RICCIO, Silvia
DEKORSY.
Organisation et communication : Françoise ARMAND, Sylvie CRUVELLIER,
Pierre JEAN, Patricia RONDEAU, Azucena SANCHEZ, Elisabeth SANSOT.
2
Intelligence collective : Rencontres 2006
L’intelligence collective peut être considérée comme une hypothèse relative à la
capacité d’un groupe d’acteurs humains et d’agents artificiels à atteindre dans
une action commune une performance supérieure à l’addition des performances
individuelles.
C’est sur cette conjecture que les chercheurs du groupe CYCLONE ont décidé
d’unir leurs compétences et leurs expériences, afin d’explorer un champ de
recherche qui s’est vite révélé multi-disciplinaire.
Sciences cognitives, sciences de l’information et de la communication, sciences
humaines et sociales trouvent ici l’occasion de fructueuses confrontations et
transpositions, alors même que le débat s’enrichit de points de vue radicalement
différents : l’intelligence collective est considérée par certains comme un enjeu
stratégique, pour les organisations, les entreprises, les territoires, alors que
d’autres y voient une idée séduisante, mais relevant plus du mythe que de la
réalité.
L’idée de l’intelligence collective trouve des fondements dans le monde animal,
où par exemple, les insectes démontrent l’efficacité de comportements collectifs.
Ces observations sont d’ailleurs une source d’inspiration féconde en intelligence
artificielle, qui a trouvé ici, non seulement des solutions originales à des
problèmes difficiles, mais également des modèles pour des univers multi-agents,
simulés ou mis en pratique en robotique.
Mais l’idée de l’intelligence collective tiendra-t-elle ses promesses dans les
organisations humaines, en profitant du support des technologies du web et des
réseaux ? Les expériences de terrain permettent-elles aujourd’hui de dégager
des modèles opérationnels ? Une approche inter-disciplinaire apparaît comme la
seule voie réaliste pour répondre à ces questions essentielles.
C’est cette interrogation qui a convaincu les chercheurs du groupe CYCLONE
d’organiser un rendez-vous pour les chercheurs intéressés par ces questions.
Les rencontres RIC’2006 sont ainsi nées de cette volonté d’échange entre
individus de disciplines différentes.
Cet ouvrage a pour ambition de rendre compte de cette diversité en cinq
chapitres. Carte blanche a été donnée aux membres du comité scientifiques qui
ont souhaité apporter un point de vue personnel sur le sujet ; sept conférenciers
de renom ont répondu à notre invitation pour apporter leurs éclairages et initier
les échanges. Huit communications ont été sélectionnées par le comité
scientifique afin de présenter des approches et des expériences concrètes.
Enfin, deux derniers chapitres restituent des réflexions et des résultats élaborés
ces dernières années par le groupe Intelligence collective de la Fondation
Internet Nouvelle Génération, et le projet de recherche CYCLONE.
Jean Michel Penalva
Coordonnateur de l’ouvrage
INTELLIGENCE COLLECTIVE
Rencontres 2006
Ouvrage coordonné par Jean Michel Penalva
SOMMAIRE
I - Cartes blanches au comite scientifique RIC’2006
Yann Bertacchini
Intelligence territoriale Posture théorique, hypothèses, définition...................
9
André Demailly
L’intelligence collective, entre « crochets célestes » et « grues terrestres » .. 17
Francis Lapique
Pour un observatoire-pilote ............................................................................. 27
Anne Mayere
L’intelligence collective : une notion en chantier ............................................. 31
Guy Melançon
Espaces collaboratifs, métaphores graphiques et exploration visuelle........... 37
Michel Moatti
Acteurs sociaux, pensée commune et croyances collectives sur les domaines
virtuels............................................................................................................. 43
Pascal Robert
Les technologies intellectuelles entre théorie et politique ............................... 47
4
Intelligence collective : Rencontres 2006
II - Conférences RIC’2006
Bruno Bachimont
Support de connaissance et intelligence collective
héritage et individuation technique.................................................................. 55
Jean-François Dortier
Des fourmis à Internet Le mythe de l’intelligence collective............................ 69
Pierre-Leonard Harvey
Design communautique et coopération organisationnelle .............................. 81
Dominique Lestel
Remarques sur l’Evolution de la Bêtise........................................................... 109
Pierre Levy
IEML : finalités et structure fondamentale ....................................................... 117
Serge Proulx
Pratiques de coopération et éthique du partage ............................................. 137
Louis Quere
Confiance et intelligence collective ................................................................. 153
III – Communications RIC’2006
Evelyne Biausser
Le projet en environnement complexe comme émergence d’intelligence
collective ......................................................................................................... 163
Daniel Chamberland-Tremblay
La médiation par l'espace intelligent, collaboration et communauté de soins à
l'intérieur du domicile....................................................................................... 175
Michèle Dreschler
Quels changements induits par les TIC pour la formation professionnelle des
enseignants face au paradigme du KM et des communautés de pratiques ? . 189
Catherine Fekrane
SMTIE, une opération d’intelligence collective à destination des PME :
application au pôle de compétitivité MER PACA............................................. 207
Sommaire
5
Yvan Renou
Sous-traitance d’intelligence et instrumentation socio-technique
vers une théorie de « l’espace de coordination »............................................ 221
David Salvetat
Les pratiques d’intelligence économique dans les entreprises européennes de
hautes technologies ........................................................................................ 239
Jean-Marie Simonnet
La forme organisationnelle : Réseaux informels
cadre de l’échange d’information et gestion du risque .................................... 253
Olfa Zaibet
Collectifs de travail et intelligence collective ................................................... 267
IV - Atelier FING RIC’2006
Godefroy Beauvallée
Le groupe « Intelligence Collective » de la FING ............................................ 293
Jean-Michel Cornu
Les thèmes de travail du groupe Intelligence Collective de la FING............... 295
Philippe Durance
Auto-organisation et réflexivité des organisations comme fondements de
l’intelligence collective ..................................................................................... 301
Arnaud Klein
Séminaire Internet et nouvelles technologies
Master Sciences de l’Information et des Médias............................................. 311
V - Atelier CYCLONE RIC’2006
Emmanuelle Jacques
La conception numérique, entre espace intime et monstration
A la recherche des intelligences collectives.................................................... 321
Serge-André Mahé
Phénoménologie de l'intelligence collective le projet CYCLONE.................... 335
6
Intelligence collective : Rencontres 2006
Jean-Michel Penalva
Typologie du travail collaboratif variations autour des collectifs en action...... 341
Joël Quinqueton
Aspects socio-organisationnels dans les systèmes multi-agents l’intelligence
artificielle en essaim ........................................................................................ 355
Pierre-Michel Riccio
La construction de connaissances pour le travail collaboratif ........................ 367
I - CARTES BLANCHES AU COMITE SCIENTIFIQUE RIC’2006
YANN BERTACCHINI
ANDRE DEMAILLY
FRANCIS LAPIQUE
ANNE MAYERE
GUY MELANÇON
MICHEL MOATTI
PASCAL ROBERT
8
Intelligence collective : Rencontres 2006
Cartes blanches au comité scientifique RIC’2006
9
INTELLIGENCE TERRITORIALE
POSTURE THEORIQUE, HYPOTHESES, DEFINITION
YANN BERTACCHINI
MAITRE DE CONFERENCES HABILITE A DIRIGER DES RECHERCHES
LABORATOIRE I3M EQUIPE D’ACCUEIL 3820
UNIVERSITE DU SUD TOULON VAR
INTRODUCTION
Avec le recul, très court, d’une dizaine d’années d’un processus de type essai-erreur
engagé sur le sujet et la tentative de délimitation d’un ‘nouveau’ champ de recherche en
Sciences de l’Information et Communication, nous essaierons par cette contribution de
proposer un cadrage de « l’intelligence territoriale » en tant que capacité d’intelligence
collective mobilisable sur un territoire ou résultat d’une démarche collective. Nous
fonderons notre propos sur l’acquis cumulé d’un ancrage théorique avec plusieurs
expériences, recherches ou applications d’ordre pratique terminées, en cours et à venir.
POSTURE THEORIQUE ET ENGAGEMENT DU CHERCHEUR ACTEUR
L’intelligence territoriale, objet et champ scientifique, se pose à la convergence de
l’information, de la communication et de la connaissance, traduit une relation « Espaceterritoire » et ses mouvements que sont la territorialité, en tant que phénomène
d’appropriation ou de réappropriation des ressources, et le projet territorial lorsque
l’échelon territorial arrive à le formuler. D’un point de vue épistémologique et
méthodologique, l’expression, certes audacieuse, d’intelligence territoriale souligne la
construction d’un objet scientifique qui conduit in fine à l’élaboration d’un méta-modèle
du système territorial inspiré des travaux de Schwarz1 [Sch97]. Pour ce qui nous
concerne, cette démarche ne vise pas exclusivement à une modélisation de nature
systémique associée à une matrice des processus territoriaux de nature structuraliste et
fonctionnaliste. Nous inscrivons nos travaux en Sciences de l’Information et de la
Communication et, en tant que tels, ils se référent aux approches sociales, c’est-à-dire
inter relationnelle, à la théorie systémique, c’est-à-dire informationnelle (théorie de
l’information et de l’énergie associée imputable, entre autre, aux Tic) enfin, au
constructivisme, c’est-à-dire à une approche communicationnelle en référence à la
territorialité qui compose et recompose le territoire. Nous compléterons cette synthétique
présentation en rappelant, comme l’ont souligné déjà d’autres travaux, dans d’autres
disciplines, que l’étude d’un territoire sous tend une connaissance initiale incertaine, il
est donc nécessaire de souligner le caractère heuristique de cette approche et que sur un
1 Schwarz E., « Toward a Holistic Cybernetics. From Science Through Epistemology to Being »,
Cybernetics and Human Knowing, Vol. 4 n° 1, Alborg, 1997.
10
Intelligence collective : Rencontres 2006
plan ontologique, nous nous référons à une pragmatique du territoire et de ses acteurs, du
Chercheur dans sa relation avec la Société. Enfin, nous croyons utile de préciser que
l’intelligence territoriale ne saurait se limiter et être réduite à une démarche de veille
mais, relève plutôt d’une logique de projet de type « Bottom up » qui va tenter de
diffuser les éléments d’une attitude pro-active ou d’anticipation des risques et ruptures
qui peuvent affecter le territoire.
Dans la poursuite de cette introduction plutôt de nature théorique, nous préciserons que
notre conception de l’intelligence territoriale met l’accent sur, la solidarité de destin en
réponse à l’accroissement de la complexité comme l’évoque la proposition de Morin
[Mor05], p124 : la solidarité vécue est la seule chose qui permette l’accroissement de la
complexité2 et d’autre part, compte tenu de l’inscription de nos travaux en S.I.C, sur
l’enjeu associé à ce champ, à savoir que la communauté des enseignants chercheurs en
Sic est invitée à adopter une attitude résolument pro active dans les mutations en cours
en s’emparant des opportunités offertes par les pôles de compétitivité tout en ayant
présent à l’esprit le défi que souligne Mucchielli, [Muc04] p146 « Les années à venir
nous diront si les sciences de l’information & de la communication parviendront à se
fortifier dans leur interdisciplinarité. ».
DE L’ENVIRONNEMENT ET DES RESSOURCES A MOBILISER
L'environnement du territoire et ses composants technologiques, financier, juridique,
humain ont muté vers davantage de complexité. Mais, la complexification [Wag99] et
son corollaire, l’incertitude, font peur. Les savoirs requis de la part des acteurs en charge
de définir, d’appliquer et de suivre les réalisations d’une politique locale ont également
évolué. Comment dès lors orchestrer ces mouvements pour bâtir une intelligence, que
nous nommons territoriale en référence à un mouvement de développement du local, à
partir des ressources localisées en mobilité ou latentes ? Nous présenterons dans notre
contribution et ce, à partir de notre expérience, les hypothèses préalables à l’engagement
ou Comment mobiliser des ressources locales après détecté leurs gisements de
potentialités?
UN PREALABLE A LA MISE EN COMMUN D'EXPERIENCES
Pour prétendre à la dynamisation spatiale de leur contenu, les collectivités locales
détectent puis combinent les compétences disponibles, localisées et/ou mobiles. Ce
travail d’inventaire est opéré en vue de structurer leur capital de ressources et
d’intelligences dans l’optique de faire aboutir une politique de développement. La
connexion de ce capital latent ou révélé ne s’obtient pas dans tous les cas. Nous allons
considérer le préalable à une tentative de développement territorial.
Nous formulerons l’hypothèse suivante : «L'existence ou l'inexistence d'un réseau de
relations entre acteurs locaux peut s'avérer être une barrière ou un catalyseur dans la
construction ou la reconstruction du lien territorial.» [Ber00]. Ce tissu relationnel,
physique ou virtuel, permet la mobilisation des compétences locales autour d'un objectif
2 Morin Edgar., Introduction à la pensée complexe, 158 p, « Points Essais », n°534, Seuil, Paris.
Cartes blanches au comité scientifique RIC’2006
11
partagé et dans l’hypothèse de compétences complémentaires à réunir, à faciliter leur
acquisition par un mode d’apprentissage approprié. Ainsi, puisqu'il y a inégalités d'accès,
ces dernières engendrent des asymétries dans les mécanismes d'évaluation des auteurs de
l'histoire locale. Sur la base de cette hypothèse, les espaces engagés dans la voie de leur
médiatisation ne possèdent pas tous la même capacité d’accès au développement. Les
informations transmises, échangées par leurs membres sont entachées d'une déficience,
d'une déformation de leur contenu et dans leur incapacité à former le réseau relationnel.
A priori, l'histoire de ces acteurs locaux ne leur permet pas ou leur interdit d'investir dans
leur futur. A posteriori, la déficience du contenu de l'information échangée ne favorise
pas leur adhésion au réseau. Dès lors, les relations affichées mais non partagées autour
de cet objectif ne peuvent se reproduire durablement et compromettent la valorisation
territoriale. La construction du lien social échoue et la transmission d’un patrimoine
collectif ne s’opère pas. La tentative de médiation, l’intelligence territoriale, que nous
proposons peut s’avérer être une réponse.
LE POINT DE DEPART ET D’ARRIVE : LE CAPITAL FORMEL TERRITORIAL
A l’origine physiques, les échelons territoriaux ont intégré ou intègrent progressivement
les TIC. Ces dernières brouillent les découpages administratifs et favorisent l’émergence
de territoires virtuels. Ainsi, la « société de l'information » se construit. S’il est
primordial que les territoires intègrent ces technologies de l’information et de la
communication, il est tout aussi nécessaire qu’ils la nourrissent, au risque de se trouver
marginalisés sur un plan national comme international. Le processus d’intelligence
territoriale que l’on peut qualifier de démarche d’information et de communication
territoriales trouve ici sa pleine justification dans l’aide apportée à la constitution du
capital formel d’un échelon territorial [Bert04]. A notre sens le capital formel d’un
échelon territorial est le préambule à toute politique de développement, qu’il s’agisse de
politique de mutation territoriale, de reconversion, ou d’innovation.
Nous voyons bien ainsi, que les aspects portent en effet tout autant sur un volet
infrastructures, réseaux de télécommunications à haut débit (tuyaux) que sur les supports
et le contenu des documents numérisés créés grâce à ces outils. De tels enjeux intéressent
tous les secteurs de la société, de l'éducation à l'économie en passant par la santé ; du
monde de l'administration à celui de l'entreprise, en passant par le particulier.
L’intelligence territoriale s’appuie sur un maillage de compétences pluridisciplinaires
détenues par des acteurs locaux de culture et donc de codes différents.
LES HYPOTHESES DE LA GRAMMAIRE TERRITORIALE
D’un point de vue des S.I.C3, ce processus informationnel autant qu’anthropologique
suppose la conjonction de trois hypothèses :
Les acteurs échangent de l’information (génération d’énergie à titre individuelle,
collective) ;
3 Sciences de l’information et de la communication.
12
Intelligence collective : Rencontres 2006
Ils accordent du crédit à l’information reçue (captation-échange de l’information) ;
Le processus de communication ainsi établi, les acteurs établissent les réseaux
appropriés et transfèrent leurs compétences (mobilisation et transfert d’énergie :
formulation du projet).
Lorsque ces hypothèses sont réunies et vérifiées, les gisements potentiels de compétences
peuvent être repérées à l’aide d’une action d’information et de communication
territoriales puis mobilisés dans la perspective de l’écriture d’un projet de
développement. Nous pensons qu’il s’agit du préambule à la définition d’une politique
de développement local de nature endogène apte à répondre au rapport concurrentiel à
venir entre les territoires.
INNOVATION ET LOCAL
Le territoire sera prochainement plus orienté dans un rapport de force concurrentiel où le
traitement de l’information sera essentiel [Her05]. Les mutations culturelles liées au
développement des TIC, les nouvelles formes d’affrontement indirect résultant de cette
évolution technologique sont encore mal identifiées par les acteurs du territoire. En
exemple, la captation de l’installation d’une entreprise et des taxes locales associées
avaient trouvé une solution prompte dans les contrats d’agglomération et de
communautés de commune qui en mutualisaient les recettes ; ce faisant elle en limitait de
fait un processus d’apprentissage dans la conquête de ressources. La mondialisation, les
délocalisations obligent les pays à puiser dans les projets à dominante culturelle et
touristique pour espérer capter quelques revenus d’une population de nomades aisés. La
concurrence épuise l’originalité des projets et leur essoufflement ne résidera pas dans un
aspect uniquement technique.
Le territoire doit évoluer dans sa culture et accéder à une véritable mutualisation de
l’information au sein d’un processus d’intelligence territoriale dont Bertacchini [Ber04]
propose la définition suivante :
« On peut considérer l’intelligence territoriale comme un processus informationnel et
anthropologique, régulier et continu, initié par des acteurs locaux physiquement présents
et/ou distants qui s’approprient les ressources d’un espace en mobilisant puis en
transformant l’énergie du système territorial en capacité de projet [...] L’objectif de cette
démarche, est de veiller, au sens propre comme au sens figuré, à doter l’échelon
territorial à développer de ce que nous avons nommé le capital formel territorial ».
Le territoire avec ses rites, ses héros, ses symboles et ses valeurs qui en constituent
l’histoire, compose le théâtre d’un non-dit qui rythme les échanges entre les hommes. Il
y a capitalisation d’une culture des signes et des postures (l’habitus de Bourdieu),
[Bou94] p.24 qui établit une grammaire de communication et fonde l’identité du groupe
local Ce constat se trouve au centre de la recherche sur les problématiques territoriales
au Québec [Her04] et nous éloigne des prophéties béates sur les rôle des TIC [Sfe99].
DU TERRITOIRE POLITIQUE VERS L’IDENTITE TERRITORIALE
La création d’un environnement favorable est un pré requis de toute innovation
émergente au sein de la société ; c’est ce que Pélissier [Pel01] évoque dans la supériorité
Cartes blanches au comité scientifique RIC’2006
13
des structures et Gourou [Gou73] p.26 dans les techniques d’encadrement. Un premier
objectif est de créer localement un terrain institutionnel, informationnel, comportemental
où les acteurs puissent exprimer leurs perceptions, enrichir leurs savoirs, affirmer leurs
compétences et peser sur le processus de développement ; il porte sur l’environnement
politique, la reconnaissance d’un pouvoir local, l’instrumentation technique et
administrative et la remobilisation sociale des acteurs locaux. Les modalités d’échange
des informations sont au centre de ces rapports.
Cette approche du territoire consiste à définir le cadre conceptuel de l’accompagnement
d’un processus démocratique ascendant et la proximité spatiale est au coeur de cette
spécificité territoriale. Elle n’est pas forcément impliquante de proximité sociale et
identitaire, mais relève d’une première étape de construction d’un nouveau territoire, à
travers un processus graduel d’émergence d’appropriation territoriale, qu’il s’agit
d’accompagner et de favoriser. Cette appropriation, phénomène de représentation
symbolique par lequel les groupes humains pensent leur rapport à un espace matériel, ne
peut se construire que par l’intégration progressive d’un sentiment local, au travers d’un
processus mental collectif. Brunet [Bru90] nous a instruit que la prise en considération
du seul espace vécu a montré ses limites et que l’émergence d’une identité territoriale ne
peut pas se résumer à une activité économique, sociale ou culturelle commune dépourvue
d’existence politique ou administrative reconnue. La seule facette du vécu au sein du
local, n’est ni génitrice, ni constitutive du territoire. En témoignage, l’habitat de
résidence secondaire n’est pas obligatoirement concourant à un engagement dans le
projet local. Enfin, l’identité territoriale ne se réduit pas davantage à une identité politico
juridique ou à l’enracinement dans un lieu ; il y faut cela, et quelque chose de plus : une
conscience [Bru, Op.Cit]. Il s’agit ainsi de faire émerger un espace politique local
[Lev97], dont les acteurs se sentent responsables et où se jouent des relations de pouvoir
[Bou80] en vue de son appropriation [Raf81].Durkheim, [Dur77], p. 138 avance «Pour
que les suffrages expriment autre chose que les individus, pour qu’ils soient animés dès
le principe d’un esprit »
CONCLUSION
En conclusion temporaire : une évolution de la posture informationnelle.
Cette capacité collective, l’intelligence territoriale, du territoire à anticiper les ruptures
qui vont l’atteindre, nécessite la mise en œuvre d’une évolution de sa culture.
Cette modification des relations et des échanges, une logique de projet, doit alors
s’adosser à un autre traitement des signaux et des informations. Communiquer
différemment en participant à un projet commun agit sur les liens individuels et modifie
le rapport à l’autre ; ainsi la relation d’échange sort du quotidien pour accéder à une
altérité du projet partagé puis il y a capitalisation et valorisation individuelles des
missions ; cette mutualisation et mise en perspective des conjectures, sont autant
d’opinions fondées sur les analyses d’hypothèses qui assurent un flux continu et
interactif, formel et sémiologique d’une relation au groupe. La culture des organisations
prend alors, par son aspect récursif, un caractère durable.
Tout est affaire de sens. Au niveau de l’action de l’objet et dans l’identité acquise par
l’acteur territorial ; il constitue ainsi un paradigme du sens et d’identité. Ainsi, la
14
Intelligence collective : Rencontres 2006
dynamique territoriale tire son existence de la complexification de ses réseaux agissant
dans le débat social et l’énergie mise en oeuvre permet de faire évoluer un objet
territorial nouveau.
L’innovation territoriale endogène se nourrit de signaux internes et de flux
d’informations externes. Il s’agit de capter des flux de données à traiter en continu pour
dépister à temps la menace et éventuellement saisir l’opportunité.
Les réponses collectées offrent un faisceau de nouvelles pistes à explorer dans le concept
de mutualisation des connaissances. Cette capitalisation des signes et informations mise
en perspectives, offre au local des futurs possibles aptes à déjouer la menace où
l’incertitude. La création de cette posture d’anticipation porte en germe les attributs d’un
outil démocratique partagé par les acteurs du local, les associant plus intimement à une
vision stratégique territoriale. Le terme acteur, par la ressource partagée, prend alors tout
son sens. Le Chercheur, dans notre conception, devient acteur du territoire.
REFERENCES BIBLIOGRAPHIQUES
[Bak93]
H. Bakis : « Les réseaux et leurs enjeux sociaux », Paris, PUF, (1993)
[Ber04]
Y. Bertacchini : « Le territoire, une entreprise d’intelligence collective à organiser
vers la formation du capital formel», Revue Communication & Organisation n°25,
Les vallées : sens, territoires & signes, GREC/O, ISIC, Université de Bordeaux 3,
(1er semestre 2004)
[Ber00]
Y. Bertacchini, Ph. Dumas : “How to federate some local resources by developing
new link ?”, ISA Research Committee 23, in [http ://www.Third Triple Helix
International Conference], Rio de Janeiro, Brazil, 26-29 April, (2000)
[Ber04]
Y. Bertacchini : « Mesurer la distance, Pensez la durée, Mémoriser le virtuel, Vers
l’Intelligence territoriale -volet 2- », Collection Les E.T.I.C, Presses
Technologiques, (octobre 2004)
[Ber03]
Y. Bertacchini : « Sophia Antipolis Ex Ante et Post : De la projection d’une vision
territoriale à l’observation de ses représentations virtuelles », in L’héritage d’une
utopie, Essai sur la communication & l’organisation de Sophia Antipolis, Ouvrage
collectif,sous la direction de Jacques Araszkiewiez ,p.95, EdiSud, (juin 2003)
[Ber01]
Y. Bertacchini, H. Dou : «The Territorial competitive intelligence : a network
concept », Actes du Colloque VSST’ 2001, Presses de l’Université Paul Sabatier p
101, Ecole Polytechnique de Catalogne, Barcelone, 15-19 octobre, (2001)
[Bon00]
M. Bonnet, D. Desjeux (sous la direction de) : « Les territoires de la mobilité »,
Sciences sociales & sociétés, Puf, 224 p, (2000)
[Bou80]
P. Bourdieu : « Le Sens pratique », Paris, éd. De Minuit, (1980)
[Bru90]
R. Brunet : «Le déchiffrement du Monde», in Géographie Universelle t. 1 Mondes
nouveaux, (1990)
[Cal91]
M. Callon, B. Latour : « La Science telle qu’elle se fait », La découverte, Paris,
(1991)
Cartes blanches au comité scientifique RIC’2006
15
[Dur77]
E. Durkheim : « La méthode sociologique, Les règles de la méthode
sociologique », première édition 1895, PUF, (1997)
[Fer99]
J.P. Ferrier : « Le contrat géographique ou l’habitation durable des territoires »,
Entretien, Sciences Humaines N°98, (octobre 1999)
[Gou73]
P. Gourou : « Pour une géographie humaine », Flammarion, (1973)
[Her04]
P. Herbaux : « Le Développement territorial. Regards croisés sur la
diversification et les stratégies », Ouvrage collectif sous la direction de Guesnier B
et Joyal A, Edition Adicueer, Poitiers, (2004)
[Her05]
P. Herbaux, Y. Bertacchini : « La rupture, un des corollaires de la vitesse.
L’intelligence territoriale, une posture d’anticipation », Actes du Colloque sur les
Systèmes d’Information élaborée/Tic & Territoire : quels développements ?’,
International Journal of Sciences for Decision Making, n°22 île Rousse, (2005) :
[http ://isdm.univ-tln.fr]
[Bot00]
G. Le Boterf : «Les enjeux de la compétence collective.», Le Monde, 23 mai,
(2000)
[Pel01]
N. Pélissier, D. Pages : « Territoires sous influence », Ed. L’Harmattan, Vol 2,
(2001)
[Jay93]
H. Jayet, P. Wins : « Comment les entreprises se localisent-elles ? », Dossier de
recherche 3/93, Rapport au Commissariat Général du Plan, Centre d’études
spatiales, urbaines et régionales en économie, Université des sciences et
Technologies de Lille, (1993)
[Jay96]
H. Jayet et al. « Structures économiques et barrières à l’entrée », Rapport au
Commissariat Général au Plan, CESURE, 128 p, Lille I, (1996)
[Lev97]
P. Lévy : « L’intelligence collective, Pour une anthropologie du cyberspace »,
p.69, La découverte/Poche, Essais, (1997)
[Mor05]
E. Morin : « Introduction à la pensée complexe », 158 p, « Points Essais », n°534,
Seuil, Paris, (2005)
[Muc04]
A. Mucchielli : « Les sciences de l’information & de la communication », 3e
édition, Hachette, Les Fondamentaux, p.146, (2004)
[Sel01]
A.B. Seligman : « Complexité du rôle, risque et émergence de la confiance »,
Revue Réseaux, Hermes, n°108, vol 19, p37, (2001)
[Raf81]
C. Raffestin : « Pour une géographie du pouvoir », Litec, Paris, (1981)
[Sfe91]
L. Sfez et al. : « Territoire et communication », Quaderni, n°13, Paris, CREDAP,
(1991)
[Sch97]
E. Schwarz : “Toward a Holistic Cybernetics. From Science Through
Epistemology to Being”, Cybernetics and Human Knowing, Vol. 4 n° 1, Alborg,
(1997)
16
Intelligence collective : Rencontres 2006
[Sto97]
M. Storper : “The regional world.Territorial develoment in a global economy”,
New York, Guilford, (1997)
[Tet95]
J.F. Tetu : « L’espace public et ses médiations », Hermes, n° 17, Paris, Editions du
CNRS, (1995)
[Wag99]
E.Wagensberg : « Complexité contre incertitude », La Recherche, n°326, (1999)
Cartes blanches au comité scientifique RIC’2006
17
L’INTELLIGENCE COLLECTIVE ENTRE
« CROCHETS CELESTES » ET « GRUES TERRESTRES »
ANDRE DEMAILLY
ANC. MAITRE DE CONFERENCES DE PSYCHOLOGIE SOCIALE
UNIVERSITE DE MONTPELLIER-III
Dans son ouvrage « Darwin est-il dangereux ? », Daniel Dennett (1995) oppose les
« crochets célestes » ou « skyhooks » aux « grues terrestres ». Le succès de ces
expressions viendrait d’un pilote d’avion auquel la tour de contrôle aurait demandé de
faire du « sur place » et qui lui aurait répondu qu’il n’était pas accroché à un « crochet
céleste » et qu’elle pouvait éventuellement installer une « grue terrestre » pour qu’il
puisse le faire. Dennett a repris l’expression « skyhooks » pour désigner la propension
des hommes à raccrocher leur sort à une force surnaturelle ou « deus ex machina » qui
les « machinerait » (étant entendu que seuls les philosophes ou les prêtres détiendraient
les clés du sens et des fins de cette machination). Dans l’antiquité, ce furent le mythe
védique de Prajapati, homme-dieu dont le corps donna naissance à toutes sortes de
créatures terrestres, à la fois inégales et complémentaires, que seuls des sacrifices
ininterrompus éviteraient de s’entredéchirer ; puis le mythe platonicien d’un monde de
formes parfaites dont notre monde terrestre ne serait qu’une version dégradée et vouée à
une dégénérescence que seul un régime aristocratique pourrait freiner. Lorsque le
créationnisme commença à pâlir, ce furent l’idée lamarckienne d’une évolution vers la
perfection et l’idée hégéliano-marxiste de la réalisation d’un projet divin ou d’un
parcours déterminé4. Toujours selon Dennett, seul Darwin ne se serait raccroché qu’à
des « grues terrestres », celles de variations génétiques aléatoires et de leur sélection par
un environnement tout aussi contingent….
De nos jours, diverses thèses relatives à l’intelligence collective s’inspirent plus ou
moins directement du darwinisme. On se demandera si elles s’accrochent à des
« crochets célestes » ou des « grues terrestres ». On les mettra ensuite à l’épreuve sur
deux points plus particuliers : l’idée de l’ouvrier collectif du langage et la sémiotique de
Peirce.
DES GENES BIOLOGIQUES AUX GENES CULTURELS
Lorsque le Beagle regagne l’Angleterre en 1836 après un périple de 6 ans, Charles
Darwin décante peu à peu ses idées sur l’évolution et les trouve si dangereuses (pour sa
carrière et même pour sa vie) qu’il ne publie « L’origine des espèces » qu’en 1859. Pour
l’essentiel, elles reviennent à dire : 1) que les traits héréditaires n’ont de cesse de se
4 Ce dernier cas relève davantage du « bootstraping » du baron de Münchhausen, mais prétendre
s’envoler en tirant sur ses bottes, c’est aussi se raccrocher à des crochets célestes (prendre ses
désirs ou ses fantasmes pour des réalités).
18
Intelligence collective : Rencontres 2006
reproduire ou de se répliquer ; 2) qu’ils peuvent de temps à autre subir des variations
aléatoires ; 3) que l’environnement du moment sélectionne ceux qui lui sont plus adaptés
(« fitter ») que d’autres ; 4) de sorte qu’il y a une évolution constante du patrimoine
génétique de chaque espèce et parfois la disparition de certaines d’entre elles.
Certes, Darwin n’avait aucune idée de la nature des gènes ni des lois de la génétique. Ses
disciples intégreront ces aspects dans sa théorie, en développant les concepts de
génotype et de phénotype et en avançant l’idée que les génotypes sont en quelque sorte
éternels alors que les phénotypes ne font que passer. Pendant longtemps, ils
maintiendront l’idée que l’évolution ne passe que par la transmission des gènes d’une
génération à l’autre sans que les phénotypes aient quelque prise sur elle. Ils devront
admettre cependant 1) que l’évolution a progressivement modelé tous nos organes,
notamment notre cerveau ; 2) qu’il ne s’est pas produit de variations génétiques notables
depuis homo sapiens, alors que l’humanité a connu des progrès fulgurants bien après son
apparition.
Les plus perspicaces commenceront d’abord à penser que les phénotypes, loin d’être les
vecteurs passifs de leurs gènes, peuvent influencer la sélection de ces derniers et peser
ainsi sur leur propre descendance. Bateman (1948) observe que les femelles drosophiles
ont un nombre limité et à peu près égal de descendants, alors que la descendance des
mâles peut varier bien plus considérablement (selon le nombre de femelles qu’ils ont
approchées). William Hamilton (1964) émet l’idée que les hyménoptères femelles
favorisent la transmission de leurs propres gènes en soignant plus particulièrement les
larves de leurs sœurs (et non celles des mâles) au prix d’une stérilité précoce. Pour
expliquer ce comportement, il souligne que les hyménoptères sont haplodiploïdes : les
œufs de la reine qui ne sont pas fécondés donnent des mâles, tandis que les œufs
fécondés donnent des femelles, de sorte que celles-ci partagent plus de gènes en commun
(3/4) qu’avec les mâles (1/4) ou même leur éventuelle progéniture féminine (1/2). Pour
Robert Trivers (1972), cette attention sélective expliquerait la proportion plus importante
de femelles que de mâles (5/8 contre 3/8) et l’adaptativité remarquable des
hyménoptères, notamment leur capacité d’essaimage. Trivers en déduit que les capacités
d’adaptation peuvent provenir des sacrifices de certains phénotypes (ici les femelles) qui
tendent à les handicaper (stérilité) au profit de la population et de l’espèce. C’est l’idée
d’altruisme, considéré comme un « égoïsme éclairé » puisqu’il favorise certains gènes
plutôt que d’autres.
Mais cet altruisme de parentèle n’explique pas les prodigieux progrès de l’humanité en
l’absence de nouvelles variations génétiques5. Richard Dawkins (1976) suggère alors que
le progrès humain serait imputable à l’invention, souvent par des individus altruistes, de
produits techniques et culturels qui allègent la peine des hommes et favorisent leur
dissémination. Ces inventions se comporteraient comme des « gènes culturels » qui
favoriseraient ceux qui les détiennent et s’en servent (notamment les armes, mais aussi
certains outils tels que la roue ou la noria). Ces « gènes culturels » seraient de plus en
plus diversifiés mais leur sort dépendrait en fait de leur usage : il y aurait un marché des
5 On pourrait même avancer que nos femelles ont plus favorisé la mort et la désolation que le
progrès en participant de fort bon gré à la descendance de « machos » guerriers !
Cartes blanches au comité scientifique RIC’2006
19
gènes d’où survivraient ceux qui sont utilisés et développés par les phénotypes humains.
Dawkins propose d’appeler « mèmes » ces gènes culturels pour souligner qu’ils peuvent
se propager de manière exponentielle, notamment par imitation ou « mimétisme », et
avancer qu’ils prendraient le relais des gènes biologiques dans l’évolution humaine.
Essayons de récapituler les paradoxes de ce cheminement : 1) selon Darwin et les
premiers néodarwiniens, les phénotypes n’ont aucune prise sur leurs génotypes, tant en
ce qui concerne leur réplication, leurs combinaisons, leurs variations et leur sélection qui
sont les seules « grues terrestres » et éminemment contingentes de la vie ; 2) certains
néodarwiniens suggèrent que les phénotypes peuvent orienter l’évolution de leur
population ou de leur espèce, au prix de sacrifices et handicaps (altruisme) qui profitent à
celles-ci (autre « grue terrestre » qui confère cette fois plus de poids aux phénotypes) ;
3) pour expliquer les progrès de l’humanité en l’absence de toute variation génétique
notable, Dawkins introduit la notion de « mèmes » qui redonne à nouveau l’avantage aux
génotypes, à ceci près que ceux-ci seraient culturels tout en restant des « grues
terrestres ».
LES EMULES DE DAWKINS
Dawkins ne se prononce pas clairement sur le statut des gènes culturels : faut-il les
considérer au sens métaphorique (fonctionnant de manière analogue aux gènes
biologiques mais sans en avoir réellement les propriétés) ou au sens littéral (constituant
un système autonome doté des mêmes propriétés que les génotypes biologiques) ?
Néanmoins, certains de ses propos, repris par Dennett (1995, chapitre 12), vont dans ce
dernier sens et insistent notamment sur leur potentiel de réplication par imitation. Par
ailleurs, Dawkins et Dennett privilégient les mèmes techniques qui orientent durablement
les choix de société (en matière de transport, de santé ou de mode de vie).
Parallèlement, d’autres penseurs émettent des idées similaires, tout en mettant l’accent
sur la sélection des connaissances scientifiques produites par l’homme. Ainsi, Karl
Popper (1968, 1972) anticipe-t-il sur Dawkins en esquissant l’idée d’un « 3ème monde6 »
qui serait celui des idées ou connaissances enregistrées sur des supports matériels et qui
serait constamment accessible aux travaux de réfutation présents et à venir ; lesquels
travaux exerceraient un rôle analogue à celui de la sélection biologique par
l’environnement. Plus tard, Edgar Morin (1987) s’inscrit dans ce sillage en évoquant
l’idée d’une « noosphère » qui serait le lieu d’une confrontation dialogique (moins
sélective que la réfutation poppérienne puisqu’elle admettrait plusieurs « vérités »).
Thomas Kuhn et Herbert Simon se rattachent plus indirectement à ces courants. Ainsi,
Kuhn (1970) critique Popper, non pour sa thèse d’un monde des idées mais pour la place
qu’il confère à leur sélection. Pour lui, ce n’est pas la réfutation des idées qui importe
(contexte de validation) mais leur émergence (contexte de découverte) au travers de
divers paradigmes (façons de voir et de faire) qui s’affronteraient sans cesse par le biais
6 Le premier monde étant celui de la matière et de la vie ; le deuxième monde étant celui des
comportements des créatures qui peuplent celui-ci (et, en ce qui concerne les hommes, celui de
leurs croyances quant au sens de leur existence).
20
Intelligence collective : Rencontres 2006
de diverses communautés qui les soutiendraient. De son côté, Simon (1966, 1973, 1990)
rejoint Kuhn sur l’importance de l’émergence des idées, tout en soulignant le rôle des
processus de rétroduction7 dans celle-ci (modéliser le moins connu en s’appuyant sur ce
qui l’est davantage) ainsi que l’importance d’une forme d’altruisme qu’il appelle
« docilité » (capacité d’apprendre et acceptation d’apprendre d’autrui).
LA CONCEPTION DE L’INTELLIGENCE COLLECTIVE
Les automaticiens et les informaticiens se sont intéressés aussi aux hyménoptères et ont
vu dans leurs comportements la manifestation d’une intelligence collective : comment
des individus si rudimentaires peuvent-ils se comporter collectivement de manière si
adaptée et si élaborée ? N’est-ce pas la preuve qu’on peut atteindre de pareilles
performances à partir d’automates individuellement très limités ?
Par la suite, certains d’entre eux reprennent l’idée de gènes culturels et de mèmes. Ainsi,
Pascal Jouxtel (2005) plaide pour le développement d’une science « mémétique » qui
étudierait leurs propriétés de réplication, de combinaison, de variation et d’adaptation.
Sous l’influence de Susan Blackmore (1999) et surtout d’Howard Bloom (1995, 2000), il
suggère cependant que les gènes biologiques et culturels seraient l’expression d’une
intelligence globale qui nous machinerait sans que nous ayons prise sur elle. Ne serait-ce
pas un retour aux « crochets célestes » ? De son côté, Howard Rheingold (2002) avance
que les nouvelles technologies de l’information et de la communication, notamment
Internet, vont rendre les foules plus intelligentes que les meilleurs individus isolés. Mais
n’est-ce pas aussi transformer les « grues terrestres » de la communication en « crochets
célestes » purement illusoires ?
Sans contester la part de l’imitation, notamment dans l’usage de nouveaux objets
techniques ou dans les mouvements de foules, on soulignera 1) que les usages massifs
sont rarement les plus intelligents comme le montrent les exemples de l’automobile, de la
Kalachnikov, de la télévision ou de l’informatique ; 2) que les foules développent
davantage la bêtise ou la violence que l’intelligence. Sans contester la part de la
transmission des savoirs et des savoir-faire dans l’invention de nouveaux objets
techniques ou de nouvelles connaissances, on avancera 1) que les inventions passées ne
contiennent pas nécessairement les inventions nouvelles, pas plus que les connaissances
passées ne contiennent les connaissances à venir ; 2) que ces nouvelles inventions et
connaissances restent le fait de quelques individus, bien que les mèmes de la
communication et de l’information puissent accroître leur nombre et débroussailler leurs
pistes d’investigation.
Plutôt que de développer ces thèmes, on s’attardera sur deux points qui nous semblent
cruciaux. En premier lieu, on a souvent parlé de « l’ouvrier collectif du langage8 » : les
7 Formalisés par N.R. Hanson (1958) qui s’inspire lui-même des thèses de C.S. Peirce sur le
raisonnement abductif (1931-1935, 1958).
8 Cf. Robert Pagès (1988, p. 178) : « Implicitement et par sélection graduelle, l’ouvrier collectif
du langage, depuis la préhistoire, travaille à former une socio-psychologie implicite qui nous est
léguée ».
Cartes blanches au comité scientifique RIC’2006
21
langues seraient-elles l’exemple emblématique de « mèmes » qui auraient des propriétés
intrinsèques de réplication, de combinaison, de variation et d’adaptation ou seraient-elles
plutôt des bricolages plus sujets à l’inertie, au flou polysémique et aux dérives
sémantiques ? En deuxième lieu, on présentera succinctement la sémiotique de Peirce qui
fournit, à nos yeux, le modèle le plus heuristique de la cognition et de la communication,
en nous demandant en quoi il peut éclairer l’impact des les technologies informatiques et
télématiques sur notre intelligence individuelle et collective.
L’OUVRIER COLLECTIF DU LANGAGE
Selon André Roman (2003), le langage et les langues naissent d’une mécanique des sons
qui produit des racines : celles-ci sont en nombre limité dans certaines langues comme
l’arabe, avec une consonne + une voyelle (CV) ou une consonne + une voyelle + une
consonne (CVC), et plus nombreuses dans d’autres langues avec VC, CV, VCV, CVC,
voire VCVC et CVCV. Ces racines vont engendrer les mots qui désignent les objets et
les activités des grands domaines de l’existence (parfois par onomatopée, le plus souvent
par convention), selon divers processus de différenciation (verbes, substantifs, adjectifs,
adverbes) et de spécification (préfixes, suffixes, désinences). C’est ce qu’on pourrait
appeler des variations. La syntaxe va permettre de procéder à d’autres combinaisons.
L’usage va donner lieu à une sélection qui portera moins sur les racines que sur les mots
qui en dérivent, ainsi qu’à de nouvelles variations (nouveaux mots ou dérivations,
infléchissement de leur sens).
Il y a bien là un travail collectif sur la langue. Mais reflète-t-il une intelligence
collective ? Et si oui, la langue nous machinerait-elle ou la machinerions-nous ? Si nous
étions machinés, les mots auraient tendance à s’autorépliquer, à engendrer leurs propres
combinaisons et variations, à gérer leur sélection (avec l’ultime conséquence de conduire
à des langues dont les barrières seraient aussi infranchissables que celles des espèces).
Quelques exemples montreront que ce n’est pas le cas : plutôt que d’autoréplication, il
faudrait parler d’inertie des mots ; plutôt que de variations des mots, il faudrait parler de
variations de leur sens ; plutôt que de combinaison des mots ou des sens, il faudrait
parler de « jeux de langage » ; plutôt que d’usage sélectif, il faudrait parler d’usage
approximatif…
En ce qui concerne l’inertie des mots, nous en avons un bel exemple avec le verbe
français « pouvoir » qui désigne à la fois la capacité effective (physique ou intellectuelle)
de faire quelque chose et l’autorisation sociale de le faire. D’autres langues disposent de
mots qui distinguent nettement ces deux sens : « can » et « may » en anglais, « können »
et « müssen » en allemand. Les Français se complaisent dans le mélange des genres, au
point que j’ai été élevé dans l’idée que « rien n’était impossible en français » pour
apprendre plus tard que nos troupes s’étaient lancées à l’assaut des mitrailleuses
allemandes comme si elles se croyaient immortelles… L’expérience n’y a rien fait
puisqu’on utilise plus que jamais ce verbe, en le substantivant même à la première
occasion (prendre le « pouvoir » sans savoir qu’en faire !).
D’où les désillusions, gueules de bois et déceptions qui s’ensuivent. Justement, le mot
« déception » illustre bien les variations de sens. Dans le passé, le mot français
« déception » signifiait « tromperie » (c’était aussi son sens en latin et ce l’est toujours en
anglais). A la charnière du 19ème et du 20ème siècle, il en est venu à désigner le sentiment
22
Intelligence collective : Rencontres 2006
pénible d’avoir été trompé ; mais cela était prévisible après toute une période où l’on
vous avait dit que tout était possible ! Idem également pour « confiance » qui s’applique
autant à soi qu’aux autres, alors que la foi s’adresse plutôt aux dieux. Vous me direz
qu’il en va de même en anglais pour « confidence » et « faith », mais les anglais
disposent tout de même du mot « trust » pour désigner plus particulièrement la confiance
en autrui qui manque cruellement aux français.
Ludwig Wittgenstein, dans son Tractatus logico-philosophicus (1921), estimait que les
mots reflétaient directement la réalité et que l’accès à la vérité passait par le tri de leurs
combinaisons (sous forme d’énoncés ou de propositions)… Par la suite (1932, 1969), il a
corrigé son tir en ne voyant dans les « jeux de langage » (y compris les langages formels)
qu’un moyen de décrire au mieux les choses sans prétendre les expliquer…
Bref, si les mots d’une langue peuvent être considérés métaphoriquement comme des
« gènes culturels » hérités de nos ancêtres qui les ont rodés et tissés, ils ne
« contiennent » pas les connaissances et peuvent seulement servir à les faire émerger9…
à condition « de les prendre au sérieux », comme l’y invitait Brice Parain (1942).
LA SEMIOTIQUE DE PEIRCE
Bien que Charles Peirce soit décédé en 1914, sa pensée était en avance sur son temps et
même sur le nôtre. Il considérait 1) que l’esprit humain ne traitait que des signes ; 2)
qu’il était capital de connaître « les conditions nécessaires de la transmission de la
signification par signes d’un esprit à l’autre, et d’un état d’esprit à un autre » (Collected
Papers ; cf. Morand, 2004, pp. 61-62) ; 3) et que c’était le moyen de comprendre les
conditions d’accès à la vérité. On notera aussi qu’il n’était pas loin de la conception
extrême-orientale de la connaissance (cf. Nonaka & Takeuchi, 1995) : des connaissances
tacites (sensations internes, perceptions externes, façons de voir ou de sentir les choses)
dont certaines sont explicitées et conceptualisées puis combinées pour être à nouveau
intériorisées. Surtout, il avait une conception ternaire du signe qu’il définissait comme
« quelque chose qui est mis à la place d’autre chose (objet) pour quelqu’un d’autre
(interprétant) ». On pouvait donc examiner le signe pour ce qu’il est en lui-même, dans
sa relation à l’objet et dans son impact sur un interprétant ; étant entendu que ces trois
aspects devaient être appréhendés ensemble et dynamiquement. Tout particulièrement,
l’interprétant n’est pas l’interprète (l’individu) mais un ensemble de signes « déjà là » qui
vont permettre de donner une signification aux signes provenant d’un interlocuteur
extérieur ou d’un état d’esprit intérieur.
9 En matière de conception technique, Jean-François Quilici (1999) montre que les substantifs et
les verbes s’attachent respectivement aux aspects organiques (de quoi c’est fait ? à quoi ça
ressemble ?) et fonctionnels (à quoi ça sert ?) des choses, en restant plus « muets » sur leurs
aspects relationnels (par rapport à quoi ? en vue de quoi ?). Il suggère cependant que ces aspects
transparaissent parfois au travers des adverbes ou locutions adverbiales qui spécifient les verbes
(conduire vite, prudemment, « à l’aveuglette », « au jugé », « sans secousse », « comme un fou »,
adroitement, « avec ses fesses », « à l’économie », etc.).
Cartes blanches au comité scientifique RIC’2006
23
Ainsi, au niveau du rapport à l’objet, distingue-t-il les icônes10 (qui décrivent l’objet sans
l’expliquer), les indices (qui relient certaines parties de l’objet à certains de ses
comportements) et les symboles (qui représentent l’objet par convention). Ces signes
vont activer différemment des interprétants selon de multiples combinaisons. Pour
l’illustrer, on prendra deux exemples. L’un est emprunté à Norwood Hanson (1958) :
Kepler dispose de multiples indices sur le mouvement de la lune (les données
collationnées par Tycho-Brahé) mais il les rapporte d’abord à un interprétant circulaire
puis à d’autres interprétants possibles (épicycloïdes) qui ne le satisfont pas (autre
interprétant plus proche de la sensation interne) ; par la suite, l’interprétant « ellipse » lui
semble plus élégant (autre interprétant du type « sensation interne ») et surtout plus
conforme au faits (interprétants symboliques relatifs aux données empiriques). L’autre
est emprunté à Bernard Morand (2004) : un véliplanchiste se lance dans le vide en
espérant atterrir à tel endroit mais sans savoir où il atterrira effectivement ; le lieu
d’atterrissage projeté deviendra son « interprétant potentiel » auquel seront rapportés
tous les signes qui ponctuent son trajet (sensations internes, indications sur le vent et les
obstacles, connaissances et savoir-faire techniques). Ces deux exemples ont trait à la
cognition mais on aurait pu y ajouter des exemples relatifs à la communication,
notamment aux échanges entre locuteurs de langues différentes (comment chacun d’eux
déploie ses interprétants pour saisir les signes qu’émet l’autre).
Ce modèle peircéen assimile les interprétants à un rhizome étendant ses ramifications
dans de multiples directions, de sorte qu’elles saisissent et transforment les signes qui lui
parviennent. Ce rhizome est certes géré dans et par les mémoires individuelles mais l’on
devine combien les nouvelles technologies de l’information et de la communication
peuvent l’enrichir. Ainsi, les thésaurus multilangues permettent de comparer d’immenses
réseaux sémantiques qui sont autant de points de vue sur le monde ; les moyens
hypertextes multiplient les images et les données dans les domaines les plus variés ; les
langages-objet permettent d’appliquer les mêmes opérations de transformation à de
multiples classes d’objets, faisant ressortir des similitudes ou des différences de
comportement que l’on ne soupçonnait pas. Mais ces aides renforcent-elles une
intelligence collective considérée comme le produit d’intelligences individuelles de plus
e plus rhizomiques ou constituent-elles les prémisses et la manifestation d’une
intelligence globale ?
Selon nous, l’enrichissement collectif de Linux ou de Wikipedia plaide toujours en
faveur de la synergie d’intelligences individuelles. Cette synergie découle d’un type
d’organisation plus adapté à ce type de signes et fondé sur : 1) la vision d’un cap (celle
de Linus Torvalds ou de Jimmy Wales) ; 2) l’autonomie des individus ; 3) une culture de
la crise (et non de la bureaucratie) ; 4) le chevauchement des expériences et compétences
; 5) la variété des réponses. Or, ces traits sont ceux-là mêmes que Nonaka & Takeuchi
10 Les icônes se subdivisent elles-mêmes en images (qui se caractérisent par leurs capacités de
description), en diagrammes (qui se caractérisent par leurs capacités de mise en relation des parties
au tout) et en métaphores (qui se caractérisent par leurs capacités de mise en relation avec d’autres
objets). Le raisonnement abductif part de l’observation d’un fait surprenant (dans une image ou un
diagramme) et entraîne l’évocation de ses explications plausibles (le plus souvent par le biais de
métaphores).
24
Intelligence collective : Rencontres 2006
(1995) utilisent pour décrire les organisations japonaises qui s’inspirent de la conception
extrême-orientale des connaissances pour en favoriser la production et la valorisation.
CONCLUSION
Les perspectives darwiniennes et néodarwiniennes rétablissent des liens entre les
différentes espèces animales que les philosophies extrêmement anthropocentriques de
l’ontologie ou de la connaissance avaient coupés, les unes au profit de forces
surnaturelles et les autres au profit d’une pensée individuelle et désincarnée. Elles nous
évitent aussi de réduire le problème de l’intelligence collective à celui de la coordination
d’individus par des signaux (phéromones) ou des signes.
Il s’agit plutôt de savoir si les gènes culturels constituent ou non un système autonome
qui prendrait le relais des gènes biologiques et machinerait les individus, de sorte que
toute intelligence individuelle ne serait que le reflet d’une intelligence plus globale.
Même si nous y avons répondu par la négative, cette question méritait d’être posée
puisqu’elle nous rappelle que nous ne sommes que les vecteurs d’un génotype qui nous a
été transmis dans un environnement que nous n’avons pas choisi. En revanche, ces gènes
ont un support biologique que n’ont pas les mèmes. Et, jusqu’à preuve du contraire, seuls
les systèmes biologiques constituent des systèmes autonomes (obéissant à des lois qui
leur sont propres) et capables de se reproduire (Von Neumann, 1951), d’évoluer [Von62]
et de réduire leur dépendance à l’environnement [Ash62)].
Au regard des exemples que nous avons donnés, il semble que la synergie de nos
intelligences individuelles vers de meilleurs résultats collectifs dépende d’un meilleur jeu
des signes à notre disposition, des plus corporels aux plus langagiers, par l’entremise de
nouvelles aides techniques (notamment informatiques et télématiques) ou
organisationnelles.
RÉFÉRENCES BIBLIOGRAPHIQUES
[Ash62]
W.R. Ashby : “Principles of the Self-Organizing Systems”, pp. 65-69, in :
“Mechanisms of Intelligence” : Ross Ashby’s Writings on Cybernetics. Salinas,
Intersystems Publication, 1981, (1962)
[Bat48]
A.J. Bateman : “Intra-Sexual Selection in Drosophila”, Heredity, 2 (1948) 349368
[Bla99]
S. Blackmore : “The Meme Machine”, Oxford, Oxford Universiy Press, (1999)
[Blo95]
H. Bloom : “The Lucifer Principle”, Trad. fr. « Le principe de Lucifer », Paris, Le
jardin des livres, 2001, (1995)
[Blo00]
H. Bloom : “The Global Brain”, Trad. fr. « Le principe de Lucifer 2, Le cerveau
global », Paris, Le jardin des livres, 2003, (2000)
[Dar59]
C. Darwin : “On the Origin of Species by Means of Natural Selection”, Trad. fr.
« L’origine des espèces », Paris, Flammarion, 1992, (1859)
[Daw76]
R. Dawkins : “The Selfish Gene”, Trad. fr. « Le gène égoïste », Paris, Odile Jacob,
1996, (1976-1989)
Cartes blanches au comité scientifique RIC’2006
25
[Den95]
D.C. Dennett : “Darwin’s Dangerous Idea. Evolution and the Meanings of Life”,
Trad. fr. « Darwin est-il dangereux ? L’évolution et les sens de la vie » Paris,
Odile Jacob, 2000, (1995)
[Ham64]
W.D. Hamilton : “The Genetical Evolution of Social Behaviour”, Journal of
Theoretical Biology, 7, 1-52 (1964)
[Han58]
N.R Hanson : “Patterns of Discovery”, Trad. fr. « Modèles de la découverte. Une
enquête sur les fondements conceptuels de la science », Chennevières-sur-Marne,
Editions Dianoïa, 2001, (1958)
[Jou05]
P. Jouxtel : « Comment les systèmes pondent. Une introduction à la mémétique »
Paris, Editions Le Pommier, (2005)
[Kuh70]
T.S. Kuhn : “Logic of Discovery or Psycholology of Research ?” pp. 1-24, in : I.
Lakatos & A. Musgrave (Eds). “Criticism and the Growth of Knowledge”,
Cambridge, Cambridge University Press, (1970)
[Mor04]
B. Morand : « Logique de la conception. Figures de sémiotique générale d’après
Charles S. Peirce », Paris, L’Harmattan, (2004)
[Mor87]
E. Morin : « Penser l’Europe », Paris, Gallimard, (1987)
[Non95]
I. Nonaka & H. Takeuchi : “The Knowlege-Creating Company”, Trad. fr. « La
connaissance créatrice. La dynamique de l’entreprise apprenante », Bruxelles,
Paris, De Boeck Université, 1997, (1995)
[Pag88]
R. Pagès : « Le long courant porteur du signalétique à l’informatique et la
rétroaction sur la sociopsychologie », pp. 161-182, in : P. Ansart (Ed) : « Usages
et mésusages de l’informatique dans l’enseignement de la recherche en sciences
sociales », Paris, Centre de coopération universitaire franco-québécoise,
Publications de la Sorbonne, (1988)
[Par42]
B. Parain : « Recherches sur la nature et les fonctions du langage », Paris,
Gallimard, 2000, (1942)
[Pei31]
C.S. Peirce : “Collected Papers (Vol. I-VI)”, Cambridge, Harvard University
Press, (1931-1935)
[Pei58]
C.S. Peirce : “Collected Papers (Vol. VII-VIII)”, Cambridge, Harvard University
Press, (1958)
[Pop68]
K. Popper : « Une épistémologie sans sujet connaissant », pp. 119-164, in : K.
Popper : « La connaissance objective », Bruxelles, Editions Complexe, 1978,
(1968)
[Pop72]
K.Popper : “Objective Knowledge, An Evolutionary Approach”, Trad. fr. « La
connaissance objective », Paris, Flammarion, 1991, (1972)
[Qui99]
J.F. Quilici : « Technique et dialectique », St-Imier (2610 Suisse), Association
Ferdinand Gonseth, (1999)
[Rhe02]
H. Rheingold : “Smart Mobs”, Trad. fr. « Les foules intelligentes. La révolution
qui commence », Paris, M2 Editions, 2005, (2002)
26
Intelligence collective : Rencontres 2006
[Rom03]
A. Roman : « Interrogation sur deux énigmes posées par la culture et la langue
arabes », Modèles linguistiques, 24, n°2 (2003) 139-169
[Sim66]
H.A. Simon : “Scientific Discovery and the Psychology of Problem Solving”, pp.
286-303, in : H.A. Simon. “Models of Discovery and Other Topics in the
Methods of Science”, Dordrecht, Reidel, 1977, (1966)
[Sim73]
H.A. Simon : “Does Scientific Discovery Have a Logic ?”, pp. 326-337, in : H.A.
Simon : “Models of Discovery and Other Topics in the Methods of Science”,
Dordrecht, Reidel, 1977, (1973)
[Sim90]
H.A. Simon : “A Mechanism for Social Selection and Successful Altruism”,
Science, n°250, 1665-1668, (1990)
[Tri72]
R. Trivers : “Parental Investment and Sexual Selection”, pp. 136-179, in : B.
Campbell (Ed) : “Sexual selection and the descent of man”, Chicago, Aldine,
(1972)
[Von62]
H. Von Fœrster : “Principles of Self-Organization”, New York, Pergamon Press,
(1962)
[Von51]
J. Von Neumann : “The General and Logical Theory of Automata”, Trad. fr. « La
théorie générale et logique des automates », pp. 93-153, in : A. Pélissier & A.
Tête (Eds). Sciences cognitives, textes fondateurs (1943-1950), Paris, PUF, (1951)
[Wit21]
L.Wittgenstein : “Tractatus Logico-Philosophicus”, Trad. fr. « Tractatus LogicoPhilosophicus », Paris, Gallimard, 1988, (1921)
[Wit32]
L.Wittgenstein : „Philosophische Grammatik“, Trad.
philosophique », Paris, Gallimard, 1980, (1932, 1969)
fr.
« Grammaire
Cartes blanches au comité scientifique RIC’2006
27
POUR UN OBSERVATOIRE-PILOTE
FRANCIS LAPIQUE
EPFL LAUSANNE
La mutation de notre société a atteint un seuil critique. Nos certitudes fondamentales sont
ébranlées, tout comme nos institutions les mieux établies. Liée durant des millénaires au
« savoir » qui la légitimait en la stabilisant, l’Université, comme toutes les autres
institutions, doit compter de plus en plus avec les réseaux qui, tel internet, « inventent »
le futur en temps réel. A quoi doit contribuer non un super moteur de recherche mais un
observatoire d’un nouveau type. Entretien avec les concepteurs d’une expérience pilote,
à la pointe des connaissances, René Berger, docteur honoris causa de l’EPFL et Président
d’honneur de l’Association internationale des critiques d’art et Francis Lapique,
collaborateur scientifique à l’EPFL, créateurs de « Pour un observatoire-pilote » à
l’adresse : http ://oeuf.epfl.ch.
QUESTION PROFANE : QU’EST-CE QU’UN OBSERVATOIRE-PILOTE ?
René Berger et Francis Lapique : Tout observatoire se définit traditionnellement par un «
objet » qu’on découpe dans un champ de connaissance donné – observatoire
astronomique, économique, linguistique, – et par un objectif à atteindre au moyen de
l’action et de la méthode jugées les plus appropriées, scientifique, économique, politique.
L’ensemble se situe dans une certaine conception qu’on se fait du monde – notre
Weltanschauung – et de la place que nous y tenons.
MAIS VOTRE OBSERVATOIRE-PILOTE EST UNIQUE EN SON GENRE.
POURQUOI ?
D’abord nous avons renoncé à découper le champ de la connaissance en « objets »
spécifiques en mettant au jour des phénomènes en interaction dans leur mouvement
même. Nous avons aussi renoncé au recours à des catégories ou à des genres fondés sur
un mode de penser essentiellement rationnel, qui privilégie la relation de causalité locale
et la logique binaire. Notre observatoire vise à envisager les phénomènes dans leur
complexité transdisciplinaire.
En prenant en compte leurs fluctuations, leurs turbulences, et, prioritairement, leur
périodicité, l’observatoire-pilote s’affranchit de la pensée linéaire, toujours réductrice
pour tenir compte du processus non linéaire, propre au déroulement des phénomènes.
A la différence de la plupart des moteurs de recherche, notre site vise, non plus à
atteindre des objectifs donnés au moyen d’un nombre exponentiel de références obtenues
dans les délais les plus brefs, et au moindre coût, mais à suggérer des perspectives et des
28
Intelligence collective : Rencontres 2006
démarches concourant à dégager une vision responsable du monde à venir à partir de
trois « orientations » majeures.
La première orientation consiste à mettre au jour l’information non seulement dans sa «
factualité » mais dans l’esprit de sérendipité11 qui ne cesse de montrer sa fécondité.
Exemple fameux : Fleming découvrant la pénicilline sans l’avoir expressément cherchée.
La deuxième résulte de l’accélération générale qui caractérise notre époque et qui nous
incite instamment à tenir compte de la « modulation temporelle » issue des nouveaux
techno-supports en ligne. Ainsi, pour nous en tenir à l’essentiel, nous faisons une
distinction méthodologique entre les références quotidiennes, du type « news » en ligne,
les références périodiques du type « revues », « magazines » , « journaux » et les
références durables du type « encyclopédie », « dictionnaire » hier encore dominé par
l’imprimé, aujourd’hui bouleversé par les formidables changements en cours.
La troisième orientation prend, quant à elle, en compte les méthodes d’apprentissage
automatique, un agent filtrant chaque jour un ensemble de sites web en fonction d’un
champ d’observation donné.
QUELS SONT LES POLES QUE VOUS AVEZ DECIDE D’OBSERVER ?
Nous avons choisi de délaisser les rubriques couramment traitées dans la plupart des sites
généralistes – politique, finances, bourse, jeux, divertissement, rencontres, quiz, etc. –,
notre champ d’observation comporte actuellement sept pôles à titre expérimental : la
génétique, le cerveau, les changements climatiques, la science dans la société,
l’évolution, la physique et l’espace.
CECI N’IMPLIQUE-T-IL PAS UNE REFORME TECHNIQUE EN
PROFONDEUR ?
Certainement, et à plusieurs niveaux ! D’une part en recourant aux outils les plus
sophistiqués ; d’autre part – c’est l’une des originalités novatrices du site – en générant
un esprit à la fois ouvert et collaboratif.
QU’ENTENDEZ-VOUS PAR «COLLABORATIF» ? N’EST-CE PAS UN VŒU
PIEUX ?
Nullement. C’est au contraire un concept très précis, mais qui, par sa nouveauté, exige
quelque effort pour y accéder. Un site « collaboratif » est un site dans lequel les
internautes mettent en commun des informations, plus largement des contenus à travers
quatre grandes étapes :
• un membre s’identifie et accède à un espace privé au sein du site ;
•
le membre-rédacteur rédige un article, une brève ou tout autre document qui restent
11 Three principles of serendip : insight, chance, and discovery in qualitative research,
www.ul.ie/~philos/vol2/deegan.html
Cartes blanches au comité scientifique RIC’2006
29
d’usage privé aussi longtemps que leur auteur n’aura pas déclaré explicitement sa
volonté de les partager avec la communauté ;
•
le rédacteur décide de publier leur contenu. Suivant le type de données et les règles
en vigueur sur le site, l’information est soit directement mise en ligne, soit sujette à
l’approbation d’un modérateur ou relecteur ;
•
le contenu publié est classé et indexé en fonction de son type, du circuit de validation
associé et d’un ensemble de propriétés décrivant le contenu.
QUELLE EST LA GENESE DE CE PROJET ?
Tout a commencé en 1996 à l’occasion du site que nous avons créé sous le nom
« d’Observatoire pour l’université du futur (OEUF) »12. L’actuel Observatoire-pilote en
constitue le prolongement et le développement à partir de trois axes :
•
l’Observatoire proprement dit qui se propose de réunir les Regards de ceux soucieux
de débusquer les signes et les orientations qui émergent dans notre société en
changement accéléré ;
•
les Carnets qui sont destinés à recevoir les idées, intuitions, projets à l’état de notes,
d’esquisses, d’essais, de mises au point. Chaque « observateur » dispose de « carnets
virtuels » qu’il peut enrichir, modifier, illustrer, voire supprimer. Le but est de suivre
le mouvement de la connaissance en train de se former ;
•
le Vocabulaire dynamique qui regroupe les termes, les locutions et les concepts qui
s’introduisent dans la langue courante pour désigner les phénomènes en mutation ;
ainsi real time, qui désigne les opérations qui se font simultanément pour un ou
plusieurs utilisateurs tout au long de leur accomplissement.
VOUS APPLIQUEZ UNE METHODOLOGIE NOUVELLE. POUVEZ-VOUS EN
DIRE QUELQUES MOTS ?
C’est bien de méthodologie nouvelle qu’il s’agit. Cette entreprise est en effet un pari.
Elle se distingue de l’idée de programme. L’avantage du programme c’est d’être d’une
très grande efficacité tant que les circonstances qui en permettent l’accomplissement sont
favorables. Dans le cas contraire, le programme s’arrête ou échoue. Le pari, par contre,
se détermine en tenant compte d’une situation aléatoire, d’éléments adverses, voire
d’adversaires, et cette situation est amenée à se modifier en fonction des informations
fournies en cours de route.
QUEL EST LE « BUT ULTIME » DE VOTRE OBSERVATOIRE ?
L’Observatoire-pilote ne vise nullement à rivaliser avec les entreprises encyclopédiques
non plus qu’avec les banques de données toujours plus nombreuses ou les moteurs de
recherche sans cesse plus rapides et sophistiqués. Son objectif est d’instituer – non pas
12 Projet ICA (Institute for computer Communica-tions and Applications), «portal» designed to
pursue the observation of our rapidly changing society, 1997-2000, http ://oeuf.epfl.ch
30
Intelligence collective : Rencontres 2006
d’institutionnaliser – une recherche en commun à partir de la multi-dimensionnalité et de
la complexité grandissantes qu’accroissent encore les technologies de la communication
et des transports en pleine mutation. Sa volonté est de tenir compte des différentes
approches, non seulement du savoir, mais de la connaissance qui, sans récuser le passé,
s’ouvre aux valeurs en train de naître et au nouvel «esprit collaboratif» au cœur de la
métamorphose en cours. L’espoir qui fonde et guide l’ensemble de cette initiative est de
créer, à la faveur de l’Observatoire-pilote, les conditions propres à une meilleure
compréhension du monde à venir en esquissant, la «vision» – ou les visions – que l’on
peut progressivement s’en former. A notre société en mutation répond l’instance d’une
conscience en formation, comme l’a jadis rappelé Socrate.
Cartes blanches au comité scientifique RIC’2006
31
L’INTELLIGENCE COLLECTIVE : UNE NOTION EN CHANTIER
ANNE MAYERE
PROFESSEURE, LERASS,
UNIVERSITE TOULOUSE 3
UNE NOTION EN CHANTIER : QUELLE INTELLIGENCE SUR
‘L’INTELLIGENCE COLLECTIVE’ ?
La notion « d’intelligence collective » est encore loin d’avoir connue le succès qui est
celui par exemple de la notion de management des connaissances, ou « knowledge
management », dont on remarquera quelle sous-tend plusieurs communications à ce
congrès. Elle a, dans son expression même, une dimension programmatique qu’il s’agit
d’interroger, en la confrontant aux phénomènes observables et aux cadres d’analyse des
organisations contemporaines. Cette expression est sous-tendue de potentiels jugements
de valeur, compte tenu de la charge associée à chacun de ces termes. Il importe de ne pas
confondre préconisation et analyse, au risque de ne se situer sinon que sur le registre
d’un discours incantatoire sans prise sur les évolutions effectives.
L’émergence de cette expression se situe au croisement de travaux relevant de l’essai
philosophique [Lev94] et de sa reprise au sein des sciences de l’ingénieur et sciences
informatiques ; sa mobilisation dans les sciences humaines et sociales reste circonscrite,
avec semble-t-il une écoute plus particulière en sciences de gestion, et dans certaines
composantes des sciences de l’information et de la communication. C’est en cela une
notion intéressante puisqu’elle peut ouvrir un débat entre sciences informatiques et de
l’ingénieur et sciences humaines et sociales. Cette mise en discussion ne relève pas de
l’évidence. Une notion aux ancrages théoriques incertains peut favoriser une impression
de convergence. Mais la discussion ne peut ignorer que les concepts et cadres d’analyse
sont différenciés ; comme pour les communautés de pratiques dans les organisations
[Tay00] ; [Tay06] (à paraître)), les chercheurs dans chaque grand champ disciplinaire
mobilisent des cadres théoriques qui leur sont spécifiques. Le recours à des notions aux
contours flous, faiblement articulées sur les cadres théoriques, accroît le risque des
fausses évidences et des proximités trompeuses.
UNE NOTION QUI RENVOIE A UN PROJET ET S’INSCRIT EN RELATION
AVEC UNE EVOLUTION GLOBALE
L’évolution dans laquelle s’inscrit la notion d’intelligence collective est celle de la
maturation de ce que certains économistes proposent de désigner comme le
développement d’un capitalisme cognitif, caractérisé en particulier par des connaissances
devenues socle principal de la compétitivité [Cor01 ; Bou03].
Parties prenantes de cette évolution, les technologies de l’information et de la
communication de transactionnelles ont évolué vers des technologies coopératives, avec
32
Intelligence collective : Rencontres 2006
pour matière première les interactions entre acteurs [Baz06]. Ces technologies sont
élaborées, mises en œuvre et utilisées à travers ce qui peut être désigné comme un travail
d’organisation [Det02]. Le travail d’organisation vise à mettre en forme la structuration
des objets symboliques (données, informations et connaissances) et les relations entre les
acteurs pour in-former leurs actions (Bazet, de Terssac, ibid).
Ce processus d’ensemble contribue à ce que certains auteurs désignent comme le
développement de « ‘rationalisations cognitives’ qui prolongent les rationalisations
industrielles de la production en investissant spécifiquement les activités de transmission
d’information, de communication, de mobilisation de connaissances » [Bou05, p 92]. A
cette dynamique contribue le développement des progiciels de gestion intégrée ou ERP.
Leur déploiement repose sur un paramétrage des actions au quotidien qui articulent
étroitement, tissent ensemble les tâches liées à l’activité, et les opérations requises par la
gestion, contribuant en cela à la montée en puissance de la logique gestionnaire [Baz04 ;
Seg04]. Le périmètre traditionnel du knowledge management, cadre originel de la
capitalisation des connaissances, a été en cela largement dépassé, avec toute une
diversité de constituants du dispositif informationnel, tels que les intranet, workflows,
entrepôts de données et logiciels collaboratifs ; ils participent à l’extension et
l’intensification de la formalisation de tout une variété d’informations et de
connaissances, qui vont de la façon de gérer une relation client aux formes de résolution
des pannes, jusqu’au process lié à l’activité principale. Ces différents constituants
s’inscrivent dans une logique globale de rationalisation du travail de l’information et des
activités de communication. Il s’agit en particulier d’améliorer la substituabilité des
acteurs individuels et collectifs, d’accroître l’interchangeabilité des individus et des
composantes organisationnelles à travers la diffusion de ‘bonnes pratiques’ à l’échelle
d’un groupe ou d’un domaine d’activités. Ainsi les ERP sont-ils supposés être
programmés en fonction des bonnes pratiques dans telle ou telle fonction, allant de la
gestion des approvisionnements, à la conduite des achats, à la gestion des ressources
humaines, ou à l’organisation de la logistique.
L’attrait que peut susciter une notion comme celle d’intelligence collective trouve une de
ses sources dans sa contribution à des enjeux qui se nouent autour de l’information et des
connaissances. Cependant, restent en suspend un certain nombre de questions qui doivent
être précisées pour que cette notion puisse être mobilisée plus avant.
UNE INTELLIGENCE, DES INTELLIGENCES
La notion d’intelligence au singulier tend à renvoyer à un caractère générique de cette
intelligence. On n’est pas loin des grandes références des Lumières à une intelligence
‘universelle’. Or ceci tend à occulter ce qui est constaté par nombre de ceux qui ont
observé de près ces processus en organisations, à savoir le caractère pluriel des savoirs et
de leurs formes de mobilisation. Cette pluralité est associée à celle des activités et des
métiers, en particulier.
Comme l’explicite Jim Taylor 2006 [Tay06] (à paraître), une organisation
contemporaine est une combinaison de pratiques situées, chacune de ces pratiques étant
développée par une communauté - groupe professionnel, collectif de travail…- avec ses
mécanismes de gouvernance internes, ses modes de construction du sens ancrés dans la
pratique de leur activité. Ainsi entre les personnels du bureau d’études et ceux de
Cartes blanches au comité scientifique RIC’2006
33
l’atelier, si une intelligence relative au produit et à son mode de production peut être en
partie partagée, elle mobilise tout un ensemble de savoirs spécifiques, et peut reposer sur
une conception même de l’objet radicalement distincte (comme l’a bien montré Scardigli
s’agissant des rapports entre concepteurs et pilotes des avions - [Sca01]).
Des projets tels que ceux que vise la notion d’intelligence collective traversent ces
communautés. Or, comme le relève Jim Taylor, c’est ce qui fait leur vulnérabilité : parce
que ce qui est proposé ne fait pas nécessairement sens au regard de ce qui est élaboré par
chaque communauté. De même, les technologies transactionnelles telles que projetées
par les spécialistes de leur programmation et de leur paramétrage peuvent-elles se situer
dans ce rapport d’étrangeté radicale au regard des groupes professionnels auxquels elles
sont destinées.
Ainsi, le caractère collectif de l’intelligence n’est en rien acquis d’avance. C’est le
résultat éventuel d’un ensemble de traductions et d’ajustements, au travers desquels
s’identifient des intérêts convergents, qui sont nécessairement partiels et circonstanciés.
En effet, la motivation qui peut justifier ce partage de connaissances au sein de collectifs
de travail et entre collectifs n’est pas donnée non plus, elle est à construire. Les travaux
qui mettent en évidence les transformations liée au développement du travail de
l’information dans les organisations montrent bien en quoi cet investissement additionnel
dans une production « pour d’autres que soi » est soumis au feu de la critique, chaque
fois que le retour ‘pour soi plus tard’ n’est pas identifiable ([Vac97] ; [May05]).
INTELLIGENCE ET POUVOIR
Si la notion d’intelligence collective peut présenter le risque d’occulter l’institution
qu’est l’organisation, faite d’une combinaison interactive de communautés, elle tend
aussi dans certaines de ses formulations à occulter les rapports de pouvoir et les enjeux
associés à la mise en commun de connaissances et à l’élaboration collective d’une
intelligence de situations ou d’actions en projet.
Les organisations contemporaines reposent sur la mise en flexibilité de toutes les
ressources, à la fois ressources décomposables en unités, comme les stocks ou les
ressources humaines, et de sous-ensembles organisés de ressources, que constitue telle
ou telle composante de l’entreprise ou de son environnement. Ainsi les entreprises ontelles depuis les années 80 travaillé à la mise en flexibilité des fournisseurs, avec des
appels d’offre remettant régulièrement sur le chantier la question des sources
d’approvisionnement sélectionnées. Ce qui a d’abord surtout valu pour les composantes
externes a été progressivement étendu aux composantes internes, à travers le reingeniering et l’outsourcing. Il s’agit fondamentalement d’approches tendant à proposer
une vision objectivée de l’organisation, en dissociant les questions de performance
organisationnelle de celle des individus et collectifs parties prenantes, pour diagnostiquer
ce qui est supposé répondre aux meilleurs critères d’efficacité du moment dans
l’allocation des activités entre services internes et services externes.
La notion d’intelligence collective, dans une formulation générique déconnectée de ceux
qui en seraient les co-producteurs, peut être identifiée comme participant de l’idéologie
sous-jacente à cette dissociation entre organisation et acteurs individuels et collectifs. Le
collectif dont il est question n’est-il pas au bout du compte cette organisation allégée de
34
Intelligence collective : Rencontres 2006
toute allégeance aux individus et groupes sociaux qui ont participé à son développement,
et qui contribuent à créer les conditions de ce projet d’optimisation par le dépassement
de tous ces attachements ?
La faisabilité de l’interchangeabilité organisationnelle, censée permettre par exemple de
substituer en temps réduit et sans perte d’efficacité un prestataire externe à un service
interne, ou vice versa, repose en bonne part sur la fabrique d’une interchangeabilité
informationnelle et communicationnelle [May06]. Celle-ci repose sur un corpus commun
de règles de formalisation de l’information, de méthodes d’approche de son traitement, et
de valeurs associées. Cette fabrique repose sur des dispositifs socio-techniques
convergents, allant des normes ISO 9000 aux approches processus en passant par les
méthodes de déploiement des ERP.
Dans un contexte où les ressource humaines sont flexibilisées, ou la substituabilité des
acteurs individuels et collectifs devient la règle, le système informatisé d’information est
censé rassembler la mémoire active des modes opératoires, des façons de faire, des
critères de référence, non seulement au travers des données enregistrées mais au travers
des logiques « pré-cablées » dans la programmation et le paramétrage de processus. Il y a
ainsi instrumentation du travail de l’information.
S’agit-il, au-delà, d’une instrumentation de la somme des intelligences requises pour
mener à bien l’activité, voire d’une intelligence au moins en partie partagée, mise en
commun, rendue collective, mise en chantier entre l’entité organisation et ceux qui en
font partie ? Y a–t-il possibilité même d’une intelligence, au sens d’une faculté à
comprendre et d’une aptitude à s’adapter à des situations nouvelles ? N’est-ce pas là en
effet le projet principal autour de cette notion, et ce qui la différencierait de la
capitalisation des connaissances ? En effet cette dernière, quoiqu’en aient dit ses
concepteurs, est souvent considérée comme suspecte de constituer la connaissances en
patrimoine plutôt que de favoriser l’innovation et la créativité. Mais si le projet de
créativité est fort compréhensible, il n’est pas sûr que la seule incantation autour de la
notion d’intelligence collective permette de dépasser les contradictions actuelles. En
cela, plutôt que d’occulter ces tensions, il paraît essentiel de les mieux cerner pour que le
projet puisse être évalué dans sa faisabilité.
INTELLIGENCE COLLECTIVE, ENJEUX DE COMMUNICATION
ORGANISATIONNELLE ET QUESTIONS POUR LA RECHERCHE
Comme le relève G. Valenduc [Val05], de nombreux investissements dans les TIC
privilégient une codification croissante des connaissances, souvent associée à une
standardisation et une parcellisation des tâches de production d’information. Or les
usages créatifs des TIC requièrent une communication interne facilitée et une
compréhension globale des processus, des produits et services de l’entreprise, et de son
organisation. De plus, l’intensification croissante du travail laisse souvent peu de place à
l’apprentissage réflexif, alors même que ce « détour » s’avère constituer une condition
pour passer de connaissances imbriquées dans un contexte donné, à des connaissances
transférables dans d’autres contextes.
Dès lors qu’elle est resituée dans ces enjeux organisationnels et sociaux, la notion
d’intelligence collective présente l’intérêt de souligner une question-clé dans l’évolution
Cartes blanches au comité scientifique RIC’2006
35
actuelle des organisations. L’organisation par processus peut être envisagée comme une
façon d’expliciter et d’homogénéiser les modes opératoires, en même temps que de
constituer un savoir partagé au plan des méthodes d’organisation et de certaines valeurs
associées. Les démarches en termes de capitalisation des connaissances ou d’intelligence
collective participent de ces démarches qui visent à conforter la transversalité des
pratiques en formalisant le savoir et en organisant son partage entre communautés
professionnelles. D’une certaine façon, ces démarches viennent reconnaître les
phénomènes organisationnels et leurs logiques spécifiques. Une question-clé porte sur les
cadres d’analyse mobilisés, implicitement ou explicitement, dans cette prise en compte
renouvelée des phénomènes organisationnels, et parmi eux, du rôle-clé des processus de
communication et de co-production d’information. De ce point de vue, la responsabilité
des chercheurs en la matière est importante :
les chercheurs en sciences humaines et sociales travaillant sur l’organisation, la
communication organisationnelle et les formes d’intégration des TIC peuvent trouver
dans ces enjeux renouvelés une base importante de reconnaissance, de possibilités
d’observation voire d’action. Mais le risque d’une instrumentation des travaux ne
peuvent être sous-estimés, notamment en ce qu’ils peuvent contribuer à une
rhétorique tendant à donner une vision de l’entreprise sans enjeux de pouvoir ni
rapports de force, dans lequel les individus et groupes sociaux se fonderaient
spontanément et sans réserve dans un intérêt supposé commun ;
les chercheurs en sciences de l’ingénierie et sciences informatiques sont également
concernés, dans la mesure où les évolutions actuelles autour des technologies
coopératives soulèvent la question de leur capacité : à penser l’organisation
autrement que comme une somme d’individus ; à entrer dans un dialogue approfondi
avec les approches d’autres communautés (scientifiques et de pratiques) ; et à
concevoir des technologies faisant place à une communication ouverte, à une
intervention des différents acteurs dans le design des dispositifs d’information et de
communication, et ouvrant des possibilités diverses d’appropriation.
REFERENCES BIBLIOGRAPHIQUES
[Baz04]
I.Bazet, A.Mayère : « Entre performance gestionnaire et performance industrielle,
le déploiement d’un ERP », Sciences de la Société, n°61 (2004) 107-121
[Baz06]
I.Bazet, G.de Terssac : « Les TIC-TAC de la rationalisation : un travail
d’organisation ? », à paraître aux éditions Octarès, G. de Terssac (éd.), (2006)
[Bou03]
J.L.Bouillon : « Les dimensions organisationnelles d’un changement de
régulation : essai de mise en perspective communicationnelle », actes du Forum
de la Régulation 2003, Association Recherche et Régulation, Paris, actes sur
cédérom, (2003)
[Bou05]
J.L.Bouillon : « Autonomie professionnelle et rationalisations cognitives : les
paradoxes dissimulés des organisations post-disciplinaires », Etudes de
communication, n°28 (2005) 91-105
[Cor01]
A.Corsani, P.Dieuaidé, C.Azais : « Vers un capitalisme cognitif, Entre mutation
du travail et territoire », éd. L'Harmattan, (dir.) (2001)
36
Intelligence collective : Rencontres 2006
[Lev94]
P.Levy : « L’intelligence collective », éd. La découverte, (1994)
[May06]
A.Mayère : « Les activités de communication et de production dans les
organisations : apports et enjeux de la recherche en SIC », Congrès de la Société
Française des Sciences de l’Information et de la Communication, Bordeaux, (Mai
2006)
[May05]
A.Mayère, B.Vacher : « Le slack, la litote et le sacré », Revue Française de
Gestion, hors série, « Dialogues avec James March », (2005)
[Sca01]
V. Scardigli : « Un anthropologue chez les automates », PUF, 244p, (2001)
[Seg04]
D. Segrestin : « Les ERP entre le retour à l’ordre et l’invention du possible »,
Sciences de la Société, dossier : Le mythe de l’organisation intégrée, n°61, (2004)
[Tay00]
J.R. Taylor : “ What is an organization ?”, Electronic Journal of Communication /
La Revue Électronique de Communication, (2000)
[Det02]
G. de Terssac, K. Lalande : « Du train à vapeur au TGV : sociologie du travail
d’organisation », PUF, (2002)
[Vac97]
B. Vacher : « La gestion de l’information en entreprise. Enquête sur l’oubli,
l’étourderie, la ruse et le bricolage organisés », ADBS éditions, (1997)
[Val05]
G. Valenduc : « La technologie, un enjeu de société », éd. Bruylant-Académia,
251p, (2005)
Cartes blanches au comité scientifique RIC’2006
37
ESPACES COLLABORATIFS
METAPHORES GRAPHIQUES ET EXPLORATION VISUELLE
GUY MELANÇON
PROFESSEUR, LIRMM UMR 5506,
UNIVERSITES MONTPELLIER 2 ET 3
LA VISUALISATION D’INFORMATION AU SERVICE DE L’INTELLIGENCE
COLLECTIVE.
Nous vivons dans une société où l'information est abondante. En 2001, le projet « How
much information » de l’université de Berkeley rapportait que l'on avait produit cette
année-là un exabyte (1 million de terabytes) de données dont 99,997% sont disponibles
sous forme électronique seulement (voir [Kei01]). En 2003, la quantité d’information
rapportée à la population mondiale correspond à 800 Mo de nouvelles données produites
par personne en un an [Pet03]. Cette abondance d'information apporte toutefois sont lots
de questions à résoudre. Nombre de champs de recherche se penchent actuellement sur la
construction de méthodes et d'outils capables d'exploiter cette richesse d'information. Les
approches visuelles pour l’exploration et l’exploitation de ces informations connaissent
un succès grandissant ; elles misent sur la capacité de l’œil humain à traiter efficacement
des informations graphiques en y identifiant des motifs structuraux complexes − selon
Ware [War00], 40% des activités de notre cortex sont dédiées au stimuli visuels. La
visualisation d’information s’inspire d’idées ancrées dans des traditions d’origines
diverses, dont la statistique graphique, la cartographie, le graphisme par ordinateur,
l’interaction homme-machine, la psychologie cognitive, la sémiotique, le design
graphique et l’art graphique [Tuf83 ; Tuf90 ; Tuf97], [Car99], [Her00], [Spe01]. La
visualisation porte ses fruits notamment lorsqu’elle vient en appui au travail de l’expert.
C’est le cas en biologie et en bio-informatique [Sch01], par exemple, et dans nombre
d’autres domaines d’applications (voir [Joh06]). Lorsqu’on lance une requête sur Google
Scholar avec les mots-clés « large information space », c’est sans surprise que l’on
trouve parmi les liens les plus pertinents (au sens de Google) les références aux travaux
actuels en visualisation d’information.
La complexité que l’on perçoit en première analyse lorsqu’on aborde des données
massives est souvent inhérente aux données, à la complexité de chacun des attributs des
données et à leurs agencements. Il suffit de penser par exemple aux données d’expression
de la génomique ou de la protéomique, aux réseaux d’interactions de protéines très
étudiés aujourd’hui à l’aide d’outils de visualisation. Or, une autre dimension vient
aujourd’hui se glisser dans cette « complexité », sociale celle-là. La technologie s’ouvre
à un type de navigation qui permet à l’utilisateur de suivre le cheminement des autres
utilisateurs afin d’être guidée non pas par le contenu seulement mais aussi par l’usage.
Familier de l’intelligence collective, il peut mettre à profit dans sa recherche
d’information ce qu’il connaît ou croît connaître des autres utilisateurs appartenant à sa
38
Intelligence collective : Rencontres 2006
communauté. Il peut valider la pertinence des informations accédées par rapport à leur
contexte social ou contexte d’usage ramené à sa propre expérience. Nous parlons de la
navigation sociale telle que posée déjà en 1994 par Chalmers [Dou94], où l’utilisateur a
accès à la « trace » des activités des autres [Die01].
Ici encore la visualisation d’information a son rôle à jouer. Elle peut apporter un appui
décisif pour la navigation en révélant visuellement la dimension sociale de
l’environnement exploré. Les travaux qui se sont penchés sur la navigation sociale
[Eri00], [Rie03] distinguent souvent les systèmes permettant à l’utilisateur de percevoir
directement la présence et l’action des autres, et ceux où la trace sociale n’est accessible
qu’au travers de l’historique des usages de l’espace d’information et des échanges
antérieurs à sa connexion. Nombre de travaux se sont penchés sur le travail collaboratif
et sur les artifices à mettre en œuvre pour faciliter l’interaction synchrone entre
utilisateurs afin de donner « corps » aux échanges favorisant l’émergence de
comportements « sociaux ».
La dimension spatiale, notamment aux travers des avatars, mais aussi de plongement
dans des univers virtuels 2D ou 3D a le plus souvent été conçue de manière à apporter à
l’utilisateur des indices visuels ou sonores rappelant l’environnement réel [Zha00],
[Die01]. Cependant, deux autres dimensions sont présentes lorsqu’il s’agit de naviguer
un espace d’information : la dimension sémantique et la dimension sociale [Dou94]. La
visualisation d’information, parfois moins attaché à plonger l’information dans la
géométrie euclidienne du monde réel, tente de concevoir des vues dominées par la
dimension sémantique – le défi peut se résumer à trouver une correspondance entre
« proximité » sémantique et proximité sur l’écran ou « proximité dans l’interaction ».
Ainsi, on peut imaginer enrichir un corpus de documents (textes, audio et/ou vidéo)
d’informations concernant leurs usages et leurs usagers.
VISUALISATION ET FOAD
On pourrait imaginer par exemple enrichir une plate-forme de formation FOAD de
cartographies permettant à l’utilisateur, apprenant (étudiant) ou enseignant, de visualiser
les liens entre les documents : proximité de contenus, mais proximité d’usage parce que
des utilisateurs ayant consulté le premier document ont aussi consulté le second (« à la
Amazon ») ; liens entre documents et intervention sur les forums, par exemple : parce
que des utilisateurs ont échangé sur un exercice apparaissant dans le document,
permettant ainsi à l’utilisateur de visualiser que cet échange est en rapport son objet
d’étude et de consulter le fil de discussion sans avoir à rechercher les forums ; etc.
Pourquoi ne pas permettre à l’utilisateur enseignant de superviser le travail d’un étudiant
en lisant la cartographie augmentée d’indices décrivant son parcours personnel ? Plus
généralement, si les concepteurs d’un cours en décrivent la cartographie dès sa
conception en indiquant les liens entre objets pédagogiques, on imagine l’enseignant
pouvant aller « piocher » parmi les objets pédagogiques ceux qu’il mettra au programme
du semestre en visualisant leurs interdépendances. Du coup, la cartographie des objet
pédagogiques sélectionnés déduite de la cartographie de tout le cours et pourrait être
Cartes blanches au comité scientifique RIC’2006
39
accessible aux étudiants afin qu’ils décident d’une stratégie pour effectuer l’ensemble des
activités du cours13.
Des systèmes comme NusEye pour la navigation de contenus syndiqués [Jar05] ou celui
de Wang et Chen [Wan04] propose des navigations de réseaux sociaux associant acteurs
et contenus. Ces systèmes souffrent cependant de ne pouvoir traiter des informations
massives impliquant plusieurs centaines d’utilisateurs, voire plus, et de grands ensembles
documentaires ou espaces d’indexation. Typiquement, les espaces considérés sont des
réseaux qui explicitent les liens entre utilisateurs, entre utilisateurs et documents ou entre
documents. Lorsque l’on considère des ensembles de grandes tailles, utilisateurs et
documents, et qu’il est de plus nécessaire de prendre en compte différents attributs ou
types de relations, les réseaux deviennent engorgés et se prêtent mal au techniques de
dessin de graphes traditionnellement utilisées en analyse des réseaux sociaux [Sco00] ;
[Bat98], [Kau01]. Cette masse d’information éprouve aussi les techniques reposant sur
des indices de centralités permettant d’identifier les acteurs clés et les « communautés »
présentes dans le réseau.
Plus récemment, des approches reprenant les travaux sur le clustering de graphes se sont
penchées sur l’identification de communautés d’acteurs dans les réseaux sociaux. Ces
techniques tirent profit de propriétés structurelles des réseaux dits « petits-mondes »
(small world) appelés ainsi par Watts [Wat99 ; Wat03] en référence aux travaux
originaux de Milgram [Mil67]. Les travaux de Auber et al. [Auber, Chiricota et al.
2003], ceux de Newman et Girvan [Gir02 ; New04] ou de Boutin et al. [Bou03 ; Bou04 ;
Bou05 ; Bou06] proposent des méthodes permettant d’identifier la structure de
communautés d’un réseau. L’adaptation de la méthode de Auber et al. au réseau du trafic
aérien mondial offre des résultats prometteurs [Ami05]. Ces méthodes s’inspirent des
idées présentes dans les travaux de Granovetter [Gra73] et décident du rôle d’un lien
dans le réseau : lien « fort » apportant cohésion à l’intérieur d’une communauté, ou
plutôt lien « faible » s’ouvrant sur l’extérieur.
Le bénéfice de ce découpage tient à ce qu’il permet ensuite de naviguer dans le réseau en
quête d’information. Les techniques de navigation conjuguant zoom et/ou déformations
sémantiques (voir par exemple [Her00]) donnent ainsi à la fois une vue détaillée de
quelques acteurs et documents tout en maintenant à vue la globalité de l’espace. Des
indices calculés en fonction de la région visitée permettent à l’utilisateur de repérer des
régions d’intérêt. L’application Vizster, bien qu’elle se limite à visualiser les acteurs d’un
réseau, est une tentative allant dans cette direction [Hee05] qui se compare à certains
produits que l’on trouve dans le monde commercial.
Les métaphores visuelles sont un vecteur très performant de la pensée analogique et très
présent dans les modes de communication en société (la publicité, en particulier, leur
laisse une place de choix) [Mol99], [Sch02], [Phi04]. On peut miser sur la visualisation
comme agent actif de l’intelligence collective. Cela exige de repenser la métaphore
visuelle en y associant l’interaction. La visualisation d’information doit encore travailler
13 C’est déjà l’usage : les auteurs d’ouvrages didactiques proposent souvent en début
d’ouvrage une sélection de chapitres pour un cours d’un semestre, et le présente parfois
sous forme graphique.
40
Intelligence collective : Rencontres 2006
au développement de techniques qui s’inséreront dans les pratiques des usagers pour
faciliter la recherche d’information et la navigation dans les grandes masses de données.
Les efforts de recherche sur l’évaluation des systèmes de visualisation vont dans ce sens
[Fek04], [Wij05]. Il y a fort à faire afin de mieux cerner les métaphores visuelles et les
modes de navigation adaptés en fonction des données visualisées ou des tâches
effectuées [Shn96], [Chi00]. Après une décennie de résultats concernant les aspects plus
techniques de la discipline, l’étude des usages est mis au premier plan des travaux de
cette communauté de recherche [Joh06].
REFERENCES BIBLIOGRAPHIQUES
[Ami05]
M. Amiel, G. Melançon and C.Rozenblat : « Réseaux multi-niveaux : l'exemple
des échanges aériens mondiaux », M@ppemonde 79, (3-2005)
[Aub03]
D. Auber, Y. Chiricota, F. Jourdan and G. Melançon : “Multiscale navigation of
Small World Networks”, IEEE Symposium on Information Visualisation, Seattle,
GA, USA, IEEE Computer Science Press, (2003) 75-81
[Bat98]
G.D. Battista, P. Eades, R.Tamassia and I. G. Tollis : “Graph Drawing :
Algorithms for the Visualisation of Graphs”, Prentice Hall, (1998)
[Bou03]
F. Boutin, and M. Hascoët : “Focus-Based Clustering for Multi-Scale
Visualization”, Proceedings of the Seventh International Conference on
Information Visualization, IEEE Computer Society : 53, (2003)
[Bou04]
F. Boutin, and M. Hascoët : “Focus dependent multi-level graph clustering”,
Proceedings of the working conference on Advanced visual interfaces. Gallipoli,
Italy, ACM Press, (2004) 167-170
[Bou05]
F. Boutin, J. Thièvre and M. Hascoët : “Multilevel Compound Tree Construction
Visualization and Interaction”, Human-Computer Interaction Interact'05, (2005)
[Bou06]
F. Boutin, J. Thièvre and M. Hascoët : “Focus-based filtering + clustering
technique for power-law networks with small world phenomenon”, SPIE
Electronic Imaging / Visualization and Data Analysis, San Jose, California, SPIE
IS&T, (2006)
[Car99]
S.K. Card, J.D. Mackinlay and B. Shneiderman : “Readings in Information
Visualization”, San Francisco, Morgan Kaufmann Publishers, (1999)
[Chi00]
E.H. Chi : “A Taxonomy of Visualization Techniques Using the Data State
Reference Model”, IEEE Symposium on Information Vizualization, IEEE
Computer Society, (2000)
[Die01]
A. Dieberger, K. Höök, M. Svensson and P. Lönnqvist : “Social navigation
research agenda”, CHI '01 extended abstracts on Human factors in computing
systems. Seattle, Washington, ACM Press, (2001) 107-108
[Dou94]
P. Dourish, and M. Chalmers : “Running Out of Space : Models of Information
Navigation”, Ancillary Proceedings of BCS HCI'94, Glasgow, U.K., (1994)
Cartes blanches au comité scientifique RIC’2006
41
[Eri00]
T. Erickson, and W.A. Kellogg : "Social translucence : an approach to designing
systems that support social processes", ACM Transactions on Computer-Human
Interaction 7(1), (2000) 59-83
[Fek04]
J.D. Fekete, and C.Plaisant : « Les leçons tirées des deux compétitions de
visualisation d'information », IHM2004, International Conference Proceedings
Series, Namur, Belgium, ACM Press, (2004) 7-12
[Gir02]
M. Girvan and J.Newman : "Community structure in social and biological
networks", Proceedings of the National Academy Science USA, 99 (2002) 78217826
[Gra73]
M.S. Granovetter : "The Strength of Weak Ties", The American Journal of
Sociology 78(6), (1973) 1360-1380
[Hee05]
J. Heer and D.Boyd : “Vizster : Visualizing Online Social Networks”, IEEE
Symposium on Information Visualization (INFOVIS'05), (2005)
[Her00]
I. Herman, M.S. Marshall and G. Melançon : "Graph Visualisation and
Navigation in Information Visualisation : A Survey", IEEE Transactions on
Visualization and Computer Graphics 6(1), (2000) 24-43
[Jar05]
A.C. Jarrett and B. M. Dennis : “NusEye : designing for social navigation in
syndicated content”, Proceedings of the 2005 conference on Diversity in
computing. Albuquerque, New Mexico, USA, ACM Press, (2005)
[Joh06]
C. Johnson, R. Moorhead, T. Munzner, H. Pfister, P. Rheingans and T. S. Yoo,
Eds. : “NIH-NSF Visualization Research Challenges Report”, IEEE Computer
Society, (2006)
[Kau01]
M. Kaufmann, M. and D. Wagner, Eds. : “Drawing Graphs, Methods and
Models”, Lecture Notes in Computer Science, Springer, (2001)
[Kei01]
D.A. Keim : "Visual exploration of large data sets", Communications of the ACM
44(8), (2001) 38-44
[Mil67]
S. Milgram : "The small world problem", Psychology today 1(61), (1967)
[Mol99]
P. Mollerup : “ Marks of Excellence”, Phaidon Press, (1999)
[New04]
M. Newman, and M. Girvan : "Finding and evaluating community structure in
networks", Physics Reviews E 69(026113), (2004)
[Pet03]
L. Peter and H. R. Varian : "How Much Information 2003", (2003), Retrieved
March 2006, from http ://www.sims.berkeley.edu/how-much-info-2003.
[Phi04]
B.J. Phillips and E. F. McQuarrie : "Beyond Visual Metaphor : A New Typology of
Visual Rhetoric in Advertising", Marketing Theory 4(1-2), (2004) 113-136
[Rie03]
M.O. Riedl and R. St-Amant : “Social navigation : modeling, simulation, and
experimentation”, Proceedings of the second international joint conference on
Autonomous agents and multiagent systems. Melbourne, Australia, ACM Press,
(2003) 361-368
42
Intelligence collective : Rencontres 2006
[Sch02]
J. Schroeder : “Visual Consumption”, Routledge, (2002)
[Sch01]
M.D. Schroeder, J. van Helden and P. Noy : “.” Information Sciences 139(1-2),
(2001) 19-57
[Sco00]
J.P. Scott : “Social Network Analysis: A Handbook”, SAGE Publications, (2000)
[Shn96]
B. Shneiderman : “The Eyes Have It : A Task by Data Type Taxonomy for
Information Visualization”, IEEE Conference on Visual Languages (VL'96),
Boulder, CO, IEEE CS Press, (1996) 336-343
[Spe01]
R. Spence : “Information Visualization”, Harlow, England, ACM Press/AddisonWesley, (2001)
[Tuf83]
E.R. Tufte : “The Visual Display of Quantitative Information”, Cheshire, CT,
USA, Graphics Press, (1983)
[Tuf90]
E.R. Tufte : “Envisioning Information”, Cheshire, CT, USA, Graphics Press (8th
printing), (june 2001)
[Tuf97]
E.R. Tufte : “Visual Explanations”, Cheshire, CT, USA, Graphics Press, (1997)
[Wan04]
J.C. Wang and C.-L. Chen : "An Automated Tool for Managing Interactions in
Virtual Communities-Using Social Network Analysis Approach", Journal of
Organizational Computing and Electronic Commerce 14(1), (2004) 1-26
[War00]
C. Ware : “Information Visualization : Perception for Design”, Orlando, FL,
Morgan Kaufmann Publishers, (2000)
[Wat99]
D.J. Watts : “Small Worlds”, Princeton University Press, (1999)
[Wat03]
D.J. Watts : “Six Degrees : The Science of a Connected Age”, W. W. Norton &
Company, (2003)
[Wij05]
J.J. Wijk : “The Value of Visualization”, IEEE Visualization, IEEE Computer
Society, (2005) 79-86
[Zhao00]
Q.A. Zhao and J. T. Stasko : “What's happening? : the community awareness
application”, CHI '00 extended abstracts on Human factors in computing systems.
The Hague, The Netherlands, ACM Press, (2000)
Cartes blanches au comité scientifique RIC’2006
43
ACTEURS SOCIAUX, PENSEE COMMUNE ET CROYANCES
COLLECTIVES SUR LES DOMAINES VIRTUELS
MICHEL MOATTI
MAITRE DE CONFERENCE EN SOCIOLOGIE
INSTITUT DE RECHERCHES SOCIOLOGIQUES ET ANTHROPOLOGIQUES
UNIVERSITE MONTPELLIER 3
L’expression intelligence collective veut-elle définitivement signaler que nous sommes
bien plus intelligents lorsque nous décidons de penser à plusieurs, de mettre en commun
notre machine à produire, à concevoir, à imaginer ? L’émergence des réseaux, de la vie
en réseau[x], au cours de ces dix dernières années signifie t-elle que nous avons fini de
vivre seuls, isolés, et que désormais toute conception – réelle, virtuelle, logique ou
onirique – ne se fera qu’ensemble, au sein de ces improbables parce que multiples – en
sens comme en géométries – communautés virtuelles ? Oui. Et non.
Oui, parce que désormais s’est ouverte – et ne se refermera sans doute pas de sitôt – la
porte de l’autre et que d’une société toute repliée sur l’ego et le cocooning, la suspicion
et l’indifférence, on est soudain passé (comme dans le Nosferatu de Murnau, il suffisait
de passer le pont pour que les fantômes viennent à notre rencontre) à une société ouverte,
curieuse, partageuse (du moins sur les domaines virtuels…) et multiple.
Oui, parce que ces qualités généreuses ne sont apparues qu’avec l’idée que c’était
justement l’échange – et je ne parle pas ici seulement de fichiers MP3 ! –, l’élan vers
l’autre, l’intuition collective, les commerces symboliques entre pairs, les affinités
partagées qui allaient faire mourir le vieux monde, les anciennes machines à diviser en
même temps qu’elles formataient apparences et pensées, qu’elles mercantilisaient les
rêves, les désirs et les phantasmes.
Et non, parce qu’en donnant des espaces neufs à ces créations intelligentes, en ouvrant
autant ou presque de domaines virtuels qu’il y a de désirs et d’échappées belles chez
chacun d’entre nous, les communautés flottantes, les socialités nouvelles des mondes
virtuels replacent l’individu, ses représentations – et son intelligence – au centre du jeu.
Ces châteaux d’air, pour reprendre à Freud une de ses plus belles métaphores, construits
au cœur des systèmes cybernétiques, proposent autant d’espaces vierges, secrets et
intimes, où se logent, se lovent, depuis plusieurs années, nos machines à rêver.
Que se passe t-il dans ces chambres obscures, ces chambres cachées du Net ? Ne
pourrait-on imaginer que naît, dans ces isoloirs de l'Internet, une sorte de société
retravaillée, refaçonnée à l'aune de désirs particuliers, des sortes de segments aux lisières
du social « ordinaire », des poches de social, mais en même temps, créant des zones
élargissant le social ordinaire, dilatant son périmètre originel, y greffant des annexes, des
sortes de mises à jour – pour reprendre un terme admis dans le vocabulaire des
cybernautes. On croirait voir là, dans cette escapade, cette fuite, la création d'un territoire
44
Intelligence collective : Rencontres 2006
ressemblant assez à la matérialisation de ce que Jean Baudrillard appelait « l'espacetemps de toute une simulation opérationnelle de la vie sociale »14.
Sans doute ne faut-il pas conclure hâtivement que ces socialités par défaut ne sont que
des pis-aller, des havres pour des naufragés du social, et leurs habitants des égarés, des
solitaires, des exclus. Cet exil, cet exil cybérien, renvoie d’abord à une sorte d’action
volontaire, de geste actif et non forcément subi. Volontaire, intelligent et collectif. C’est
dire si ces exodes ne constituent pas obligatoirement un rejet, une expulsion pratiqué par
un social agressif et bien décidé à se défaire de ses sujets peu consensuels, de ses scories,
de ses agents trop absents ou trop timorés dans l’affirmation et le partage d’un
pragmatisme, d’un utilitarisme et d’un rationalisme qui signe la modernité. Mais plutôt –
et obscur renvoie alors plutôt à nocturne qu’à néfaste – ces recompositions
communautaires dans les plis du secret de l’Internet et de son jumeau cryptique
l’UnderNet15 contribuent à réimplanter dans la vie des hommes d’aujourd’hui du rêve et
de la liberté que la pression du dehors et les obligations utilitaires avaient consumés.
Il apparaît que les socialités non-conformistes, les efforts communs, les constructions, les
relations affinitaires singulières, les sexualités rares ou insolites, les croyances étonnantes
mais fédératrices, les compagnonnages fantasques ou grotesques rencontrés sur les
newsgroups et les salons de conversation où les avatars brûlent de passions étranges
constituent bien, au fond, autant de créations collectives, de formidables et neufs espaces
de rencontres et de liberté.
Ici, souvent, dans ces salons et sur ces forums, agir collectivement, penser à plusieurs,
fusionner dans les exaltations d’un fétiche ou d’un topic, c’est renégocier les limites de
certains possibles ; en fait pour les habitants de ces châteaux d’air, être ensemble, c’est
être intelligent.
L’exploration plus profondes des croyances collectives émergentes sur le réseau mondial
– comme l’affirmation qu’Internet constitue si on sait le maîtriser, une fantastique
machine à résister et à ne plus subir tel ou tel joug économico-politique – des sensualités
inhabituelles ou remarquables, et qui trouvent sur l’UnderNet un espace sans équivalent
dans la “vraie vie”, mais qui peuvent par simple capillarité à terme influencer ses débats,
sont autant de projets communs, fédérateurs et consensuels qui restent, pour leurs
sectateurs, à affirmer. N’est-il pas envisageable de penser que bientôt, certains usages
nés du réseau glisseront dans les pratiques de la société « globale » ? Sans foncer tête
baissée dans un cyberenthousiasme qui serait aussi grotesque que la cyberméfiance qui
lui fait pendant, il s’agit simplement d’affirmer, avec Solveig Godeluck, que « la
clameur qui monte du cyberespace doit être entendue. Elle déferlera inévitablement
dans le monde réel. » 16.
14 Jean Baudrillard, Simulacres et simulation Paris, Galilée, 1981, p. 102.
15 Sur l’Undernet, voir Michel Moatti, “ Images de l’Undernet : secrets et partage sur le réseau
mondial ”, Questions de communication n° 6, Presses Universitaires de Nancy, 2004.
16 Solveig Godeluck, La géopolitique d’Internet, Paris, La Découverte, 2002, page 12.
Cartes blanches au comité scientifique RIC’2006
45
On a vu, lors du tout récent mouvement étudiant du printemps 2006 une ferveur
collective, une exaltation commune qui a emprunté aux usages et aux lieux en ligne à la
fois son élan et son modèle épidémiologique. Relayé par les supports et [certains] idéaux
cybertechnologiques du moment, le mouvement étudiant a largement surpris ceux qui
n’ont pas vu venir l’avènement conjoint de nouvelles espérances et de nouveaux médias
et techniques de communications capables de les porter. Blogs, téléphones cellulaires,
forums de discussions, email ont tous accompagné en temps réel les initiatives des
étudiants dans leur refus du CPE [Contrat première embauche], nourrissant leur
réflexion, facilitant la communication instantanée sur leurs projets d’action et
garantissant dans le même temps leur médiatisation auprès du public et de la presse.
Le pseudo – autre exemple – destiné lors des séjours en ligne à habiller les personnalités
zigzagantes d’implications multiples et parfois contradictoires ne sera t-il pas bientôt
d’usage courant dans la vraie vie, selon que l’on s’attelle à telle ou telle entreprise ?
N’avons-nous pas déjà, la plupart d’entre nous, plusieurs vies, concomitantes ou
successives, sociales, familiales puis intimes, et qui dessinent au fond cette silhouette
improbable en forme de portrait chinois et qu’on appelle sa vie ?
Ne sommes-nous pas, parfois, des avatars de nous-même, des réincarnations nées de
déceptions, d’échecs, de reconstructions, des hétéronymes qui dressent un état-civil
ambigu et multiple, kaléidoscopé sous la forme d’un parfait convoi dans lequel se sont
rangés les wagonnets successifs de nos petits secrets ?
C’est donc bien de recomposition dont on se rend témoin lorsqu’on observe ces
vagabondages et ces rendez-vous secrets ou simplement chafouins qui pétillent là-bas
dans les recoins de Cybérie, et non de reconquête. Car il s’agit bien d’un départ et non
pas d’un retour. L’internaute des replis cybernétiques ne recherche pas la case départ
des interactions anciennes, il réinvente, avec hésitation, maladresse, insolence et
suffisance, parfois, mais avec quel panache, un nouveau domaine de l’être-ensemble.
46
Intelligence collective : Rencontres 2006
Cartes blanches au comité scientifique RIC’2006
47
LES TECHNOLOGIES INTELLECTUELLES ENTRE THEORIE
ET POLITIQUE
(A PROPOS DES OUTILS DE L’INTELLIGENCE COLLECTIVE)
PASCAL ROBERT
MAITRE DE CONFERENCES HABILITE A DIRIGER DES RECHERCHES EN SIC
UNIVERSITES D’AIX-MARSEILLE 2 ET 3
Si l’intelligence est collective alors elle s’exprime forcément par le truchement d’outils,
de dispositifs techniques. Ces outils, à la suite des travaux pionniers de Bell, Goody et
Lévy, nous les appelons volontiers des « technologies intellectuelles ». Nous ne savons
pas a priori ce qu’est une technologie intellectuelle ni quelles sont les différentes
technologies intellectuelles. C’est pourquoi nous avons construit une « machine
conceptuelle » qui permet à la fois de la définir sur un mode générique et d’en dresser (et
discuter) la liste. A la différence du philosophe pour lequel la question est déjà réglée, ou
à la différence du sociologue qu’elle n’intéresse pas, puisqu’il se concentre sur le seul
usage d’une technique qu’il ne modélise pas, nous pensons que les sciences sociales
doivent modéliser pour savoir de quoi elles parlent. Cependant, puisque nous ne sommes
ni ingénieur ni systémicien, cette modélisation ne peut suffire, c’est pourquoi elle doit
toujours s’inscrire dans un espace dans lequel elle entre en tension avec une approche
critique qui ne néglige pas les enjeux politiques de la technique. C’est ainsi que j’ai
proposé une première esquisse d’une théorie générale des technologies intellectuelles17
dont je reprends ici succinctement les grandes lignes du processus de modélisation de
base (Cf. I) ainsi que la perspective de macro-sociologie politique (Cf. II).
17 Cf. Robert, pascal, « Qu’est-ce qu’une technologie intellectuelle ? », Communication et
langages, n°123, Armand Colin, Paris, 2000, pp. 97 à 114. « Vers une typologie des technologies
intellectuelles », Communication et langages, n°125, Armand Colin, Paris, 2000, pp. 98 à 115.
« Pour une « histoire » et une « causalité » non linéaires des technologies intellectuelles », Journée
d’étude du groupe Réseaux de la SFSIC « Réseaux d’information et non linéarité », CEMGRESIC, Bordeaux, 2001. « Des machines à remonter le temps ? La photographie, l’informatique
et le paradoxe de la simultanéité », Communication et langages n°134, Décembre 2002, Paris, pp.
111 à 123. Cf. également Robert, Pascal, Le modèle CRITIC, contribution à l’élaboration d’une
théorie macro-sociétale critique de l’informatique en sciences de l’information et de la
communication, HdR en SIC, sous la direction d’Y. Jeanneret, Université Paris-IV-Sorbonne,
Paris, 2004, 2 volumes de 152 et 215 pages accompagnés d’un recueil d’articles et de
communications.
48
Intelligence collective : Rencontres 2006
APPROCHE THEORIQUE : LE PROCESSUS ET L'OPERATION DE
CONVERSION
J. Goody a montré que la liste est un outil qui produit de nouvelles aptitudes
intellectuelles parce qu'elle permet de travailler dans un espace à deux dimensions18. En
effet, alors que la parole est prise dans la linéarité -ce que nous compensons en partie par
le réseau dialogique de la conversation-, la liste offre d'emblée un jeu de traitement de
l'information qui repose justement sur la possibilité d'utiliser un espace de deux
dimensions. Notre proposition théorique se veut en quelque sorte une systématisation et
une extension de cette remarque de Goody. Les technologies intellectuelles sont ainsi
définies, à ce niveau interne, comme des techniques de traitement de l'information dont la
possibilité même du processus dépend d'un travail sur le jeu des différentes dimensions
qu'elles rendent accessibles : la « feuille », comme surface quelconque d'inscription offre
donc ses deux dimensions comme condition de possibilité d'un traitement graphique de
l'information. Si le passage d'une à deux dimensions est possible il n'est pas
théoriquement aberrant de supposer que d'autres passages, que nous appelons
« conversion de dimensions » soient également possibles entre dimensions supérieures :
de 2 à 3, de 3 à 4 etc. Nous avons donc exploré la logique de cette hypothèse, afin de
savoir :
jusqu'où pousser le principe,
si l'opération de conversion peut a soi seule circonscrire une technologie
intellectuelle,
et quelles technologies existantes peuvent correspondre à ces différents espaces.
Nous allons maintenant brièvement présenter les résultats de ce travail.
Par processus de conversion j'entends un processus qui dépasse la seule opération de
conversion des dimensions, qui ne suffit pas à elle seule pour véritablement circonscrire
une technologie intellectuelle. Elle s'articule en fait à un jeu de quatre opérations. Car
l'outil -qui n'existe pas en dehors d'une concrétisation matérielle socialement construite- :
est un outil régulé (c'est dire qu'il possède, et a donc acquis, un ensemble de
dispositifs qui le mettent en forme, qui le formatent en quelque sorte),
de gestion du nombre (de la complexité, d'un grand nombre d'hommes, de signes ou
de choses simultanément, ce qui exige de s'extraire de la linéarité),
qui opère une traduction de l'événement en document (fixation et enregistrement),
par la conversion des dimensions.
Autrement dit, l'opération de conversion des dimensions s'exerce sur une matière, qui
sert de support à un document à formater qui peut être utilisé comme instrument de
gestion du nombre au sein d'une société.
18 Cf. Goody, Jack, 1979, La raison graphique, Minuit.
Cartes blanches au comité scientifique RIC’2006
49
Les différents types de conversion se déclinent de une dimension (1D) sur deux
dimensions 2D (passage des mots pris dans la linéarité d'une parole à leur inscription
dans une liste) à ND sur 4D, soit au total 9 positions (Cf. le tableau ci-joint) ;
Ces 9 positions s'articulent à un travail sur 2D, 3D et 4D, qui, à plus ou moins une
position près, définit trois « raisons » -la raison graphique, la raison classificatrice et la
raison simulatrice.
Trois raisons ordonnées à trois modalités de la conversion des dimensions : la conversion
d'un format inférieur à un format supérieur correspond au traitement (T) de l'information
(1D sur 2D ou 2D sur 3D ou 3D sur 4D), la variation d'échelle au sein d'un même format
équivaut à une navigation (N), alors que la conversion d'un format supérieur à un format
inférieur renvoie à une modélisation (M) (3D sur 2D, 4D sur 3D, ND sur 4D).
TABLEAU 1 : CONVERSION DES DIMENSIONS ET TECHNOLOGIE INTELLECTUELLLES
Raisons
Raison graphique
Raison
Classificatrice
Raison simulatrice
Conversion
des dimensions
Technologies
Intellectuelles
Ecritures
Technologies
Intellectuelles
Images
T = 1D sur 2D
N = 2D sur 2D
M = 3D sur 2D
Liste & graphiques Graphiques
Plan & Carte
Dessin Technique
T = 2D sur 3D
N = 3D sur 3D
M = 4D sur 3D
Livre
Classeurs
Encyclopédie
Livre
T = 3D sur 4D
N = 4D sur 4D
M = ND sur 4D
Mécanographie
Mécanographie
Informatique
Photo
Cinéma
Informatique
Encyclopédie
Avec :
• graphiques = courbes, diagrammes, arborescences etc.
•
classeurs = bibliothèques et armoires.
Les différentes déclinaisons de l'opération de conversion traduisent de fait une gradation
de niveaux de complexité ; ce qui ne signifie cependant pas que les technologies
intellectuelles retenues sont susceptibles de se substituer les unes aux autres, parce que
les niveaux de complexité n'éliminent pas les différences de support, de matière. On peut
ainsi « simuler » n'importe quelle autre technologie intellectuelle sur informatique, sans
pour autant que celle-ci puisse totalement s'y substituer, car les propriétés des deux
« matières » restent quant à elles singulièrement distinctes. Autrement dit, un texte sur
50
Intelligence collective : Rencontres 2006
papier, par exemple, possède encore quelque chose, qu'il doit au papier et une longue
tradition d'impression, d'irréductible au support informatique -et réciproquement.
Soulignons enfin qu'écriture et images ne constituent pas à nos yeux des technologies
intellectuelles en tant que telles. Elle occupent une place beaucoup plus fondatrices. Elles
sont aux conditions de possibilité de toute technologie intellectuelle, en position de métatechnologies intellectuelles.
MACRO-SOCIOLOGIE POLITIQUE
Une technologie intellectuelle -comme toute technique- ne se développe dans une société
que si elle peut être enrôlée dans des jeux qui travaillent essentiellement sur et avec le
couple réversibilité/irréversibilité. Il s'agit, pour s'inspirer de Latour19 de savoir comment
quelque chose parvient à s'assurer ou à être assuré d'une certaine réversibilité -toujours
locale- ou d'une certaine irréversibilité -toujours locale également.
Dire qu'une technique participe à renforcer l'irréversibilité -qui encore une fois est
toujours relative et locale dans l'espace et le temps- d'un processus, d'un projet, d'une
autre technique ou d'une institution, c'est dire qu'elle lui apporte des ressources
susceptibles de rendre beaucoup plus difficile et coûteuse sa déstabilisation et tout
retour en arrière.
Dire d'une technique qu'elle favorise la réversibilité, c'est dire que l'on mobilise dans
un processus, un projet, une autre technique ou une institution, des ressources
susceptibles de les déstabiliser, de les faire changer d'état donc, et de passer d'un état
relativement cadré, calé, posé, à un état d'incertitude et/ou de dégradation, et ce, si
possible à un moindre coût (financier, humain, organisationnel etc.).
Où donc il est question du pouvoir, et deux fois plutôt qu'une : en effet, il s'agit de
comprendre comment un pouvoir est déstabilisé ou renforcé dans sa stabilité ; ce qui
signifie que celui qui maîtrise ces ressources possède lui-même un indéniable
pouvoir. Toute macro-sociologie des technologies intellectuelles comme formes
concrètes de ces ressources est inévitablement une sociologie politique.
Prenons l'exemple des imprimés, notamment du livre imprimé, et singulièrement de son
émergence lors de la Réforme de Luther. Sans tomber dans une lecture par trop
mécaniste des travaux désormais classiques d'Eisenstein20 notamment, il n'est pas
aberrant de considérer que l'imprimerie a joué à court terme un rôle en faveur de la
réversibilité du pouvoir global de l'Eglise romaine, au profit de l'irréversibilité bien
fragile -et qui a d'autant plus besoin de ressources- de la Réforme ; puis, à moyen terme
elle joue en faveur de l'irréversibilité du pouvoir de l'Eglise catholique sur ses terres
grâce au travail d'éducation des jésuites ; enfin, on peut estimer qu'elle joue à plus long
terme à nouveau une réversibilité du pouvoir de l'Eglise au profit d'une culture laïque et
« scientifique », dont elle assure la relative irréversibilité. Où l'on voit donc que la
réversibilité des uns n'est autre que l'irréversibilité des autres. Où l'on voit également
19 Cf. Latour, Bruno, 1992, Aramis, ou l’amour des techniques, La découverte.
20 Cf. Eisenstein, Elisabeth, 1991, La révolution de l’imprimé, La découverte.
Cartes blanches au comité scientifique RIC’2006
51
qu'une technologie intellectuelle ne joue pas à long terme seulement en faveur ou contre
une institution. Où l'on voit enfin qu'une technologie intellectuelle n'est jamais neutre
socialement.
Si des acteurs mobilisent -entre autres- des technologies intellectuelles c'est bien parce
que celles-ci sont dotées de propriétés singulières qu'ils peuvent faire jouer, croient-ils, à
leur bénéfice et donc accroître leur propre irréversibilité relative ou accroître le coût de
sa réversibilité, autant qu'ils affaibliront l'irréversibilité relative de leurs concurrents, ou
rendront le coût de leur réversibilité plus faible. A la suite de Latour21, on peut avancer
que les technologies intellectuelles possèdent essentiellement trois propriétés : la
stabilité, la mobilité (circulation dans l'espace ou transmission dans le temps) et
l’accumulation.
Stabilité car le document n'est tel qu'à condition d'être muni d'une relative stabilité dans
l'espace et le temps ; et c'est bien parce qu'il est lui-même stable que le document peut
participer à des processus de dé-stabilisation ou de stabilisation : dans un cas il offre une
certaine crédibilité à celui qui veut se poser comme une alternative pertinente (ex : la
Réforme face à l'Eglise catholique), dans le deuxième il renforce par sa propre stabilité
une stabilité déjà acquise (l'institution et son livre ou le livre et son institution).
Mobilité, car le document, stable mais léger peut voyager dans l'espace et le temps ; ce
qui participe là encore à des mouvements de dé-stabilisation ou stabilisation : soit que la
dissémination du document dans l'espace atteste de la prégnance d'une idée nouvelle
(Luther diffuse ainsi mieux les siennes et plus vite qu'un Zwingli), lui permet d'occuper le
terrain -donc de se stabiliser- et dans le même pas de faire pièce au pouvoir institué.
Accumulation, car le document gagne à une accumulation intelligente, c'est-à-dire
structurée et gérée, donc efficace intellectuellement. Une accumulation qui joue sur sa
propre irréversibilité -c'est-à-dire le coût de création d'une concurrence crédible-, là
encore soit pour renforcer l'irréversibilité du pouvoir qu'elle sert, soit pour s'opposer,
rendre un tant soit peu réversible, le pouvoir en place : l'Encyclopédie, dès lors qu'elle
existe offre une masse de connaissances autrement inaccessible à un grand nombre de
lecteurs potentiels, auquel le pouvoir ne peut s'opposer que par une bien inefficace
interdiction ou par un investissement équivalent -en l'occurrence très coûteux puisqu'il
exige une véritable volonté politique et la mobilisation de ressources financières et
humaines considérables.
Cette démarche ouvre l'espoir de l'élaboration d'une véritable théorie générale des
technologies intellectuelles qui sache réarticuler les frères si souvent ennemis de
l'histoire politique et de la théorie. Car nous avons besoin des deux ; nous ne pouvons
pas faire l'économie de l'un ou de l’autre. Le structuralisme nous a justement montré ses
limites en écrasant en quelque sorte toute perspective historique sur une variation de
versions au sein d'un même type -pensons à son approche du mythe ; l'histoire, la
nouvelle histoire, avec un F. Braudel notamment, nous a montré que l'on ne pouvait se
satisfaire du suivi de la seule variation, que nous avons également besoin de cadrer, à
différentes échelles, du plus stable au moins stable, du géologique au politique, en
21 Cf. Bruno Latour : « La science en action », La découverte, 1989.
52
Intelligence collective : Rencontres 2006
passant par le géographique et l'économique. Une réflexion sur les technologies
intellectuelles moins que tout autre ne peut se permettre d'en rester aux tiraillements où
les disciplines la plongent : soit l'histoire, qui vous somme de choisir votre objet -celle du
livre, un tant soit peu balisée, ou celle de l'informatique, encore à construire, sûrement
pas les deux ; soit la théorie, ou plutôt bien souvent l'essai à vocation sociologique ou
philosophique, construit sur l'intuition plutôt que sur des principes théoriques solides et
objectivés -donc discutables. La notion de technologie intellectuelle est, croyons-nous
(car il faut bien quelquefois fonder la raison sur quelque acte de foi moteur),
singulièrement riche et pertinente. Notion heuristique à condition toutefois de la
construire en respectant toute sa complexité, laborieusement peut-être, à travers un
modèle difficile même, parce qu'il ne veut justement pas sacrifier l'une à l'autre l'histoire
politique et la théorie.
II - CONFERENCES RIC’2006
BRUNO BACHIMONT
JEAN-FRANÇOIS DORTIER
PIERRE-LEONARD HARVEY
DOMINIQUE LESTEL
PIERRE LEVY
SERGE PROULX
LOUIS QUERE
54
Intelligence collective : Rencontres 2006
Conférences RIC’2006
55
SUPPORT DE CONNAISSANCE ET INTELLIGENCE
COLLECTIVE : HERITAGE ET INDIVIDUATION TECHNIQUE
BRUNO BACHIMONT
Bruno Bachimont est directeur scientifique du département de Recherche de l'Institut
National de l'Audiovisuel. Ingénieur civil des Mines, docteur en informatique et en
épistémologie, habilité à diriger des recherches, il est co-responsable de l'équipe
CNRS/UTC Heudiasyc à l'Université de Technologie de Compiègne.
L’intelligence est une faculté dont les caractéristiques semblent difficiles à rattacher à un
substrat matériel, fût-il cérébral. Aussi, malgré les injonctions positivistes et
épistémologiques de ne recourir qu’à des explications fondées sur la matière pour rendre
compte de l’intelligence, il semble nécessaire d’envisager une base plus large que le
simple substrat cérébral pour rendre compte du fonctionnement de la cognition et des
fondements de la connaissance.
Le parti pris de cet article est d’argumenter en faveur d’une fondation technologique de
la connaissance, qu’elle soit individuelle ou collective. En nous appuyant sur une
perspective ouverte par les thèses naguère soutenues par Leroi-Gourhan22 selon
lesquelles l’anthropogenèse est une technogenèse, nous adoptons l’hypothèse que la
connaissance dont nous disposons se constitue en fonction des propriétés et
configurations des inscriptions matérielles censées les représenter.
La connaissance résulte d’un jeu permanent d’internalisation et d’externalisation de
manipulation matérielle d’objets : de la manipulation des cailloux qui ont donné
naissance au calcul23 à la matérialisation sur le manuscrit des mnémotechniques
monastiques24 (index, tables de matières, etc.), on constate que nos structures et
performances cognitives constituent nos technologies intellectuelles autant qu’elles en
sont la conséquence. Autrement dit, ce que nous pensons détermine les outils que nous
façonnons, et ces derniers configurent notre manière de penser. L’outil, constituant et
constitué, est à la fois la condition et le résultat de la connaissance.
Les inscriptions matérielles, en particulier les différentes formes d’écritures mobilisées
pour matérialiser les discours et les contenus de connaissances, peuvent s’associer à
différents niveaux de constitution de connaissance. Nous voudrions en distinguer
essentiellement deux dans cet article : le premier correspond à un niveau cognitif, centré
22 Le geste et la parole, André Leroi-Gourhan, Albin Michel, 1967.
23 L’aventure des nombres, Yves Godefroy, Odile Jacob, 1997.
24 Le livre de la mémoire, Mary Carruthers, Macula, 2000.
56
Intelligence collective : Rencontres 2006
sur les structures conceptuelles de l’esprit ; le second correspond à un niveau plus
collectif, centré sur les structures d’héritage et de transmission de la culture. Autrement
dit, nous aimerions poser un parallèle entre la lecture d’une inscription et l’héritage d’un
patrimoine culturel, l’héritage étant au niveau collectif ce que la lecture serait au niveau
individuel. Comme l’individu hérite du sens véhiculé et transmis par une inscription,
recevant comme étant déjà-là et le précédant toujours le sens de l’inscription (même si en
fait il le construit pour une large part), un collectif lit son passé comme un texte orientant
le cours de son avenir et de ses actions.
Certes, il ne faut pas ignorer les limites de ce parallèle ni exagérer la portée de cette
comparaison qui sans doute n’excède pas la métaphore. Cependant, il nous semble que
ce parallèle permet de mettre en valeur un facteur déterminant dans les deux cas, la
temporalité.
Le plan de cette contribution est le suivant. Après avoir argumenté en faveur d’une
constitutivité des inscriptions matérielles, en introduisant les notions de raison graphique
et de raison computationnelle comme structures conceptuelles découlant des techniques
graphiques et numériques respectivement, nous abordons la problématique patrimoniale
comme héritage dans la longue durée des inscriptions matérielles vues comme
patrimoine.
TECHNOLOGIES NUMERIQUES ET ECRITURE
Dans la longue histoire des outils intellectuels qui nous aident à penser, l’informatique et
le numérique occupent une place importante, dont la portée reste encore à établir et à
étudier25. En effet, si la nature scientifique et technique du numérique et du calcul
reposent sur des bases solides, les conséquences entraînées par leur utilisation massive
dans les secteurs les plus divers de l’activité humaine sont encore difficiles à mesurer.
Les technologies numériques s’inscrivent en effet dans le mouvement d’extériorisation et
de prothétisation de la pensée26, suivant lequel des opérations intellectuelles sont
consignées et confiées à des outils et instruments matériels, déchargeant ainsi la pensée
et lui permettant de s’intéresser à d’autres choses. Cependant, en étant confiées à des
instruments et supports matériels, les tâches intellectuelles changent de nature et, quand
l’esprit se réapproprie leur résultat, il y trouve autre chose que ce qu’il aurait trouvé s’il
s’était chargé lui-même de ces tâches.
Par exemple, si au lieu de mémoriser un discours, on le consigne par écrit, le confiant
ainsi au support matériel du papier, la lecture du texte résultant permet de dégager
d’autres propriétés que la remémoration. A travers les techniques de l’écriture et le
travail de l’édition, la lecture donnera accès au contenu exact, alors que la mémoire peut
être fautive. Le texte écrit permet en outre de voir ensemble, disposés dans un même
espace, des séquences de mots qui étaient séparées par la succession de la parole. Le
25 Même si des ouvrages importants présentent des jalons importants de cette investigation,
notamment Les technologies de l’intelligence, de Pierre Lévy, Seuil, 1990.
26 La technique et le temps, Bernard Stiegler, Galilée, 1999. Le geste et la parole, Tome II : La
mémoire et les rythmes, André Leroi-Gourhan, Albin Michel, 1967.
Conférences RIC’2006
57
texte offre un accès simultané à un contenu rassemblé dans l’espace synoptique de
l’écriture, contenu qui demeurait jusque là dispersé dans la linéarité temporelle de la
parole. Spatialisant la parole, l’écrit la délinéarise, et permet de considérer le contenu
dans la spatialité bi-dimensionnelle des pages. Mais l’écrit perd les intonations, la
prosodie, les marqueurs émotionnels dont la mémoire peut garder un souvenir plus ou
moins fidèle. Si l’écrit apporte un supplément de d’intelligibilité à la parole, en la
rendant visible, il lui enlève également des niveaux de compréhension. C’est pourquoi, si
l’écrit permet d’effectuer des tâches que l’on pourrait confier à la mémoire orale, il le fait
autrement, si bien qu’il fait autre chose, et nous fait faire autre chose. L’écrit nous offre
la matière à penser différemment, à penser autre chose, à dégager de nouvelles tâches
intellectuelles et de nouveaux objets intellectuels.
Par conséquent, se dégage l’idée que nos outils intellectuels, selon leur nature et leurs
propriétés, nous aident à penser différemment, comme les outils mécaniques permettent
de réaliser des objets matériels différents. Et, de la même manière qu’il existe une
histoire des techniques et des objets qu’elles permettent de réaliser, il existe une histoire
de nos outils intellectuels et des modes de pensée qui y sont attachés.
Si, comme l’écriture, le numérique marque une rupture dans l’histoire des outils de la
pensée, la question se pose de distinguer en quoi nous pensons différemment quand nous
disposons d’outils numériques, en quoi nous constituons des objets intellectuels
nouveaux, en quoi nous élaborons des concepts qui resteraient inconcevables sans une
telle médiation numérique.
Mais il ne faut pas considérer que la mutation technologique des outils intellectuels
conduit nécessairement à un supplément, à une extension de notre champ cognitif. Il peut
se traduire par un déficit d’intelligibilité, par une perte de sens, par une désorientation.
Les possibilités ouvertes par une mutation technologique, avant d’être actualisées,
peuvent se traduire par un manque. Quel est le manque introduit par le numérique ?
Il nous semble que le supplément apporté par le numérique se laisse sans doute mieux
comprendre par le manque auquel nous devons faire face quand nous abordons
l’instrumentation numérique de nos modes de pensée. Ce manque est la marque de la
rupture vis-à-vis des habitudes antérieures, et décrit en creux les nouveaux horizons que
nous pouvons tenter d’explorer.
Enfin, en dernier préalable, la mutation numérique n’est pas un progrès, ou une
régression, mais une mutation qui s’impose à nous-même si nous en sommes les auteurs.
Le numérique n’est sans doute pas mieux, ni moins bien que l’écriture par exemple, mais
sûrement aussi important. Il ne convient donc pas de se lamenter d’une éventuelle
régression ou de se féliciter d’un hypothétique progrès, mais plutôt de se doter des
concepts permettant de penser le numérique.
DE LA RAISON GRAPHIQUE A LA RAISON COMPUTATIONNELLE
Il peut paraître surprenant d’adosser le terme de « raison » à un principe technique :
l’écriture dans un cas, le calcul dans l’autre. En effet, il est habituel de considérer que la
pensée, et la rationalité en particulier, est une activité propre de l’esprit, indépendante en
droit sinon en fait de son environnement culturel ou historique. Autrement dit, le
58
Intelligence collective : Rencontres 2006
pensable ne dépend pas de l’environnement technique de l’esprit, même si, de manière
contingente, ce qui est effectivement pensé peut être affecté par les conditions
matérielles de la raison. Par conséquent, évoquer comme le propose Goody27 une raison
graphique et, comme nous le suggérons, une raison computationnelle28, est paradoxal
puisqu’on ferait dépendre d’un principe technique une activité qui, en droit ne dépend
que d’elle-même.
Pourtant, les travaux sur l’écriture ont permis de montrer que les innovations techniques
qui ont marqué son histoire ont eu des conséquences directes sur le pensable (et pas
seulement le pensé). Les conséquences liées à la maîtrise de la technique de l’écriture
peuvent se considérer selon deux aspects, un aspect anthropologique, ou un aspect
historique.
Jack Goody est sans nul doute l’anthropologue qui a le plus contribué à comprendre le
rôle de l’écriture dans l’émergence de certaines opérations cognitives ou manières de
penser qui seraient spécifiques à l’écriture. Dans son célèbre ouvrage pour lequel les
traducteurs français ont proposé le titre de « Raison graphique » (le titre original étant
the domestication of the savage mind), Goody montre en quoi les cultures dotées de
l’écriture raisonnent différemment des cultures dites orales. En effet, plutôt que
d’attribuer ces différences à un axe de développement et de progrès continu sur lequel les
cultures orales occuperaient une position inférieure aux cultures écrites, les premières
montrant un état antérieur des secondes, Goody montre qu’il s’agit plutôt de différences
procédant d’instrumentations techniques distinctes.
En quoi l’écriture est–elle si importante et induit-elle des opérations cognitives
particulières, une manière de penser spécifique, bref une rationalité qu’il faudrait
qualifier de graphique ? En allant à l’essentiel, l’écriture apporte au contenu une synopsis
spatiale, permettant de repérer des rapports et des propriétés qui demeurent indécelables
dans la succession linéaire de la temporalité de la parole : l’écriture donne à voir des
rapports qui ne sont pas perceptibles à l’écoute de la parole. En effet, en apportant une
bidimensionnalité spatiale à la représentation du contenu, l’esprit peut accéder
simultanément à différentes parties du contenu indépendamment de l’ordre reliant ces
parties dans le flux oral. Par conséquent, ce qui est dispersé dans le temps devient
contigu dans l’espace, l’œil pouvant librement naviguer et repérer des identités entre
éléments du contenu (par exemple, des mots possédant un même radical mais des
flexions différentes). Alors qu’une phrase contenant dans une succession linéaire les
mots « rosa, rosae, rosam, rosas, etc. » est très improbable, si bien qu’à l’oral il demeure
très difficile de repérer que ces différents mots renvoient à une même déclinaison dont on
peut d’ailleurs dégager la structure (les différentes flexions), la représentation écrite
permet de délinéariser le discours et d’en prélever des unités que l’on peut confronter et
juxtaposer au regard de l’esprit.
27 La raison graphique, Jack Goody, Editions de Minuit, 1979. Voir aussi du même auteur La
logique de l’écriture, Armand Colin 1985.
28 L’intelligence artificielle comme écriture dynamique : de la raison graphique à la raison
computationnelle, In Au nom du sens, Paolo Fabbri et Jean Petitot Editeurs, Grasset, 2000.
Conférences RIC’2006
59
LES STRUCTURES DE LA RAISON GRAPHIQUE
C’est ainsi que Jack Goody insiste sur le fait que l’écriture induit un mode de pensée
particulier et un rapport au monde spécifique. Selon lui, l’écriture permet de constituer
trois types principaux de structures conceptuelles, conditionnant notre mode de penser.
Ce sont la liste, le tableau et la formule.
La liste permet de délinéariser le discours pour en prélever des unités que l’on ordonne
ensuite dans une énumération. La liste permet de rassembler dans une même unité ce qui
est dispersé dans le discours : elle induit par conséquent un classement et une
catégorisation. Faire des listes, c’est choisir de consigner un item parmi d’autres en
considérant qu’ils ont quelque chose à faire ensemble : ils appartiennent une même
classe, une même catégorie. En favorisant la structure de liste, l’écriture induit un rapport
au monde qui procède de la raison classificatoire : penser le monde, c’est l’organiser en
classes et hiérarchies, c’est l’ordonner et le ranger. Le monde de l’écriture, c’est le
cosmos des antiques, comme univers (au sens de totalité, universum renvoyant à
l’ensemble des choses considérées globalement) organisé, cohérent et harmonieux. On
sait29 en effet que kosmos signifie originellement « ornement » et a donné le « cosmos »
de « cosmologie » comme celui de « cosmétique ». Cet univers harmonieux serait-il un
artefact de l’écriture alphabétique ? C’est une hypothèse suscitée par les possibilités
classificatoires induites par les listes que l’écriture permet de constituer.
Le tableau est le fait de représenter un ensemble de rapports entre des unités à travers
leur position respective selon les deux dimensions de l’espace de l’écriture : être à
gauche ou à droite, être au dessus ou au dessous, sont les deux types de relations
spatiales qui permettent de mettre en relation sémantique les unités ainsi disposées. Dans
un tableau, l’unité occupant une case prend une signification déterminée, à tout le moins
conditionnée, par la position de la case dans le tableau. Le mode de penser induit par le
tableau est alors le système : un tableau spécifie des relations entre les cases, et permet
par exemple de prévoir a priori, de manière systématique, la valeur devant occuper une
case, du fait de la position de cette dernière. L’exemple le plus fameux est sans doute le
tableau de Mendeleïev des éléments, dont la systématicité a permis de prédire, lors de sa
formulation, que de futurs éléments (comme l’uranium) devaient être trouvés.
Enfin, la formule. La formule est un procédé permettant de mener des raisonnements en
fonction seulement de la forme, sans avoir à prêter attention à la signification. La forme
prenant en charge dans sa structure ce qu’il faut retenir des significations considérées, il
suffit alors de manipuler la forme pour mener à bien les raisonnements sur le contenu ou
la signification. C’est ce qui est à la base de la logique formelle et plus généralement des
mathématiques. Le problème n’est pas tant le fait de savoir si le formalisme permet de
mener le raisonnement indépendamment du contenu, ce dernier pouvant même être remis
en question (existe-t-il vraiment ?), mais le fait de pouvoir se fier à la forme.
29 La sagesse du monde, Histoire de l’expérience humaine de l’univers, Rémi Brague, Fayard,
1999.
60
Intelligence collective : Rencontres 2006
DU GRAPHIQUE AU CALCUL
Se fier à la forme est l’attitude à la base de tous les formalismes, notamment ceux qui
seront à l’origine de l’informatique et du numérique. Quand, à la fin du XIXe siècle,
apparut la crise des fondements des mathématiques, suscitée notamment par les
paradoxes issus de la théorie des ensembles, de nombreux mathématiciens cherchèrent
des moyens de surmonter cette crise. David Hilbert proposa de considérer les
mathématiques à travers leur écriture, et de rechercher les procédés permettant de
contrôler cette écriture. L’objectif est de s’assurer que, un énoncé mathématique étant
produit, il n’est pas possible d’en dériver l’énoncé d’une contradiction. Pour y parvenir,
Hilbert considère l’écriture mathématique de manière purement formelle30, c’est-à-dire
en ne considérant que les signes utilisés indépendamment de leur signification. Or, le
nombre de signes est fini, les énoncés et les textes mathématiques sont finis, le temps
mobilisé par les mathématiciens est fini : on se retrouve donc dans la situation où l’on
manipule un nombre fini de signes en un temps fini ; bref on fait de la combinatoire de
signes. Il suffit alors de trouver des règles purement formelles, qui ne demandent aucune
inventivité mathématique ou compréhension particulière pour les appliquer, qui
permettent de vérifier que les signes d’un énoncé ou texte mathématique ne permettent
pas de déduire des énoncés contradictoires. En termes contemporains, on dirait qu’il faut
trouver un programme qui permette de prouver qu’un énoncé mathématique n’entraîne
pas de contradiction. Cet objectif fixé par Hilbert ne put être atteint : il n’existe pas de
programme vérifiant la cohérence des énoncés. Ce « programme » de Hilbert
(programme au sens d’objectif ou de « programme » de travail) a cependant permis
d’élaborer l’idée de systèmes de signes (les énoncés) se manipulant de manière purement
formelle via des règles formelles.
Turing, le père de l’informatique, continua sur la même lancée en proposant une machine
abstraite conçue de la manière suivante31 : on dispose d’une bande mémoire infinie
composée de cases ne pouvant contenir qu’un et un seul symbole (c’est en fait la feuille
de papier sur laquelle travaille le mathématicien), une tête de lecture et d’écriture, se
déplaçant sur la bande mémoire de case en case (une à la fois), pouvant lire et écrire un
symbole (c’est le stylo du mathématicien), et enfin un état interne de la tête de lecture
(c’est l’état mental du mathématicien). Un programme, purement formel permet de
déterminer ce que doit écrire la tête de lecture et comment elle doit se déplacer en
fonction de qu’elle lit et de son état interne. Autrement dit, en fonction de ce qu’il pense
et de qu’il voit, le mathématicien écrit un symbole sur sa feuille de papier. La métaphore
ne doit pas nous égarer : les manipulations de symboles sur la bande mémoire sont
purement formelles, et le fonctionnement de la machine de Turing ne repose sur aucune
interprétation ni signification associées aux symboles, mais uniquement sur leur forme.
Autrement dit, le formalisme, issu de la structure de formule rendue possible selon
Goody par l’écriture, a permis d’engendrer l’idée de systèmes automatiques manipulant
30 Ibid.
31 On Computable Numbers, with an Application to the Entscheidungsproblem, Proceedings of
the Mathematical Society, 2(42), p. 230-265, corrections apportées dans 2(43), p. 544-546.
Conférences RIC’2006
61
des signes formels : une écriture formelle automatique, qui s’écrit en quelque sorte toute
seule.
UN RAISON COMPUTATIONNELLE ?
Cette idée a engendré l’informatique, technique permettant de manipuler
automatiquement les inscriptions symboliques, qu’elles représentent des nombres, des
lettres, ou n’importe quoi d’autre. De la même manière que l’écriture a permis
d’engendrer un mode particulier de penser, la question peut être posée de savoir si on
peut constater un phénomène semblable avec l’informatique et le numérique : en quoi le
recours à des représentations calculées induit-il une rationalité particulière ?
Nous aborderons cette question sous deux angles : d’une part, quel serait l’apport
cognitif ou phénoménologique du calcul formel et de l’informatique à la connaissance, à
l’instar de l’écriture qui propose une synthèse synoptique spatiale de ce qui est dispersé
dans le temps ; d’autre part quelles seraient les structures de pensée fondamentales
suscitées par l’informatique, à l’instar de ce que sont la liste, le tableau et la formule pour
l’écriture ?
Si l’écriture permet la synthèse du temps dans l’espace, en permettant que ce qui est
dispersé dans le temps (flux de la parole) soit rassemblé dans l’unité d’une
représentation spatiale synoptique, offrant au regard de l’esprit la possibilité de repérer
des configurations synthétiques constituant de nouveaux concepts, l’informatique permet
le déploiement de l’espace en temps32. En effet un programme n’est pas autre chose
qu’un dispositif réglant un déroulement dans le temps, le calcul ou l’exécution du
programme, à partir d’une structure spécifiée dans l’espace, l’algorithme ou programme.
L’algorithme spécifie que, les conditions initiales étant réunies, le résultat ne peut
manquer d’être obtenu, selon une complexité donnée. Le programme est donc un moyen
de certifier l’avenir, d’en éliminer l’incertitude et l’improbable pour le rapporter à la
maîtrise. Le temps de l’informatique n’est donc pas une disponibilité à ce qui va venir,
aussi improbable que cela puisse être, mais la négation du futur dans son ouverture pour
le réduire à ce qui peut s’obtenir à partir du présent. Le calcul, c’est le devenir - dans
l’ouverture, la disponibilité à l’Être - réduit à ce qui est à-venir, dans la certitude de la
prévision formalisée.
Le calcul instaure une espèce d’équivalence ou correspondance entre temps et espace : le
temps devient celui qui est nécessaire à l’exploration systématique d’un espace de calcul,
comme parcours de tous les cas possibles d’une combinatoire ; l’espace devient l’espace
qu’il faut parcourir en un certain nombre d’étapes, spécifiées par le calcul. Mais l’espace
et le temps sont duaux : l’espace est celui que l’on peut parcourir à travers les étapes du
calcul ; le temps, ce sont les étapes nécessaires au parcours de l’espace.
Dans ces conditions, quelle est la fonction cognitive du calcul correspondant la
spatialisation synoptique de l’écriture ? Nous proposons la notion d’exploration
systématique. Le calcul, c’est ce qui permet de parcourir systématique un espace de
32 Herméneutique matérielle et artéfacture : des machines qui pensent aux machines qui donnent à
penser. Bruno Bachimont, Thèse de doctorat en épistémologie, Ecole Polytechnique, 1996.
62
Intelligence collective : Rencontres 2006
possibles. Ces possibles sont possibles en tant qu’ils sont calculables, et le calcul les
parcourt pour les examiner et leur appliquer un critère donné.
C’est cette notion d’exploration systématique qui permet de dériver les structures
conceptuelles caractéristiques d’une raison computationnelle. Nous proposons de
considérer la notion de programme, de réseau et de couche.
LES STRUCTURES DE LA RAISON COMPUTATIONNELLE
Le programme est à la raison computationnelle ce que la liste est à la raison graphique.
Autant la liste permet de catégoriser et de classifier, d’offrir une synopsis spatiale, le
programme permet de spécifier un parcours systématique : l’exécution du progamme
n’est alors que le déploiement temporel de la structure spatiale symbolique qu’est le
programme.
Le réseau est à la raison computationnelle ce que le tableau est à la raison graphique.
Alors que le tableau propose une structuration et une systématicité entre les contenus
répartis dans les cases du tableau, le réseau propose un mode de communication et
répartition entre les cases du tableau. C’est un tableau dynamique.
Enfin, la couche est à la raison computationnelle ce que la formule est à la raison
graphique. La formule permet en effet de considérer la forme abstraction faite du
contenu : la couche permet de considérer des relations calculatoires entre des unités
abstraction faite des calculs sous-jacents impliqués. La notion de couche en
informatique, via celle d’implantation et de compilation, permet de représenter les
structures formelles en faisant abstraction des calculs élémentaires induits, comme la
formule permet de s’abstraire du sens.
TABLEAU 1 : LES STRUCTURES DE LA RAISON
Raison graphique
Raison computationnelle
Liste
Tableau
Formule
Programme
Réseau
Couche
Ces structures cognitives sont fondamentales et affectent désormais nos modes de penser.
La raison graphique a produit la raison classicatoire, la raison computationnelle produit
la pensée en réseau et le temps de la prévision. Pour une raison graphique, le réseau n’est
pas une structure de l’intelligible : le réseau, échappant à la synopsis spatiale de fait de sa
complexité, est un labyrinthe où l’on se perd. C’est une figure de l’irrationnel, et non une
manière de penser le monde. L’interaction et la communication selon la structure des
réseaux sont devenues intelligibles car le calcul permet de réduire la complexité et de
parcourir l’ensemble des possibles induit par les réseaux par les programmes qui en
spécifient le comportement.
Conférences RIC’2006
63
De même, la notion de couche est une manière également de réduire la complexité et de
rapporter une masse quasi infinie de calculs formels à des structures plus intelligibles
pour l’être humain. Les structures en réseau et en couche, via les programmes qui les
réalisent et les rendent effectives, permettent d’aborder le réel non comme une structure
hiérarchisée et organisée en classes, mais de le considérer comme une dynamique
déployant une rationalité et un ordre sous-jacents : le monde n’est que l’exécution de
programmes qui temporalisent les relations qu’ils spécifient. Non pas qu’il faille sousentendre qu’il y ait un seul programme sous-jacent, mais au contraire que plusieurs
ordres interagissent ensemble. Ces interactions n’étant pas forcément prédictibles ni
cohérentes, il faut alors en rechercher le programme et reconduire la recherche d’un
ordre calculé. Si la taxinomie des espèces peut être une illustration de la pensée induite
par la raison graphique, le code génétique est celle de la pensée induite par la raison
computationnelle.
HERITAGE ET TRANSMISSION
De la même manière que l’intelligence est conditionnée par les inscriptions matérielles et
les concrétisations matérielles du sens, la culture est conditionnée par l’héritage matériel
et ce qu’on a coutume d’appeler le patrimoine. Autrement dit, l’intelligence collective
repose largement sur l’héritage partagé d’un patrimoine, inscription matérielle de la
culture, comme l’intelligence individuelle reposerait sur les inscriptions matérielles de la
connaissance.
Mais il convient de ne pas réifier la notion de patrimoine et de le rabattre sur une pure
matérialité. En effet :
Le patrimoine n’est pas un objet, mais le processus qui survient à tout produit de
l’activité humaine dès lors qu’il s’inscrit dans la longue durée de l’histoire et dans
l’espace de la diversité des cultures. Quand une trace devient l’objet d’un effort de
mémoire, qu’elle relève d’une réappropriation du passé par le présent, il y a
patrimonialisation, car il y a alors transmission d’un contenu et réception d’un
héritage.
Selon cette optique, le patrimoine ne se définit pas à partir d’un secteur particulier
d’objets ou de contenus, dont la valeur particulière leur confèrerait une valeur
patrimoniale dont d’autres objets seraient dépourvus. Tout secteur d’activité est
potentiellement le siège de processus patrimoniaux.
Plus généralement, un patrimoine est au croisement de deux processus conjoints :
La préservation des objets ou contenus constituant la matérialité du patrimoine,
L’entretien de la tradition de lecture ou d’usage associée à ces objets.
Les objets sans leur intelligibilité entretenue par un exercice continuellement entretenu
de leur compréhension et interprétation sont inutiles. En effet la véritable complexité de
la conservation patrimoniale réside dans le fait qu’il ne suffit pas de conserver les objets,
mais il faut en conserver également la compréhension pour rester capable de les faire
revivre, non pas à l’identique car c’est bien évidemment impossible, mais dans une
continuité interprétative. Or, l’éloignement inexorable dans le passé introduit un fossé
d’intelligibilité entre le contenu préservé et le monde présent : le contenu devient
64
Intelligence collective : Rencontres 2006
étranger à la culture du temps présent si des médiations ne sont pas créées, accumulées et
conservées comme autant de moyens d’accès à l’œuvre comme œuvre et pas seulement
comme objet. Alors que les inscriptions étrusques, conservées et inscrites dans un
alphabet que nous maîtrisons (alphabet grec) demeurent inintelligibles, nous lisons
toujours Aristote à travers ses grands commentateurs successifs, les contemporains y
accédant par exemple par Saint Thomas qui le lisait à travers Averroès, lui-même à
travers Alexandre d’Aphrodise, etc. La clef de la préservation patrimoniale est donc de
préserver la tradition d’interprétation et de la faire vivre. Certains outils et modèles
permettent de mettre en œuvre ces logiques (OAIS par exemple), mais beaucoup reste à
faire pour déterminer les méthodes et contenus adaptés aux objets numériques conservés.
Par conséquent, la préservation et la sauvegarde du patrimoine ne peut s’effectuer qu’à
travers une pratique qui rejoue les œuvres, relit les textes, réinterprète les contenus. Car
il ne s’agit pas de figer les objets dans un passé à jamais révolu et pour toujours
inaccessible, mais de vivre avec eux dans une interprétation qui construit l’avenir en
tâchant d’être respectueux du passé.
Le patrimoine se constitue comme une transcendance du passé qui se déploie sur deux
plans complémentaires, celui de la temporalité et celui de l’intersubjectivité.
Matérialisant un passé révolu, la trace ou vestige n’est pas un souvenir : elle excède la
mémoire individuelle et la cognition individuelle. Elle transcende par conséquent l’esprit
et le force en un sens à sortir de lui-même pour se mettre à l’écoute d’une extériorité dont
le sens se révèle en tant qu’il est révolu. Par ailleurs, le patrimoine est matériel et
consiste en objets qui s’offrent aux multiples subjectivités : en tant que patrimoniaux, ces
objets sont des traces qui s’adressent au collectif de ceux qui sont présents et qui ne
peuvent en assumer le sens que collectivement. L’héritier est une classe générale, même
si elle n’est instanciée de manière contingente que par un seul individu. Transcendance
temporelle et intersubjective, le patrimoine s’adresse à un collectif et contribue par
conséquent à la constituer comme tel. Le collectif s’identifie et se constitue, dans une
prise de conscience de lui-même, comme héritier de traces transmises.
Mais le patrimoine n’est pas seulement matériel dira-t-on. On mentionnera les pratiques,
les rituels, les contenus oraux, etc. Certes, mais il ne s’agit pas vraiment de patrimoine,
mais d’habitus entretenu et pratiqué par le collectif. Mais, comme on l’a souligné, il y a
une forte dépendance entre patrimoine et habitus. Il n’y a de transmission que s’il y a
entretien de la pratique, c’est-à-dire la transmission ne se traduit pas par la circulation de
l’objet le long des générations, mais par la répétition des actes interprétatifs qui lui
confèrent son sens et sa valeur.
En 1537, François 1er fonde la bibliothèque royale (la future Bibliothèque de France) par
l’édit de Montpellier. Auparavant, il avait fondé le Collège de Lecteurs Royaux en 1530
(le futur collège de France). L’une conservait les biens, l’autre entretenait la pratique,
non pas comme transmission de la lecture, mais comme pratique et répétition de l’acte de
lecture comme garant de la transmission du savoir de la lecture.
Cependant, habitus et répétition ne doivent pas leurrer. La répétition n’est jamais à
l’identique, et à ce titre elle crée de la différence et du différemment, c’est-à-dire qu’elle
permet aux interprètes du moment d’introduire leur singularité et d’ouvrir l’avenir pour
Conférences RIC’2006
65
un sens légué toujours à venir. On aura reconnu le thème de la différance de Jacques
Derrida dont il donne lui-même une caractérisation précise33 :
On sait que le verbe « différer » (verbe latin differre) a deux sens qui semblent
bien distincts ; […]. En ce sens, le differre latin n’est pas la traduction simple du
diapherein grec […]. Car la distribution du sens dans le diapherein grec ne
comporte pas l’un des deux motifs du differre latin, à savoir l’action de remettre
à plus tard, de tenir compte, de tenir le compte du temps et des forces dans une
opération qui implique un calcul économique, un détour, un délai, un retard, une
réserve , une représentation, tous concepts que je résumerai ici d’un mot dont je
ne me suis jamais servi mais qu’on pourrait inscrire dans cette chaîne : la
temporisation. Différer en ce sens, c’est temporiser, c’est recourir,
consciemment ou inconsciemment, à la médiation temporelle et temporisatrice
d’un détour suspendant l’accomplissement ou le remplissement du « désir » ou
de la « volonté », l’effectuant aussi bien sur un mode qui en annule ou en
tempère l’effet. Et nous verrons – plus tard – en quoi cette temporisation et aussi
temporalisation et espacement, devenir temps de l’espace et devenir espace du
temps, « constitution originaire » du temps et de l’espace, diraient la
métaphysique ou la phénoménologie dans le langage qui est ici critiqué et
déplacé.
L’autre sens de différer, c’est le plus commun et le plus identifiable : ne pas être
identique, être autre, discernable, etc. S’agissant des différen(t)(d)s, mot qu’on
peut donc écrire comme on voudra, avec un t ou un d final, qu’il soit question
d’altérité de dissemblance ou d’altérité d’allergie et de polémique, il faut bien
qu’entre les éléments autres se produise, activement, dynamiquement, et avec un
certaine persévérance dans la répétition, intervalle, distance, espacement.
La répétition induite par l’habitus culturel est différenciant et différant : il introduit du
non identique, du singulier et du nouveau ; introduisant de la différance, il reporte à plus
tard l’avènement de l’identique et qui ainsi temporisé, renvoyé à un horizon futur et
lointain. Réciproquement, la répétition, en répétant les « mêmes » actions sur des objets
qu’on croit être des originaux car on les a conservés comme tels, introduit des
différences car il n’est jamais possible de refaire deux fois la même chose avec le même
sens ou même résultat puisque le contexte et l’environnement ont changé. C’est donc la
volonté de répéter le passé pour le conserver qui crée de la différence, cette différence
différant à plus tard le sens révolu et renvoyant à un a-venir qui ne viendra jamais la
répétition de l’identique. Par conséquent, l’écart creusé par la différence, cet espacement
dans l’espace logique des variantes autour d’une identité recherchée, constitue une
temporalité et une temporalisation, c’est-à-dire une tension vers l’avenir. Ceux qui
veulent répéter le passé à l’identique pour le reproduire se tourne du mauvais coté :
répéter le passer, c’est construire l’avenir, à condition de laisser la place à la différence, à
condition de laisser la différence différer à plus tard l’avènement du sens révolu.
La répétition différante est donc une individuation du collectif qui reçoit cet héritage et
qui se construit un avenir en se l’appropriant. Le concept d’individuation a
33 Marges de la philosophie, Jacques Derrida, Minuit, 1972.
66
Intelligence collective : Rencontres 2006
particulièrement été travaillé par Gilbert Simondon34. Renversant les conceptions
classiques sur l’Être et le Devenir, jouant en quelque sorte Héraclite contre Parménide et
Zénon, Simondon considère que l’Être véritable est relation et devenir. Dans cette
perspective, les individus ne sont que des étapes provisoires et temporaires du devenir,
étapes métastables d’un processus qui les emportent. L’individuation correspond ainsi à
la production d’un individu comme résolution d’une tension entre des tendances
contradictoires, l’individu devenant l’état d’équilibre métastable entre ces tensions.
Métastable, c’est l’équilibre n’est que local et provisoire. L’individuation prend plusieurs
figures : l’individuation physique, l’individuation collective et l’individuation technique.
Simondon articule étroitement les individuations psychique et collective sans leur
rapporter explicitement l’individuation technique. Cependant, à la suite de Bernard
Stiegler, nous pensons qu’il est nécessaire, pour la pleine intelligibilité des individuations
psychique et collective, de les rapporter à l’individuation technique comme l’un de leur
moteur et principe. Citons ici Bernard Stiegler35 :
Le je, comme individu psychique, ne peut être pensé qu’en tant qu’il appartient
à un nous, qui est un individu collectif: le je se constitue en adoptant une
histoire collective, dont il hérite, et dans laquelle se reconnaît une pluralité de
je.
Cet héritage est une adoption au sens où je peux parfaitement, en tant que petitfils d’un immigré allemand, me reconnaître dans un passé qui n’a pas été celui
de mes ancêtres, et que je peux néanmoins faire mien ; ce processus d’adoption
est donc structurellement factice.
Un je est essentiellement un processus, et non un état, et ce processus est une
in-dividuation (c’est le processus d’individuation psychique) en tant que
tendance à devenir-un, c’est à dire in-divisible.
Cette tendance ne se réalise jamais parce qu’elle rencontre une contre-tendance
avec laquelle elle forme un équilibre métastable […].
Un nous est également un tel processus (c’est le processus d’individuation
collective), l’individuation du je étant toujours inscrite dans celle du nous,
tandis qu’à l’inverse, l’individuation du nous ne s’accomplit qu’à travers celles,
polémiques, des je qui le composent.
Ce qui relie le je et le nous dans l’individuation est un milieu pré-individuel qui
a des conditions positives d'effectivité, relevant de ce que j’ai appelé les
dispositifs rétentionnels. Ces dispositifs rétentionnels sont supportés par le
milieu technique qui est la condition de la rencontre du je et du nous :
l’individuation du je et du nous est en ce sens également l’individuation d’un
système technique (ce que Simondon, étrangement, n’a pas vu).
34 L’individuation à la lumière des notions de forme et d’individuation, Gilbert Simondon,
Millon, 2005.
35 De la misère symbolique, Bernard Stiegler, Galilée, 2004.
Conférences RIC’2006
67
7. Le système technique est un dispositif qui jouit d’un rôle spécifique (où tout
objet est pris : un objet technique n’existe qu’agencé au sein d’un tel dispositif à
d’autres objets techniques : c’est ce que Simondon appelle l’ensemble
technique) […].
8. Le système technique est aussi ce qui soutient la possibilité de constitution de
dispositifs rétentionnels, issus du processus de grammatisation qui se déploie au
sein du processus d’individuation du système technique, et ces dispositifs
rétentionnels sont ce qui conditionne les agencements entre l’individuation du
je et l’individuation du nous en un même processus d’individuation psychique,
collective, et technique (ou la grammatisation est un sous-système de la
technique) qui comporte donc trois brins, chaque brin se divisant lui-même en
sous-ensembles processuels (par exemple, le système technique en s’individuant
individue aussi ses systèmes mnémotechniques ou mnémotechnologiques).
L’individuation technique qui conduit le devenir technique préside à l’évolution des
objets matériels supports du patrimoine et de la mémoire collective. Entre document et
monument, la matérialité du passé est façonnée par la technique et évolue avec elle. Les
tendances techniques, que Simondon a analysées à travers son concept de
concrétisation36, s’expriment dans les supports de mémoire et y impriment leurs
structures. Le point important est que l’évolution du support technique répond à des
contraintes propres au support qui ne sont pas déduites de l’utilité recherchée ou des
fonctionnalités attendues. Bien au contraire, utilités et fonctionnalités sont reconfigurées
par l’évolution technique. Il y a donc bien une autonomie du technique, qu’il ne faut pas
travestir en déterminisme technologique. Ce qui signifie que le système technique, en
tant que système, qui possède donc des lois propres et des contraintes spécifiques
découlant de sa systématicité, évolue, pour ainsi dire, pour son propre compte, sans qu’il
soit totalement déterminé par les visées d’un concepteur qui anticiperait le futur
technologique en fonction des fins qu’il se fixe. Cette autonomie du technique institue
donc une différence avec le régime des usages et de l’interprétation qui peut être
productrice de sens : l’évolution des outils du fait de l’autonomie du technique
reconfigure l’espace de l’intelligibilité en remodelant la structure de la signifiance, ce qui
se présente à nous comme étant investi d’esprit ou de signification. Mais possibilité n’est
pas actualité : le technique ne programme pas le sens, et toute évolution technologique
n’aboutit pas nécessairement à une évolution cognitive. Reconfigurer l’espace des
possibles, restructurer le pensable dispose de nouveaux possibles sans en imposer aucun.
L’individuation technique serait ainsi un moteur de l’individuation psychique, comme on
l’a vu dans la première partie de cet article, mais aussi du collectif, du fait de la double
transcendance des objets patrimoniaux.
CONCLUSION
Intelligence collective. Si le lecteur doit pouvoir saisir ce que vous avons voulu mettre
derrière la notion de collectif, il doit rester plus circonspect sur notre contribution au
36 Du mode d’existence des objets techniques, Gilbert Simondon, Aubier, 1989.
68
Intelligence collective : Rencontres 2006
sujet de l’intelligence collective. C’est que, avouons le finalement pour conclure, in
cauda venenum, cette notion nous laisse perplexe. Nous ne pensons pas que
l’intelligence désigne un phénomène particulier qu’il faudrait distinguer de la culture et
de la question du sens. C’est la raison pour laquelle nous avons volontairement laissé de
côté cette notion, qui fleure bon une psychologie surannée ou un naturalisme cognitiviste
dont nous nous démarquons. En revanche, comme le rappelait Aristote dans l’Ethique à
Nicomaque, être humain implique ne pas avoir raison tout seul ni surtout qu’on ne peut
avoir raison tout seul, non pas au sens où détenir seul une vérité n’est rien si on ne peut
la faire accepter par le collectif, mais bien plutôt parce qu’on ne peut trouver seul la
vérité dans la mesure la vérité humaine est une vérité du collectif.
Or, nous l’avons suggéré, la vérité s’hérite. Non pas il n’aurait pas de moyen de trouver
ou d’élaborer de nouvelles vérités, mais le nouveau ne se dévoile qu’à travers la
répétition différante de la tradition. La tradition vivante est donc la tradition qui n’en
finit pas d’être trahie alors qu’on croit y rester fidèle. Quand on y est fidèle, c’est que la
tradition s’est muée en dogme, stérile et castrateur. La création, l’innovation n’est pas
rupture mais singularité qui s’engouffre dans l’écart creusé par la répétition fautive.
Autrement dit, il nous semble illusoire de vouloir faire du nouveau pour faire du
nouveau, comme par exemple faire de l’art pour l’art : la véritable innovation naît d’une
compréhension fine de la tradition qui induit son dépassement, ce que souvent les
contemporains qualifie de rupture.
Il en est ainsi pour le collectif. En se vivant comme héritant d’une culture, il se construit
un avenir. Restant fidèle à sa tradition, il lui tourne le dos pour innover et créer du
radicalement nouveau, à l’instar des philosophes médiévaux qui se revendiquaient
d’Aristote pour élaborer des systèmes philosophiques radicalement nouveaux, dont la
subtilité et l’innovation ne laissent de surprendre encore aujourd’hui.
C’est sans doute cela, l’intelligence collective. Non pas tant un schéma de distribution
des ressources pour la résolution de problèmes, non pas fait social qu’il faudrait
construire en contradiction avec une psychologie plus centrée sur l’individu, mais un
héritage collectif d’un passé légué par des objets techniques mémorisant le passé pour, à
travers une appropriation répétant le passé pour le trahir et innover par la différence
qu’elle introduit, individuer le collectif comme tel.
Conférences RIC’2006
69
DES FOURMIS A INTERNET
LE MYTHE DE L’INTELLIGENCE COLLECTIVE
JEAN-FRANÇOIS DORTIER
J-F. Dortier est fondateur et rédacteur en chef du mensuel Sciences Humaines. Auteur de
« Les sciences Humaines, Panorama des connaissances » (éd. S.H. 1998) et « L’homme,
cet étrange animal » (ed. S.H., 2004), il a également dirigé de de nombreux ouvrages
collectifs, dont, « Le Cerveau et la Pensée » (2004) et « le Dictionnaire des sciences
Humaines » (2004).
Howard Rheingold ne passe pas inaperçu. Pas simplement à cause de sa belle moustache
et de son chapeau qu’il ne quitte jamais, mais surtout parce qu’il peint ses chaussures.
Oui, il peint ses chaussures de motifs et couleurs variés : fleurs, arabesques, points
lumineux…37 Et quand il ne peint pas ses chaussures, H. Rheingold écrit des livres, fait
des conférences et enseigne à l’université de Stanford les principes de l’intelligence
collective.
Son livre Smart Mobs (Foules intelligentes, M2 Editions, 2002) a connu un grand succès
aux Etats-Unis. H. Rheingold y prend le contre-pied de l’idée classique qui veut que les
foules seraient toujours stupides et irrationnelles. Son idée ? Grâce aux technologies
interactives (courriels, SMS, blogs, wiki, chats, etc.), les groupes humains peuvent
s’auto-organiser, s’informer mutuellement et réagir instantanément à un événement. En
quelques minutes, de bouche à oreille – ou plutôt d’un écran à l’autre –, un message peut
circuler rapidement vers des milliers d’individus. Il devient alors possible de mobiliser
une manifestation surprise (ce fut le cas lors de la réunion de l’OMC à Seattle en
décembre 1999), de concevoir un happening artistique (les «flashmobs»), d’organiser des
secours d’urgence.38
Des communautés intelligentes qui s’auto-organisent, sans chef ni gourou, qui réagissent
instantanément à un message, peuvent communiquer et débattre entre elles : voilà le
modèle de référence de l’IC. L’expression est devenue l’emblème d’une galaxie
hétéroclite de théoriciens, chercheurs, consultants en organisation et vulgarisateurs qui
manipulent pêle-mêle des théories mathématiques de la complexité, des développements
informatiques sur l’intelligence artificielle distribuée, des outils de knowledge
37 On peut d’ailleurs admirer la collection de ses œuvres sur internet.
38 Grâce aux réseaux d’information qui relient les individus entre eux, H. Rheingold pense qu’une
«révolution sociale »se prépare. La démocratique cognitive court-circuite les réseaux traditionnel
d’information. Sur le même thème, voir aussi J. de Rosnay, La révolution ProNetarienne, 2006.
70
Intelligence collective : Rencontres 2006
management, des spéculations philosophico-politiques sur l’avènement d’une nouvelle
démocratie cognitive et, enfin, des discours prophétiques sur l’avènement d’un «cerveau
global».
LES SOCIETES DE FOURMIS
L’IC repose sur un principe simple. La coopération d’entités multiples aboutit à la
formation d’une intelligence supérieure par une sorte d’alchimie naturelle – appelée
«émergence ». Si on en croit Steven Johnson, auteur d’un récent best-seller, Emergence:
The connected lives of ants, brains, cities and software [Scr01], le principe d’émergence
pourrait s’appliquer autant aux fourmis, aux cerveaux, aux communautés humaines
qu’aux réseaux d’ordinateurs. Voyons comment.
L’IC n’est pas une création humaine. Elle était déjà présente, il y a 100 millions
d’années, chez les fourmis primitives qui construisaient en commun des dômes et
élevaient ensemble leurs larves39. Le principe de la coopération fut efficace. Quelques
millions d’années plus tard, la Terre entière était peuplée de milliers d’espèces (on en
dénombre 9 500) capables de construire des fourmilières complexes, avec chambre
royale, crèches, greniers, couveuses, solariums, salles d’hibernation, salles de garde,
cimetières. Certaines espèces pratiquent l’agriculture (culture de champignons), d’autres
l’élevage (de pucerons pour récolter le miellat), d’autres l’esclavage40. Et le tout sans
chef, contremaître, centre de décision. Comment s’y prennent-elles ? Les chercheurs ont
tenté de modéliser le problème sous le nom d’intelligence en essaim (swarm
intelligence41). Le modèle canonique concerne le problème du transport de la nourriture
(trouver le chemin le plus court de la source de nourriture à la fourmilière). On suppose
que les fourmis répondent à un comportement très simple : chacune suit la trace odorante
laissée par les exploratrices retournées à la fourmilière. Comme celles qui empruntent le
chemin le plus court font le plus d’allers et retours, elles laissent donc plus de traces
odorantes. Les autres fourmis ont donc tendance à s’agréger autour de cette piste. Au
bout d’un certain temps, ce chemin est emprunté par toutes. Des modèles théoriques
d’intelligence en essaim simulent assez bien la façon dont les fourmis résolvent le
problème dit du «voyageur de commerce «: comment trouver le plus court chemin entre
deux points ?
La voie semblait prometteuse. Pourtant à ce jour, on n’a pas vraiment découvert
comment les fourmis s’y prennent pour résoudre des problèmes plus complexes. Car
certaines fourmis ne se contentent pas de trouver une bonne piste : parfois elles creusent
des galeries, entretiennent les voies existantes. Par exemple, certaines fourmis
légionnaires africaines prélèvent de la terre sur leur parcours pour construire des murs
39 Bert Hölldobler et Edward O. Wilson, Voyage chez les fourmis, Seuil, 1996.
40 Les fourmis amazones rouges (Polyergus rufescens) tuent la reine de l’espèce noire (Fromica
fusca), les fourmis en esclaves.
41 E. Bonabeau, M. Dorigo, G. Théraulaz, Swarm Intelligence: From Natural to Artificial systems
(Oxford University, Press), 2000.
Conférences RIC’2006
71
latéraux et se protéger ainsi du soleil42. Un tel comportement suppose sans doute
l’activation de programmes établis génétiquement. Ce n’est donc pas l’auto-organisation
spontanée qui agit ici. De plus, des expériences montrent l’existence d’une certaine
plasticité dans la conduite de la fourmi. Ainsi, en réduisant artificiellement le nombre
d’ouvrières dans une fourmilière, on s’aperçoit que les soldats vont subitement changer
de rôle et prendre la place des ouvrières disparues. Enfin les recherches menées sur
l’intelligence individuelle des insectes et invertébrés révèlent également une capacité
d’apprentissage, de mémoire et de souplesse comportementale bien plus importante que
ne le suppose le modèle de l’intelligence collective. Ainsi, Nigel Franks et Tom
Richardson de l’université de Bristol ont montré que certaines fourmis (de l’espèce
Temnothorax albipennis) se comportent en véritable «institutrices »pour guider d’autres
fourmis du nid à une source de nourriture. La fourmi suiveuse – celle qui apprend le
chemin - suit la fourmi «institutrice»en lui touchant les pattes arrières et l’abdomen. Si la
suiveuse décroche, la fourmi institutrice s’arrête et attend son élève… Pour la fourmi
institutrice, le trajet peut durent quatre fois plus de temps que d’habitude, ce qu’il montre
bien qu’elle adapte son comportement à celui de sa suiveuse.
Deux critères démontrent bien, selon N. Franks et Tim Richarson, l’existence d’un
véritable «enseignement»: 1) la fourmi maître change son comportement en présence de
l’élève (elle ralentie sa marche) 2) la fourmi-élève retrouve ensuite toute seule le chemin
vers la source de nourriture. 43
En somme, les fourmis sont des «agents»individuels peut-être moins stupides qu’on l’a
cru.
Au fil des recherches, il est devenu évident que les fourmis ne se comportaient pas en
agents simples, répondant à des comportements élémentaires (suivre une trace odorante),
régis par quelques formules élémentaires pour résolution de problèmes. La fourmilière
est un superorganisme où chaque élément, issu d’une même histoire évolutive, est déjà
doté d’un programme de conduite élaboré.
DES FOURMIS AUX ROBOTS : LES SYSTEMES MULTIAGENTS
L’étude de l’intelligence en essaim relève d’un champ de recherche informatique en plein
essor : celui des systèmes multiagents (SMA)u. Le principe général des SMA a été conçu
par Marvin Minsky, l’un des fondateurs de l’intelligence artificielle (IA), dans son livre
La Société de l’esprit44. La notion d’agent désigne toute entité autonome – des fourmis,
des neurones, des robots, des sociétés humaines, etc. – dotée de savoir-faire plus ou
moins étendus. Tout le problème des SMA consiste à trouver un mode de coopération
42 Bruno Crobara, Constructions animales, Delachaux et Niestlé, 2005.
43 N.R. Franks & T. Richardson, Teaching in tandem-running ants, Nature, 2006.
44 M. Minsky, La Société de l’esprit, Interéditions, 1988. voir aussi Michael Wooldridge, An
Introduction to MultiAgent Systems, John Wiley & Sons, Inc., 2001, Gerhard Weiss, (ed.),
Multiagent Systems, A Modern Approach to Distributed Artificial Intelligence, MIT Press, 1999,
Jacques Ferber, Les systèmes multi-agents : Vers une intelligence collective, InterEditions, 1997
72
Intelligence collective : Rencontres 2006
qui permette à ces agents de résoudre des problèmes plus ou moins complexes.
Imaginons que nos agents soient des petits lutins robotisés chargés d’entretenir le feu
dans une cheminée. Les uns doivent couper le bois, certains le transporter, d’autres
empiler les bûches, d’autres encore veiller à ce que le feu ne s’éteigne pas, d’autres enfin
préparer à manger (il faut bien que les ouvriers se nourrissent !). Chacun est donc affecté
à une tâche spécialisée. Une coordination d’ensemble s’impose pour éviter les
bousculades et engorgements ou au contraire le manque de bûches45. Au lieu de
concevoir un programme général intégrant toutes les données, la solution peut consister à
nommer un agent chargé de s’occuper du planning, un autre d’organiser le repos de
chacun (tout en évitant la rupture de la chaîne), d’autres encore seront chargés de la
circulation du bois, de maintenir constant le nombre de bûches dans le feu, etc. Un tel
dispositif, souple dans son principe, permet de faire face à une variété de situations qui
n’ont pas à être programmées par avance.
De fait, les modèles de SMA ont dû, au fil du temps, intégrer dans leurs modèles des
agents cognitifs et non plus simplement réactifs. De même il a fallu intégrer des
dispositifs d’organisation hiérarchiques, des centres régulateurs, des dispositifs de
supervision, de contrôle, s’éloignant ainsi de plus en plus de l’idée d’une IC qui
émergerait spontanément d’agents rudimentaires en interaction.
Le cerveau serait-il lui aussi un SMA ? On sait que le cerveau humain est composé de
milliards de neurones reliés entre eux par des voies synaptiques. L’immense réseau ainsi
formé est parcouru de flux d’informations circulant sous forme chimique et électrique.
Comment ce dispositif fonctionne-t-il ?
Une des hypothèses avancées est celle des réseaux de neurones formels. Il s’agit de
modèles mathématiques censés reproduire le fonctionnement des neurones biologiques.
Chaque neurone se comporte comme un agent simple, qui réagit – positivement ou
négativement – à plusieurs stimuli qui lui sont envoyés. Dès les années 1950, la théorie
des réseaux de neurones formels a suscité de nombreux espoirs. On pouvait supposer que
par la combinaison entre de très nombreux éléments, reliés entre eux, il serait possible de
simuler des fonctions complexes : mémoire, perception, apprentissage, intelligence…
Une fois le principe de base découvert, le passage de cerveau simple à cerveau complexe
n’était plus qu’une question de nombre.
Mais très vite, on allait déchanter. Dans les années 1960, suite au piétinement du
perceptronu et des critiques acerbes de ses détracteurs (Seymour Papert et M. Minsky en
tête), le projet était au point mort. Puis il a connu une renaissance dans les années 1990
(avec notamment de nouveaux modèles dits réseaux de Hopfield) et constitue
aujourd’hui une nouvelle piste pour l’IC. Mais il reste qu’on ne peut espérer y trouver la
façon dont le cerveau s’y prend pour résoudre des problèmes généraux. La raison en est
la suivante : si le cerveau se présente bien comme un réseau de neurones, cela ne signifie
nullement que l’étude de la physiologie de chaque neurone et de ses connexions avec les
autres suffit à expliquer l’organisation d’ensemble.
45 Le problème se pose notamment à propos de l’encombrement des réseaux d’Internet sans fil.
«Le Wi-fi intelligent », Alex Hills, Pour la Science, janvier 2006.
Conférences RIC’2006
73
Le corps humain – ou de tout autre animal complexe – apparaît comme une somme de
milliards de cellules interconnectées. Mais pour comprendre le fonctionnement général
de ce corps, on ne peut s’en tenir à la seule échelle des cellules et de leurs connexions.
Des groupes de cellules forment des organes, eux-mêmes reliés entre eux… Penser
l’ensemble suppose de changer d’échelle d’analyse : passer du niveau de la cellule à la
physiologie globale.
DES ROBOTS AUX CERVEAUX
Il en va de même pour le cerveau. La démarche élémentariste qui pense reconstruire le
fonctionnement du cerveau à partir de réseaux de neurones ne saurait suffire. Pour en
saisir la logique d’ensemble – celle des aires cérébrales spécialisées et leurs articulations
–, il faut passer à un niveau d’organisation supérieur. Voilà pourquoi les modèles
connexionnistes – qui se situent à un niveau d’organisation assez élémentaire – peinent à
comprendre les lois d’organisation du cerveau à un niveau plus général.
L’étude du fonctionnement global du cerveau – et plus généralement de tout dispositif
intelligent – relève de ce que l’on nomme les architectures cognitives (AC) Qu’est ce
qu’une A.C. ? C’est un schéma d’organisation et de fonctionnement d’un dispositif
intelligent (ordinateur ou cerveau). Une AC se présente d’abord sous la forme d’un
schéma (comparable à celui d’un moteur de voiture) décrivant les organes principaux
(les modules : mémoire, vision…) et leurs relations (comment y circule l’information).
Dans La Société de l’esprit (1988), Marvin Minsky, un des pionniers de l’intelligence
artificielle, a proposé une AC sous la forme d’un ensemble de petits agents dotés de
fonctions simples du type «ajouter», «poser», «rapide», «dehors»…, ceux-ci se
combinant entre eux sous la conduite d’autres fonctions, plus générales. Il ne s’agissait
encore que d’une hypothèse théorique, destinée à expliquer comment fonctionne un
système intelligent généraliste.
La théorie unitaire de la cognition de John Anderson a donné lieu à l’une des AC les plus
connues : l’ACT-R. Bâtie sur une base connexionniste, elle fut ensuite largement
amendée et fait désormais intervenir plusieurs modules (visuel, intentionnel, mémoire,
etc.) qui exécutent chacun une fonction cognitive précise. Elle a été traduite sous la
forme d’un programme informatique (dernière version ACT-R6).
Il existe différents types d’AC. Certaines sont de nature psychologique (visant à
modéliser l’esprit humain), d’autres de nature informatique, d’autres enfin se veulent
universelles (applicables à tout dispositif intelligent). C’est le cas pour les modèles
SOAR créés par Alan Newell, l’ACT-R de J. Anderson ou l’architecture cognitive de
subsomption de Rodney Brooks, etc.
Certaines sont polyvalentes (prétendant simuler toute fonction cognitive), d’autres
dévolues à un domaine cognitif particulier : perception, mémoire, lecture, conduite
automobile, etc. Certaines reposent sur une base modulaire (petites unités responsables
d’une fonction précise et pilotées par un centre), d’autres sur un principe connexionniste
(une myriade d’unités identiques sans pilotage général), d’autres encore, comme l’AC de
subsomption, s’inspire de modèles vivants.
74
Intelligence collective : Rencontres 2006
Autant dire que les modèles d’AC créés pour simuler le fonctionnement du cerveau
restent largement spéculatifs et limités dans leur application.
Mais là encore, lorsque l’on tente de classer les différentes AC disponibles sur le marché
des idées, il apparaît immédiatement que très peu fonctionnent sur le mode idéal de l’IC,
c’est-à-dire d’une multiplicité d’agents simples qui s’auto-organiseraient spontanément.
Aucune ne peut se ramener à un simple schéma d’émergence «bottom-up». Toutes font
plus ou moins appel à des dispositifs complexes formés de modules, sous-modules,
centres pilotes… Elles s’appliquent par ailleurs à des fonctions cognitives assez limitées.
Du point de vue des AC en tout cas, le cerveau n’apparaît pas comme une libre
assemblée de neurones indépendants qui s’assemblent et entrent spontanément en
coopération pour former une belle machine.
DES ROBOTS AUX ORGANISATIONS
Changeons de niveau d’organisation et passons aux sociétés humaines. La question de
l’IC y renvoie à des questions classiques en théorie des organisations : comment
s’élaborent les décisions ? Où se réalise la coordination d’activité dans une entreprise ou
une administration ? Jusqu’aux années 1970, ces questions étaient abordées à partir d’un
modèle dominant : l’organisation hiérarchique pilotée du haut vers le bas à partir d’un
centre de décision unique.
Depuis les années 1980, ce schéma d’organisation a perdu de son crédit. Le déclin des
modèles hiérarchiques a conduit à s’intéresser de près au travail en équipe, au processus
de décision collective (rebaptisée «gouvernance »), à l’autonomie et la communication
des acteurs, à la logique des réseaux46. De plus, l’importance accrue accordée à
l’information, la culture, l’apprentissage, l’innovation, conçus comme des ressources
stratégiques, a mené à porter attention à la «cognition collective» en organisation.
Plusieurs courants de pensée se sont engagés dans cette voie et c’est ainsi qu’on a vu
fleurir les théories de l’apprentissage organisationnelu, de la cognition située*, des
communautés de pratique*, du knowledge management*, du CSCW (Computer
Supported Cooperative Work)*, etc.
Toute une littérature s’est développée à partir de ces travaux qui sont entrés en
connexion avec les théories de l’intelligence sociale (Lev S. Vygotski) ou
l’ethnométhodologie. Globalement, un paradigme «constructiviste «de l’intelligence
sociale s’est affirmé dans les années 1990, qui se situe en opposition au modèle cognitif
standard qui a longtemps régné au sein des sciences cognitives. Ce nouveau regard sur
les relations informelles et les interactions entre acteurs a contribué à mettre en lumière
tout un pan des organisations resté jusque-là dans l’ombre.
Etienne Wenger a montré dans une étude célèbre sur les communautés de pratique
comment les agents de Xerox se transmettaient pendant les pauses leurs «trucs «et
46 M. Castells, L’Ere de l’information. La société en réseaux, Fayard, 1997.
Conférences RIC’2006
75
ficelles sur le fonctionnement de leurs machines47. De son côté, Norbert Alter a dévoilé
comment se produisait l’innovation au quotidien dans les entreprises : les agents trouvent
des combines, inventent des procédures pour faire fonctionner des dispositifs en dehors
des règles formelles.
ENCADRE 1
Quand les robots attaquent
1) «J’avance», 2) «si je suis face à un ami, je m’écarte», 3) «si je suis face à un ennemi,
je frappe», 4) «j’avance». A l’aide de quelques simples types de comportements attribués
à une myriade de soldats robots, on peut simuler une bataille sur ordinateur. C’est ainsi
que dans le film Le Seigneur des anneaux (Peter Jackson), les scènes de batailles ont été
modélisées sur écran – sans qu’aucun figurant réel ne joue la scène. Le comportement
des «agents » était géré par un programme d’intelligence artificielle multiagent nommé
Massive. Sur ce modèle, on peut aussi réaliser des jeux tels les Robocup où des équipes
de robots s’affrontent.
Dans les systèmes multiagents, (SMA), une série d’agents autonomes interagissent en
suivant chacun des comportements simples. Collectivement, ils parviennent ensemble,
sans pilote ni plan d’ensemble, à résoudre des problèmes. C’est ainsi que l’on explique
certains comportements collectifs caractéristiques des insectes sociaux, comme les
fourmis ou les termites (transport de nourriture ou constitution de cimetières).
Dans les premiers modèles de SMA, les agents sont dits «réactifs ». Leur comportement
est guidé par des règles élémentaires les faisant réagir à un environnement changeant.
Mais peut-on tenter de modéliser des comportements avec des agents «cognitifs», qui
obéissent à des conduites complexes : ces agents possèdent des représentations globales
de la situation, sont capables de se fixer des buts (gagner la guerre dans le cas du jeu
vidéo). Dans ce cas, les agents ont une gamme de conduites à leur disposition. Ils ne se
contentent pas de tuer l’ennemi qui se présente, mais cherchent aussi à occuper une
position stratégique, à trouver des moyens pour franchir les obstacles.
L’interaction de ces agents cognitifs suppose alors planification et coordination des
comportements. Par exemple, il faut nommer un agent régulateur, ou planificateur. Rien
n’interdit de le faire en principe. Mais on retombe alors dans les modèles de pilotage
hiérarchique de l’action, qui reprend le pas sur l’interaction spontanée des agents. On
s’éloigne donc des modèles d’intelligence collective. n J.-F.D.
À lire
P. Mathieu, S. Picault et J.-C. Routier, «Les agents intelligents», Pour la science, n° 332,
juin 2005.
A-t-on pour autant mis au jour les lois de l’intelligence collective en organisation ? On
en est loin. Tout d’abord parce que le modèle de l’IC, en se focalisant sur les réseaux, sur
le fonctionnement des services, détourne de fait le regard du fonctionnement général des
47 E. Wenger, Communites of Practice. Learning, meaning, and identity, Cambridge University
Press, 1998.
Téléchargement