RENCONTRES RIC’2006 Intelligence collective Nîmes, 22-24 mai 2006 Site EERIE de l’Ecole des mines d’Alès Dans le prolongement des conférences NîmesTIC’2000, NîmesTIC’2001, et des Journées IC’2004, les rencontres RIC’2006 ont été organisées à Nîmes par le centre de recherche LGI2P de l’Ecole des Mines d’Alès en collaboration avec les centres de recherche CERIC et LIRMM de l’Université de Montpellier et avec la participation de la FING - Fondation Internet Nouvelle Génération. Le thème des rencontres est la coopération intellectuelle entre acteurs humains dans un environnement techniquement augmenté. Comité scientifique : Bruno BACHIMONT, Godefroy BEAUVALLET, Yann BERTACCHINI, Olivier BOISSIER, Pierre BOMMEL, Paul BOURGINE, Robert BOURRE, Vincent CHEVRIER, Philippe DURANCE, André DEMAILLY, Rose DIENG, Jean-François DORTIER, Serge GARLATTI, Norbert GIAMBIASI, Pierre-Léonard HARVEY, Francis LAPIQUE, Matthieu LATAPY, Dominique LESTEL, Pierre LEVY, Anne MAYERE, Guy MELANCON, Michel MOATTI, Alex MUCCHIELLI, Jean-Pierre MÜLLER, Hélène PIGOT, Serge PROULX, Louis QUERE, Pascal ROBERT, Yves ROUCHALEAU, Dany TROM. Comité de programme : Eric AUZIOL, Monique COMMANDRE, Jean-michel CORNU, Michel CRAMPES, Daniel DIEP, Emmanuelle JACQUES, Arnaud KLEIN, Serge-André MAHE, Eunika MERCIER-LAURENT, Jean Michel PENALVA, Joël QUINQUETON, Pierre-Michel RICCIO. Comité de rédaction : Jean Michel PENALVA, Pierre-Michel RICCIO, Silvia DEKORSY. Organisation et communication : Françoise ARMAND, Sylvie CRUVELLIER, Pierre JEAN, Patricia RONDEAU, Azucena SANCHEZ, Elisabeth SANSOT. 2 Intelligence collective : Rencontres 2006 L’intelligence collective peut être considérée comme une hypothèse relative à la capacité d’un groupe d’acteurs humains et d’agents artificiels à atteindre dans une action commune une performance supérieure à l’addition des performances individuelles. C’est sur cette conjecture que les chercheurs du groupe CYCLONE ont décidé d’unir leurs compétences et leurs expériences, afin d’explorer un champ de recherche qui s’est vite révélé multi-disciplinaire. Sciences cognitives, sciences de l’information et de la communication, sciences humaines et sociales trouvent ici l’occasion de fructueuses confrontations et transpositions, alors même que le débat s’enrichit de points de vue radicalement différents : l’intelligence collective est considérée par certains comme un enjeu stratégique, pour les organisations, les entreprises, les territoires, alors que d’autres y voient une idée séduisante, mais relevant plus du mythe que de la réalité. L’idée de l’intelligence collective trouve des fondements dans le monde animal, où par exemple, les insectes démontrent l’efficacité de comportements collectifs. Ces observations sont d’ailleurs une source d’inspiration féconde en intelligence artificielle, qui a trouvé ici, non seulement des solutions originales à des problèmes difficiles, mais également des modèles pour des univers multi-agents, simulés ou mis en pratique en robotique. Mais l’idée de l’intelligence collective tiendra-t-elle ses promesses dans les organisations humaines, en profitant du support des technologies du web et des réseaux ? Les expériences de terrain permettent-elles aujourd’hui de dégager des modèles opérationnels ? Une approche inter-disciplinaire apparaît comme la seule voie réaliste pour répondre à ces questions essentielles. C’est cette interrogation qui a convaincu les chercheurs du groupe CYCLONE d’organiser un rendez-vous pour les chercheurs intéressés par ces questions. Les rencontres RIC’2006 sont ainsi nées de cette volonté d’échange entre individus de disciplines différentes. Cet ouvrage a pour ambition de rendre compte de cette diversité en cinq chapitres. Carte blanche a été donnée aux membres du comité scientifiques qui ont souhaité apporter un point de vue personnel sur le sujet ; sept conférenciers de renom ont répondu à notre invitation pour apporter leurs éclairages et initier les échanges. Huit communications ont été sélectionnées par le comité scientifique afin de présenter des approches et des expériences concrètes. Enfin, deux derniers chapitres restituent des réflexions et des résultats élaborés ces dernières années par le groupe Intelligence collective de la Fondation Internet Nouvelle Génération, et le projet de recherche CYCLONE. Jean Michel Penalva Coordonnateur de l’ouvrage INTELLIGENCE COLLECTIVE Rencontres 2006 Ouvrage coordonné par Jean Michel Penalva SOMMAIRE I - Cartes blanches au comite scientifique RIC’2006 Yann Bertacchini Intelligence territoriale Posture théorique, hypothèses, définition................... 9 André Demailly L’intelligence collective, entre « crochets célestes » et « grues terrestres » .. 17 Francis Lapique Pour un observatoire-pilote ............................................................................. 27 Anne Mayere L’intelligence collective : une notion en chantier ............................................. 31 Guy Melançon Espaces collaboratifs, métaphores graphiques et exploration visuelle........... 37 Michel Moatti Acteurs sociaux, pensée commune et croyances collectives sur les domaines virtuels............................................................................................................. 43 Pascal Robert Les technologies intellectuelles entre théorie et politique ............................... 47 4 Intelligence collective : Rencontres 2006 II - Conférences RIC’2006 Bruno Bachimont Support de connaissance et intelligence collective héritage et individuation technique.................................................................. 55 Jean-François Dortier Des fourmis à Internet Le mythe de l’intelligence collective............................ 69 Pierre-Leonard Harvey Design communautique et coopération organisationnelle .............................. 81 Dominique Lestel Remarques sur l’Evolution de la Bêtise........................................................... 109 Pierre Levy IEML : finalités et structure fondamentale ....................................................... 117 Serge Proulx Pratiques de coopération et éthique du partage ............................................. 137 Louis Quere Confiance et intelligence collective ................................................................. 153 III – Communications RIC’2006 Evelyne Biausser Le projet en environnement complexe comme émergence d’intelligence collective ......................................................................................................... 163 Daniel Chamberland-Tremblay La médiation par l'espace intelligent, collaboration et communauté de soins à l'intérieur du domicile....................................................................................... 175 Michèle Dreschler Quels changements induits par les TIC pour la formation professionnelle des enseignants face au paradigme du KM et des communautés de pratiques ? . 189 Catherine Fekrane SMTIE, une opération d’intelligence collective à destination des PME : application au pôle de compétitivité MER PACA............................................. 207 Sommaire 5 Yvan Renou Sous-traitance d’intelligence et instrumentation socio-technique vers une théorie de « l’espace de coordination »............................................ 221 David Salvetat Les pratiques d’intelligence économique dans les entreprises européennes de hautes technologies ........................................................................................ 239 Jean-Marie Simonnet La forme organisationnelle : Réseaux informels cadre de l’échange d’information et gestion du risque .................................... 253 Olfa Zaibet Collectifs de travail et intelligence collective ................................................... 267 IV - Atelier FING RIC’2006 Godefroy Beauvallée Le groupe « Intelligence Collective » de la FING ............................................ 293 Jean-Michel Cornu Les thèmes de travail du groupe Intelligence Collective de la FING............... 295 Philippe Durance Auto-organisation et réflexivité des organisations comme fondements de l’intelligence collective ..................................................................................... 301 Arnaud Klein Séminaire Internet et nouvelles technologies Master Sciences de l’Information et des Médias............................................. 311 V - Atelier CYCLONE RIC’2006 Emmanuelle Jacques La conception numérique, entre espace intime et monstration A la recherche des intelligences collectives.................................................... 321 Serge-André Mahé Phénoménologie de l'intelligence collective le projet CYCLONE.................... 335 6 Intelligence collective : Rencontres 2006 Jean-Michel Penalva Typologie du travail collaboratif variations autour des collectifs en action...... 341 Joël Quinqueton Aspects socio-organisationnels dans les systèmes multi-agents l’intelligence artificielle en essaim ........................................................................................ 355 Pierre-Michel Riccio La construction de connaissances pour le travail collaboratif ........................ 367 I - CARTES BLANCHES AU COMITE SCIENTIFIQUE RIC’2006 YANN BERTACCHINI ANDRE DEMAILLY FRANCIS LAPIQUE ANNE MAYERE GUY MELANÇON MICHEL MOATTI PASCAL ROBERT 8 Intelligence collective : Rencontres 2006 Cartes blanches au comité scientifique RIC’2006 9 INTELLIGENCE TERRITORIALE POSTURE THEORIQUE, HYPOTHESES, DEFINITION YANN BERTACCHINI MAITRE DE CONFERENCES HABILITE A DIRIGER DES RECHERCHES LABORATOIRE I3M EQUIPE D’ACCUEIL 3820 UNIVERSITE DU SUD TOULON VAR INTRODUCTION Avec le recul, très court, d’une dizaine d’années d’un processus de type essai-erreur engagé sur le sujet et la tentative de délimitation d’un ‘nouveau’ champ de recherche en Sciences de l’Information et Communication, nous essaierons par cette contribution de proposer un cadrage de « l’intelligence territoriale » en tant que capacité d’intelligence collective mobilisable sur un territoire ou résultat d’une démarche collective. Nous fonderons notre propos sur l’acquis cumulé d’un ancrage théorique avec plusieurs expériences, recherches ou applications d’ordre pratique terminées, en cours et à venir. POSTURE THEORIQUE ET ENGAGEMENT DU CHERCHEUR ACTEUR L’intelligence territoriale, objet et champ scientifique, se pose à la convergence de l’information, de la communication et de la connaissance, traduit une relation « Espaceterritoire » et ses mouvements que sont la territorialité, en tant que phénomène d’appropriation ou de réappropriation des ressources, et le projet territorial lorsque l’échelon territorial arrive à le formuler. D’un point de vue épistémologique et méthodologique, l’expression, certes audacieuse, d’intelligence territoriale souligne la construction d’un objet scientifique qui conduit in fine à l’élaboration d’un méta-modèle du système territorial inspiré des travaux de Schwarz1 [Sch97]. Pour ce qui nous concerne, cette démarche ne vise pas exclusivement à une modélisation de nature systémique associée à une matrice des processus territoriaux de nature structuraliste et fonctionnaliste. Nous inscrivons nos travaux en Sciences de l’Information et de la Communication et, en tant que tels, ils se référent aux approches sociales, c’est-à-dire inter relationnelle, à la théorie systémique, c’est-à-dire informationnelle (théorie de l’information et de l’énergie associée imputable, entre autre, aux Tic) enfin, au constructivisme, c’est-à-dire à une approche communicationnelle en référence à la territorialité qui compose et recompose le territoire. Nous compléterons cette synthétique présentation en rappelant, comme l’ont souligné déjà d’autres travaux, dans d’autres disciplines, que l’étude d’un territoire sous tend une connaissance initiale incertaine, il est donc nécessaire de souligner le caractère heuristique de cette approche et que sur un 1 Schwarz E., « Toward a Holistic Cybernetics. From Science Through Epistemology to Being », Cybernetics and Human Knowing, Vol. 4 n° 1, Alborg, 1997. 10 Intelligence collective : Rencontres 2006 plan ontologique, nous nous référons à une pragmatique du territoire et de ses acteurs, du Chercheur dans sa relation avec la Société. Enfin, nous croyons utile de préciser que l’intelligence territoriale ne saurait se limiter et être réduite à une démarche de veille mais, relève plutôt d’une logique de projet de type « Bottom up » qui va tenter de diffuser les éléments d’une attitude pro-active ou d’anticipation des risques et ruptures qui peuvent affecter le territoire. Dans la poursuite de cette introduction plutôt de nature théorique, nous préciserons que notre conception de l’intelligence territoriale met l’accent sur, la solidarité de destin en réponse à l’accroissement de la complexité comme l’évoque la proposition de Morin [Mor05], p124 : la solidarité vécue est la seule chose qui permette l’accroissement de la complexité2 et d’autre part, compte tenu de l’inscription de nos travaux en S.I.C, sur l’enjeu associé à ce champ, à savoir que la communauté des enseignants chercheurs en Sic est invitée à adopter une attitude résolument pro active dans les mutations en cours en s’emparant des opportunités offertes par les pôles de compétitivité tout en ayant présent à l’esprit le défi que souligne Mucchielli, [Muc04] p146 « Les années à venir nous diront si les sciences de l’information & de la communication parviendront à se fortifier dans leur interdisciplinarité. ». DE L’ENVIRONNEMENT ET DES RESSOURCES A MOBILISER L'environnement du territoire et ses composants technologiques, financier, juridique, humain ont muté vers davantage de complexité. Mais, la complexification [Wag99] et son corollaire, l’incertitude, font peur. Les savoirs requis de la part des acteurs en charge de définir, d’appliquer et de suivre les réalisations d’une politique locale ont également évolué. Comment dès lors orchestrer ces mouvements pour bâtir une intelligence, que nous nommons territoriale en référence à un mouvement de développement du local, à partir des ressources localisées en mobilité ou latentes ? Nous présenterons dans notre contribution et ce, à partir de notre expérience, les hypothèses préalables à l’engagement ou Comment mobiliser des ressources locales après détecté leurs gisements de potentialités? UN PREALABLE A LA MISE EN COMMUN D'EXPERIENCES Pour prétendre à la dynamisation spatiale de leur contenu, les collectivités locales détectent puis combinent les compétences disponibles, localisées et/ou mobiles. Ce travail d’inventaire est opéré en vue de structurer leur capital de ressources et d’intelligences dans l’optique de faire aboutir une politique de développement. La connexion de ce capital latent ou révélé ne s’obtient pas dans tous les cas. Nous allons considérer le préalable à une tentative de développement territorial. Nous formulerons l’hypothèse suivante : «L'existence ou l'inexistence d'un réseau de relations entre acteurs locaux peut s'avérer être une barrière ou un catalyseur dans la construction ou la reconstruction du lien territorial.» [Ber00]. Ce tissu relationnel, physique ou virtuel, permet la mobilisation des compétences locales autour d'un objectif 2 Morin Edgar., Introduction à la pensée complexe, 158 p, « Points Essais », n°534, Seuil, Paris. Cartes blanches au comité scientifique RIC’2006 11 partagé et dans l’hypothèse de compétences complémentaires à réunir, à faciliter leur acquisition par un mode d’apprentissage approprié. Ainsi, puisqu'il y a inégalités d'accès, ces dernières engendrent des asymétries dans les mécanismes d'évaluation des auteurs de l'histoire locale. Sur la base de cette hypothèse, les espaces engagés dans la voie de leur médiatisation ne possèdent pas tous la même capacité d’accès au développement. Les informations transmises, échangées par leurs membres sont entachées d'une déficience, d'une déformation de leur contenu et dans leur incapacité à former le réseau relationnel. A priori, l'histoire de ces acteurs locaux ne leur permet pas ou leur interdit d'investir dans leur futur. A posteriori, la déficience du contenu de l'information échangée ne favorise pas leur adhésion au réseau. Dès lors, les relations affichées mais non partagées autour de cet objectif ne peuvent se reproduire durablement et compromettent la valorisation territoriale. La construction du lien social échoue et la transmission d’un patrimoine collectif ne s’opère pas. La tentative de médiation, l’intelligence territoriale, que nous proposons peut s’avérer être une réponse. LE POINT DE DEPART ET D’ARRIVE : LE CAPITAL FORMEL TERRITORIAL A l’origine physiques, les échelons territoriaux ont intégré ou intègrent progressivement les TIC. Ces dernières brouillent les découpages administratifs et favorisent l’émergence de territoires virtuels. Ainsi, la « société de l'information » se construit. S’il est primordial que les territoires intègrent ces technologies de l’information et de la communication, il est tout aussi nécessaire qu’ils la nourrissent, au risque de se trouver marginalisés sur un plan national comme international. Le processus d’intelligence territoriale que l’on peut qualifier de démarche d’information et de communication territoriales trouve ici sa pleine justification dans l’aide apportée à la constitution du capital formel d’un échelon territorial [Bert04]. A notre sens le capital formel d’un échelon territorial est le préambule à toute politique de développement, qu’il s’agisse de politique de mutation territoriale, de reconversion, ou d’innovation. Nous voyons bien ainsi, que les aspects portent en effet tout autant sur un volet infrastructures, réseaux de télécommunications à haut débit (tuyaux) que sur les supports et le contenu des documents numérisés créés grâce à ces outils. De tels enjeux intéressent tous les secteurs de la société, de l'éducation à l'économie en passant par la santé ; du monde de l'administration à celui de l'entreprise, en passant par le particulier. L’intelligence territoriale s’appuie sur un maillage de compétences pluridisciplinaires détenues par des acteurs locaux de culture et donc de codes différents. LES HYPOTHESES DE LA GRAMMAIRE TERRITORIALE D’un point de vue des S.I.C3, ce processus informationnel autant qu’anthropologique suppose la conjonction de trois hypothèses : Les acteurs échangent de l’information (génération d’énergie à titre individuelle, collective) ; 3 Sciences de l’information et de la communication. 12 Intelligence collective : Rencontres 2006 Ils accordent du crédit à l’information reçue (captation-échange de l’information) ; Le processus de communication ainsi établi, les acteurs établissent les réseaux appropriés et transfèrent leurs compétences (mobilisation et transfert d’énergie : formulation du projet). Lorsque ces hypothèses sont réunies et vérifiées, les gisements potentiels de compétences peuvent être repérées à l’aide d’une action d’information et de communication territoriales puis mobilisés dans la perspective de l’écriture d’un projet de développement. Nous pensons qu’il s’agit du préambule à la définition d’une politique de développement local de nature endogène apte à répondre au rapport concurrentiel à venir entre les territoires. INNOVATION ET LOCAL Le territoire sera prochainement plus orienté dans un rapport de force concurrentiel où le traitement de l’information sera essentiel [Her05]. Les mutations culturelles liées au développement des TIC, les nouvelles formes d’affrontement indirect résultant de cette évolution technologique sont encore mal identifiées par les acteurs du territoire. En exemple, la captation de l’installation d’une entreprise et des taxes locales associées avaient trouvé une solution prompte dans les contrats d’agglomération et de communautés de commune qui en mutualisaient les recettes ; ce faisant elle en limitait de fait un processus d’apprentissage dans la conquête de ressources. La mondialisation, les délocalisations obligent les pays à puiser dans les projets à dominante culturelle et touristique pour espérer capter quelques revenus d’une population de nomades aisés. La concurrence épuise l’originalité des projets et leur essoufflement ne résidera pas dans un aspect uniquement technique. Le territoire doit évoluer dans sa culture et accéder à une véritable mutualisation de l’information au sein d’un processus d’intelligence territoriale dont Bertacchini [Ber04] propose la définition suivante : « On peut considérer l’intelligence territoriale comme un processus informationnel et anthropologique, régulier et continu, initié par des acteurs locaux physiquement présents et/ou distants qui s’approprient les ressources d’un espace en mobilisant puis en transformant l’énergie du système territorial en capacité de projet [...] L’objectif de cette démarche, est de veiller, au sens propre comme au sens figuré, à doter l’échelon territorial à développer de ce que nous avons nommé le capital formel territorial ». Le territoire avec ses rites, ses héros, ses symboles et ses valeurs qui en constituent l’histoire, compose le théâtre d’un non-dit qui rythme les échanges entre les hommes. Il y a capitalisation d’une culture des signes et des postures (l’habitus de Bourdieu), [Bou94] p.24 qui établit une grammaire de communication et fonde l’identité du groupe local Ce constat se trouve au centre de la recherche sur les problématiques territoriales au Québec [Her04] et nous éloigne des prophéties béates sur les rôle des TIC [Sfe99]. DU TERRITOIRE POLITIQUE VERS L’IDENTITE TERRITORIALE La création d’un environnement favorable est un pré requis de toute innovation émergente au sein de la société ; c’est ce que Pélissier [Pel01] évoque dans la supériorité Cartes blanches au comité scientifique RIC’2006 13 des structures et Gourou [Gou73] p.26 dans les techniques d’encadrement. Un premier objectif est de créer localement un terrain institutionnel, informationnel, comportemental où les acteurs puissent exprimer leurs perceptions, enrichir leurs savoirs, affirmer leurs compétences et peser sur le processus de développement ; il porte sur l’environnement politique, la reconnaissance d’un pouvoir local, l’instrumentation technique et administrative et la remobilisation sociale des acteurs locaux. Les modalités d’échange des informations sont au centre de ces rapports. Cette approche du territoire consiste à définir le cadre conceptuel de l’accompagnement d’un processus démocratique ascendant et la proximité spatiale est au coeur de cette spécificité territoriale. Elle n’est pas forcément impliquante de proximité sociale et identitaire, mais relève d’une première étape de construction d’un nouveau territoire, à travers un processus graduel d’émergence d’appropriation territoriale, qu’il s’agit d’accompagner et de favoriser. Cette appropriation, phénomène de représentation symbolique par lequel les groupes humains pensent leur rapport à un espace matériel, ne peut se construire que par l’intégration progressive d’un sentiment local, au travers d’un processus mental collectif. Brunet [Bru90] nous a instruit que la prise en considération du seul espace vécu a montré ses limites et que l’émergence d’une identité territoriale ne peut pas se résumer à une activité économique, sociale ou culturelle commune dépourvue d’existence politique ou administrative reconnue. La seule facette du vécu au sein du local, n’est ni génitrice, ni constitutive du territoire. En témoignage, l’habitat de résidence secondaire n’est pas obligatoirement concourant à un engagement dans le projet local. Enfin, l’identité territoriale ne se réduit pas davantage à une identité politico juridique ou à l’enracinement dans un lieu ; il y faut cela, et quelque chose de plus : une conscience [Bru, Op.Cit]. Il s’agit ainsi de faire émerger un espace politique local [Lev97], dont les acteurs se sentent responsables et où se jouent des relations de pouvoir [Bou80] en vue de son appropriation [Raf81].Durkheim, [Dur77], p. 138 avance «Pour que les suffrages expriment autre chose que les individus, pour qu’ils soient animés dès le principe d’un esprit » CONCLUSION En conclusion temporaire : une évolution de la posture informationnelle. Cette capacité collective, l’intelligence territoriale, du territoire à anticiper les ruptures qui vont l’atteindre, nécessite la mise en œuvre d’une évolution de sa culture. Cette modification des relations et des échanges, une logique de projet, doit alors s’adosser à un autre traitement des signaux et des informations. Communiquer différemment en participant à un projet commun agit sur les liens individuels et modifie le rapport à l’autre ; ainsi la relation d’échange sort du quotidien pour accéder à une altérité du projet partagé puis il y a capitalisation et valorisation individuelles des missions ; cette mutualisation et mise en perspective des conjectures, sont autant d’opinions fondées sur les analyses d’hypothèses qui assurent un flux continu et interactif, formel et sémiologique d’une relation au groupe. La culture des organisations prend alors, par son aspect récursif, un caractère durable. Tout est affaire de sens. Au niveau de l’action de l’objet et dans l’identité acquise par l’acteur territorial ; il constitue ainsi un paradigme du sens et d’identité. Ainsi, la 14 Intelligence collective : Rencontres 2006 dynamique territoriale tire son existence de la complexification de ses réseaux agissant dans le débat social et l’énergie mise en oeuvre permet de faire évoluer un objet territorial nouveau. L’innovation territoriale endogène se nourrit de signaux internes et de flux d’informations externes. Il s’agit de capter des flux de données à traiter en continu pour dépister à temps la menace et éventuellement saisir l’opportunité. Les réponses collectées offrent un faisceau de nouvelles pistes à explorer dans le concept de mutualisation des connaissances. Cette capitalisation des signes et informations mise en perspectives, offre au local des futurs possibles aptes à déjouer la menace où l’incertitude. La création de cette posture d’anticipation porte en germe les attributs d’un outil démocratique partagé par les acteurs du local, les associant plus intimement à une vision stratégique territoriale. Le terme acteur, par la ressource partagée, prend alors tout son sens. Le Chercheur, dans notre conception, devient acteur du territoire. REFERENCES BIBLIOGRAPHIQUES [Bak93] H. Bakis : « Les réseaux et leurs enjeux sociaux », Paris, PUF, (1993) [Ber04] Y. Bertacchini : « Le territoire, une entreprise d’intelligence collective à organiser vers la formation du capital formel», Revue Communication & Organisation n°25, Les vallées : sens, territoires & signes, GREC/O, ISIC, Université de Bordeaux 3, (1er semestre 2004) [Ber00] Y. Bertacchini, Ph. Dumas : “How to federate some local resources by developing new link ?”, ISA Research Committee 23, in [http ://www.Third Triple Helix International Conference], Rio de Janeiro, Brazil, 26-29 April, (2000) [Ber04] Y. Bertacchini : « Mesurer la distance, Pensez la durée, Mémoriser le virtuel, Vers l’Intelligence territoriale -volet 2- », Collection Les E.T.I.C, Presses Technologiques, (octobre 2004) [Ber03] Y. Bertacchini : « Sophia Antipolis Ex Ante et Post : De la projection d’une vision territoriale à l’observation de ses représentations virtuelles », in L’héritage d’une utopie, Essai sur la communication & l’organisation de Sophia Antipolis, Ouvrage collectif,sous la direction de Jacques Araszkiewiez ,p.95, EdiSud, (juin 2003) [Ber01] Y. Bertacchini, H. Dou : «The Territorial competitive intelligence : a network concept », Actes du Colloque VSST’ 2001, Presses de l’Université Paul Sabatier p 101, Ecole Polytechnique de Catalogne, Barcelone, 15-19 octobre, (2001) [Bon00] M. Bonnet, D. Desjeux (sous la direction de) : « Les territoires de la mobilité », Sciences sociales & sociétés, Puf, 224 p, (2000) [Bou80] P. Bourdieu : « Le Sens pratique », Paris, éd. De Minuit, (1980) [Bru90] R. Brunet : «Le déchiffrement du Monde», in Géographie Universelle t. 1 Mondes nouveaux, (1990) [Cal91] M. Callon, B. Latour : « La Science telle qu’elle se fait », La découverte, Paris, (1991) Cartes blanches au comité scientifique RIC’2006 15 [Dur77] E. Durkheim : « La méthode sociologique, Les règles de la méthode sociologique », première édition 1895, PUF, (1997) [Fer99] J.P. Ferrier : « Le contrat géographique ou l’habitation durable des territoires », Entretien, Sciences Humaines N°98, (octobre 1999) [Gou73] P. Gourou : « Pour une géographie humaine », Flammarion, (1973) [Her04] P. Herbaux : « Le Développement territorial. Regards croisés sur la diversification et les stratégies », Ouvrage collectif sous la direction de Guesnier B et Joyal A, Edition Adicueer, Poitiers, (2004) [Her05] P. Herbaux, Y. Bertacchini : « La rupture, un des corollaires de la vitesse. L’intelligence territoriale, une posture d’anticipation », Actes du Colloque sur les Systèmes d’Information élaborée/Tic & Territoire : quels développements ?’, International Journal of Sciences for Decision Making, n°22 île Rousse, (2005) : [http ://isdm.univ-tln.fr] [Bot00] G. Le Boterf : «Les enjeux de la compétence collective.», Le Monde, 23 mai, (2000) [Pel01] N. Pélissier, D. Pages : « Territoires sous influence », Ed. L’Harmattan, Vol 2, (2001) [Jay93] H. Jayet, P. Wins : « Comment les entreprises se localisent-elles ? », Dossier de recherche 3/93, Rapport au Commissariat Général du Plan, Centre d’études spatiales, urbaines et régionales en économie, Université des sciences et Technologies de Lille, (1993) [Jay96] H. Jayet et al. « Structures économiques et barrières à l’entrée », Rapport au Commissariat Général au Plan, CESURE, 128 p, Lille I, (1996) [Lev97] P. Lévy : « L’intelligence collective, Pour une anthropologie du cyberspace », p.69, La découverte/Poche, Essais, (1997) [Mor05] E. Morin : « Introduction à la pensée complexe », 158 p, « Points Essais », n°534, Seuil, Paris, (2005) [Muc04] A. Mucchielli : « Les sciences de l’information & de la communication », 3e édition, Hachette, Les Fondamentaux, p.146, (2004) [Sel01] A.B. Seligman : « Complexité du rôle, risque et émergence de la confiance », Revue Réseaux, Hermes, n°108, vol 19, p37, (2001) [Raf81] C. Raffestin : « Pour une géographie du pouvoir », Litec, Paris, (1981) [Sfe91] L. Sfez et al. : « Territoire et communication », Quaderni, n°13, Paris, CREDAP, (1991) [Sch97] E. Schwarz : “Toward a Holistic Cybernetics. From Science Through Epistemology to Being”, Cybernetics and Human Knowing, Vol. 4 n° 1, Alborg, (1997) 16 Intelligence collective : Rencontres 2006 [Sto97] M. Storper : “The regional world.Territorial develoment in a global economy”, New York, Guilford, (1997) [Tet95] J.F. Tetu : « L’espace public et ses médiations », Hermes, n° 17, Paris, Editions du CNRS, (1995) [Wag99] E.Wagensberg : « Complexité contre incertitude », La Recherche, n°326, (1999) Cartes blanches au comité scientifique RIC’2006 17 L’INTELLIGENCE COLLECTIVE ENTRE « CROCHETS CELESTES » ET « GRUES TERRESTRES » ANDRE DEMAILLY ANC. MAITRE DE CONFERENCES DE PSYCHOLOGIE SOCIALE UNIVERSITE DE MONTPELLIER-III Dans son ouvrage « Darwin est-il dangereux ? », Daniel Dennett (1995) oppose les « crochets célestes » ou « skyhooks » aux « grues terrestres ». Le succès de ces expressions viendrait d’un pilote d’avion auquel la tour de contrôle aurait demandé de faire du « sur place » et qui lui aurait répondu qu’il n’était pas accroché à un « crochet céleste » et qu’elle pouvait éventuellement installer une « grue terrestre » pour qu’il puisse le faire. Dennett a repris l’expression « skyhooks » pour désigner la propension des hommes à raccrocher leur sort à une force surnaturelle ou « deus ex machina » qui les « machinerait » (étant entendu que seuls les philosophes ou les prêtres détiendraient les clés du sens et des fins de cette machination). Dans l’antiquité, ce furent le mythe védique de Prajapati, homme-dieu dont le corps donna naissance à toutes sortes de créatures terrestres, à la fois inégales et complémentaires, que seuls des sacrifices ininterrompus éviteraient de s’entredéchirer ; puis le mythe platonicien d’un monde de formes parfaites dont notre monde terrestre ne serait qu’une version dégradée et vouée à une dégénérescence que seul un régime aristocratique pourrait freiner. Lorsque le créationnisme commença à pâlir, ce furent l’idée lamarckienne d’une évolution vers la perfection et l’idée hégéliano-marxiste de la réalisation d’un projet divin ou d’un parcours déterminé4. Toujours selon Dennett, seul Darwin ne se serait raccroché qu’à des « grues terrestres », celles de variations génétiques aléatoires et de leur sélection par un environnement tout aussi contingent…. De nos jours, diverses thèses relatives à l’intelligence collective s’inspirent plus ou moins directement du darwinisme. On se demandera si elles s’accrochent à des « crochets célestes » ou des « grues terrestres ». On les mettra ensuite à l’épreuve sur deux points plus particuliers : l’idée de l’ouvrier collectif du langage et la sémiotique de Peirce. DES GENES BIOLOGIQUES AUX GENES CULTURELS Lorsque le Beagle regagne l’Angleterre en 1836 après un périple de 6 ans, Charles Darwin décante peu à peu ses idées sur l’évolution et les trouve si dangereuses (pour sa carrière et même pour sa vie) qu’il ne publie « L’origine des espèces » qu’en 1859. Pour l’essentiel, elles reviennent à dire : 1) que les traits héréditaires n’ont de cesse de se 4 Ce dernier cas relève davantage du « bootstraping » du baron de Münchhausen, mais prétendre s’envoler en tirant sur ses bottes, c’est aussi se raccrocher à des crochets célestes (prendre ses désirs ou ses fantasmes pour des réalités). 18 Intelligence collective : Rencontres 2006 reproduire ou de se répliquer ; 2) qu’ils peuvent de temps à autre subir des variations aléatoires ; 3) que l’environnement du moment sélectionne ceux qui lui sont plus adaptés (« fitter ») que d’autres ; 4) de sorte qu’il y a une évolution constante du patrimoine génétique de chaque espèce et parfois la disparition de certaines d’entre elles. Certes, Darwin n’avait aucune idée de la nature des gènes ni des lois de la génétique. Ses disciples intégreront ces aspects dans sa théorie, en développant les concepts de génotype et de phénotype et en avançant l’idée que les génotypes sont en quelque sorte éternels alors que les phénotypes ne font que passer. Pendant longtemps, ils maintiendront l’idée que l’évolution ne passe que par la transmission des gènes d’une génération à l’autre sans que les phénotypes aient quelque prise sur elle. Ils devront admettre cependant 1) que l’évolution a progressivement modelé tous nos organes, notamment notre cerveau ; 2) qu’il ne s’est pas produit de variations génétiques notables depuis homo sapiens, alors que l’humanité a connu des progrès fulgurants bien après son apparition. Les plus perspicaces commenceront d’abord à penser que les phénotypes, loin d’être les vecteurs passifs de leurs gènes, peuvent influencer la sélection de ces derniers et peser ainsi sur leur propre descendance. Bateman (1948) observe que les femelles drosophiles ont un nombre limité et à peu près égal de descendants, alors que la descendance des mâles peut varier bien plus considérablement (selon le nombre de femelles qu’ils ont approchées). William Hamilton (1964) émet l’idée que les hyménoptères femelles favorisent la transmission de leurs propres gènes en soignant plus particulièrement les larves de leurs sœurs (et non celles des mâles) au prix d’une stérilité précoce. Pour expliquer ce comportement, il souligne que les hyménoptères sont haplodiploïdes : les œufs de la reine qui ne sont pas fécondés donnent des mâles, tandis que les œufs fécondés donnent des femelles, de sorte que celles-ci partagent plus de gènes en commun (3/4) qu’avec les mâles (1/4) ou même leur éventuelle progéniture féminine (1/2). Pour Robert Trivers (1972), cette attention sélective expliquerait la proportion plus importante de femelles que de mâles (5/8 contre 3/8) et l’adaptativité remarquable des hyménoptères, notamment leur capacité d’essaimage. Trivers en déduit que les capacités d’adaptation peuvent provenir des sacrifices de certains phénotypes (ici les femelles) qui tendent à les handicaper (stérilité) au profit de la population et de l’espèce. C’est l’idée d’altruisme, considéré comme un « égoïsme éclairé » puisqu’il favorise certains gènes plutôt que d’autres. Mais cet altruisme de parentèle n’explique pas les prodigieux progrès de l’humanité en l’absence de nouvelles variations génétiques5. Richard Dawkins (1976) suggère alors que le progrès humain serait imputable à l’invention, souvent par des individus altruistes, de produits techniques et culturels qui allègent la peine des hommes et favorisent leur dissémination. Ces inventions se comporteraient comme des « gènes culturels » qui favoriseraient ceux qui les détiennent et s’en servent (notamment les armes, mais aussi certains outils tels que la roue ou la noria). Ces « gènes culturels » seraient de plus en plus diversifiés mais leur sort dépendrait en fait de leur usage : il y aurait un marché des 5 On pourrait même avancer que nos femelles ont plus favorisé la mort et la désolation que le progrès en participant de fort bon gré à la descendance de « machos » guerriers ! Cartes blanches au comité scientifique RIC’2006 19 gènes d’où survivraient ceux qui sont utilisés et développés par les phénotypes humains. Dawkins propose d’appeler « mèmes » ces gènes culturels pour souligner qu’ils peuvent se propager de manière exponentielle, notamment par imitation ou « mimétisme », et avancer qu’ils prendraient le relais des gènes biologiques dans l’évolution humaine. Essayons de récapituler les paradoxes de ce cheminement : 1) selon Darwin et les premiers néodarwiniens, les phénotypes n’ont aucune prise sur leurs génotypes, tant en ce qui concerne leur réplication, leurs combinaisons, leurs variations et leur sélection qui sont les seules « grues terrestres » et éminemment contingentes de la vie ; 2) certains néodarwiniens suggèrent que les phénotypes peuvent orienter l’évolution de leur population ou de leur espèce, au prix de sacrifices et handicaps (altruisme) qui profitent à celles-ci (autre « grue terrestre » qui confère cette fois plus de poids aux phénotypes) ; 3) pour expliquer les progrès de l’humanité en l’absence de toute variation génétique notable, Dawkins introduit la notion de « mèmes » qui redonne à nouveau l’avantage aux génotypes, à ceci près que ceux-ci seraient culturels tout en restant des « grues terrestres ». LES EMULES DE DAWKINS Dawkins ne se prononce pas clairement sur le statut des gènes culturels : faut-il les considérer au sens métaphorique (fonctionnant de manière analogue aux gènes biologiques mais sans en avoir réellement les propriétés) ou au sens littéral (constituant un système autonome doté des mêmes propriétés que les génotypes biologiques) ? Néanmoins, certains de ses propos, repris par Dennett (1995, chapitre 12), vont dans ce dernier sens et insistent notamment sur leur potentiel de réplication par imitation. Par ailleurs, Dawkins et Dennett privilégient les mèmes techniques qui orientent durablement les choix de société (en matière de transport, de santé ou de mode de vie). Parallèlement, d’autres penseurs émettent des idées similaires, tout en mettant l’accent sur la sélection des connaissances scientifiques produites par l’homme. Ainsi, Karl Popper (1968, 1972) anticipe-t-il sur Dawkins en esquissant l’idée d’un « 3ème monde6 » qui serait celui des idées ou connaissances enregistrées sur des supports matériels et qui serait constamment accessible aux travaux de réfutation présents et à venir ; lesquels travaux exerceraient un rôle analogue à celui de la sélection biologique par l’environnement. Plus tard, Edgar Morin (1987) s’inscrit dans ce sillage en évoquant l’idée d’une « noosphère » qui serait le lieu d’une confrontation dialogique (moins sélective que la réfutation poppérienne puisqu’elle admettrait plusieurs « vérités »). Thomas Kuhn et Herbert Simon se rattachent plus indirectement à ces courants. Ainsi, Kuhn (1970) critique Popper, non pour sa thèse d’un monde des idées mais pour la place qu’il confère à leur sélection. Pour lui, ce n’est pas la réfutation des idées qui importe (contexte de validation) mais leur émergence (contexte de découverte) au travers de divers paradigmes (façons de voir et de faire) qui s’affronteraient sans cesse par le biais 6 Le premier monde étant celui de la matière et de la vie ; le deuxième monde étant celui des comportements des créatures qui peuplent celui-ci (et, en ce qui concerne les hommes, celui de leurs croyances quant au sens de leur existence). 20 Intelligence collective : Rencontres 2006 de diverses communautés qui les soutiendraient. De son côté, Simon (1966, 1973, 1990) rejoint Kuhn sur l’importance de l’émergence des idées, tout en soulignant le rôle des processus de rétroduction7 dans celle-ci (modéliser le moins connu en s’appuyant sur ce qui l’est davantage) ainsi que l’importance d’une forme d’altruisme qu’il appelle « docilité » (capacité d’apprendre et acceptation d’apprendre d’autrui). LA CONCEPTION DE L’INTELLIGENCE COLLECTIVE Les automaticiens et les informaticiens se sont intéressés aussi aux hyménoptères et ont vu dans leurs comportements la manifestation d’une intelligence collective : comment des individus si rudimentaires peuvent-ils se comporter collectivement de manière si adaptée et si élaborée ? N’est-ce pas la preuve qu’on peut atteindre de pareilles performances à partir d’automates individuellement très limités ? Par la suite, certains d’entre eux reprennent l’idée de gènes culturels et de mèmes. Ainsi, Pascal Jouxtel (2005) plaide pour le développement d’une science « mémétique » qui étudierait leurs propriétés de réplication, de combinaison, de variation et d’adaptation. Sous l’influence de Susan Blackmore (1999) et surtout d’Howard Bloom (1995, 2000), il suggère cependant que les gènes biologiques et culturels seraient l’expression d’une intelligence globale qui nous machinerait sans que nous ayons prise sur elle. Ne serait-ce pas un retour aux « crochets célestes » ? De son côté, Howard Rheingold (2002) avance que les nouvelles technologies de l’information et de la communication, notamment Internet, vont rendre les foules plus intelligentes que les meilleurs individus isolés. Mais n’est-ce pas aussi transformer les « grues terrestres » de la communication en « crochets célestes » purement illusoires ? Sans contester la part de l’imitation, notamment dans l’usage de nouveaux objets techniques ou dans les mouvements de foules, on soulignera 1) que les usages massifs sont rarement les plus intelligents comme le montrent les exemples de l’automobile, de la Kalachnikov, de la télévision ou de l’informatique ; 2) que les foules développent davantage la bêtise ou la violence que l’intelligence. Sans contester la part de la transmission des savoirs et des savoir-faire dans l’invention de nouveaux objets techniques ou de nouvelles connaissances, on avancera 1) que les inventions passées ne contiennent pas nécessairement les inventions nouvelles, pas plus que les connaissances passées ne contiennent les connaissances à venir ; 2) que ces nouvelles inventions et connaissances restent le fait de quelques individus, bien que les mèmes de la communication et de l’information puissent accroître leur nombre et débroussailler leurs pistes d’investigation. Plutôt que de développer ces thèmes, on s’attardera sur deux points qui nous semblent cruciaux. En premier lieu, on a souvent parlé de « l’ouvrier collectif du langage8 » : les 7 Formalisés par N.R. Hanson (1958) qui s’inspire lui-même des thèses de C.S. Peirce sur le raisonnement abductif (1931-1935, 1958). 8 Cf. Robert Pagès (1988, p. 178) : « Implicitement et par sélection graduelle, l’ouvrier collectif du langage, depuis la préhistoire, travaille à former une socio-psychologie implicite qui nous est léguée ». Cartes blanches au comité scientifique RIC’2006 21 langues seraient-elles l’exemple emblématique de « mèmes » qui auraient des propriétés intrinsèques de réplication, de combinaison, de variation et d’adaptation ou seraient-elles plutôt des bricolages plus sujets à l’inertie, au flou polysémique et aux dérives sémantiques ? En deuxième lieu, on présentera succinctement la sémiotique de Peirce qui fournit, à nos yeux, le modèle le plus heuristique de la cognition et de la communication, en nous demandant en quoi il peut éclairer l’impact des les technologies informatiques et télématiques sur notre intelligence individuelle et collective. L’OUVRIER COLLECTIF DU LANGAGE Selon André Roman (2003), le langage et les langues naissent d’une mécanique des sons qui produit des racines : celles-ci sont en nombre limité dans certaines langues comme l’arabe, avec une consonne + une voyelle (CV) ou une consonne + une voyelle + une consonne (CVC), et plus nombreuses dans d’autres langues avec VC, CV, VCV, CVC, voire VCVC et CVCV. Ces racines vont engendrer les mots qui désignent les objets et les activités des grands domaines de l’existence (parfois par onomatopée, le plus souvent par convention), selon divers processus de différenciation (verbes, substantifs, adjectifs, adverbes) et de spécification (préfixes, suffixes, désinences). C’est ce qu’on pourrait appeler des variations. La syntaxe va permettre de procéder à d’autres combinaisons. L’usage va donner lieu à une sélection qui portera moins sur les racines que sur les mots qui en dérivent, ainsi qu’à de nouvelles variations (nouveaux mots ou dérivations, infléchissement de leur sens). Il y a bien là un travail collectif sur la langue. Mais reflète-t-il une intelligence collective ? Et si oui, la langue nous machinerait-elle ou la machinerions-nous ? Si nous étions machinés, les mots auraient tendance à s’autorépliquer, à engendrer leurs propres combinaisons et variations, à gérer leur sélection (avec l’ultime conséquence de conduire à des langues dont les barrières seraient aussi infranchissables que celles des espèces). Quelques exemples montreront que ce n’est pas le cas : plutôt que d’autoréplication, il faudrait parler d’inertie des mots ; plutôt que de variations des mots, il faudrait parler de variations de leur sens ; plutôt que de combinaison des mots ou des sens, il faudrait parler de « jeux de langage » ; plutôt que d’usage sélectif, il faudrait parler d’usage approximatif… En ce qui concerne l’inertie des mots, nous en avons un bel exemple avec le verbe français « pouvoir » qui désigne à la fois la capacité effective (physique ou intellectuelle) de faire quelque chose et l’autorisation sociale de le faire. D’autres langues disposent de mots qui distinguent nettement ces deux sens : « can » et « may » en anglais, « können » et « müssen » en allemand. Les Français se complaisent dans le mélange des genres, au point que j’ai été élevé dans l’idée que « rien n’était impossible en français » pour apprendre plus tard que nos troupes s’étaient lancées à l’assaut des mitrailleuses allemandes comme si elles se croyaient immortelles… L’expérience n’y a rien fait puisqu’on utilise plus que jamais ce verbe, en le substantivant même à la première occasion (prendre le « pouvoir » sans savoir qu’en faire !). D’où les désillusions, gueules de bois et déceptions qui s’ensuivent. Justement, le mot « déception » illustre bien les variations de sens. Dans le passé, le mot français « déception » signifiait « tromperie » (c’était aussi son sens en latin et ce l’est toujours en anglais). A la charnière du 19ème et du 20ème siècle, il en est venu à désigner le sentiment 22 Intelligence collective : Rencontres 2006 pénible d’avoir été trompé ; mais cela était prévisible après toute une période où l’on vous avait dit que tout était possible ! Idem également pour « confiance » qui s’applique autant à soi qu’aux autres, alors que la foi s’adresse plutôt aux dieux. Vous me direz qu’il en va de même en anglais pour « confidence » et « faith », mais les anglais disposent tout de même du mot « trust » pour désigner plus particulièrement la confiance en autrui qui manque cruellement aux français. Ludwig Wittgenstein, dans son Tractatus logico-philosophicus (1921), estimait que les mots reflétaient directement la réalité et que l’accès à la vérité passait par le tri de leurs combinaisons (sous forme d’énoncés ou de propositions)… Par la suite (1932, 1969), il a corrigé son tir en ne voyant dans les « jeux de langage » (y compris les langages formels) qu’un moyen de décrire au mieux les choses sans prétendre les expliquer… Bref, si les mots d’une langue peuvent être considérés métaphoriquement comme des « gènes culturels » hérités de nos ancêtres qui les ont rodés et tissés, ils ne « contiennent » pas les connaissances et peuvent seulement servir à les faire émerger9… à condition « de les prendre au sérieux », comme l’y invitait Brice Parain (1942). LA SEMIOTIQUE DE PEIRCE Bien que Charles Peirce soit décédé en 1914, sa pensée était en avance sur son temps et même sur le nôtre. Il considérait 1) que l’esprit humain ne traitait que des signes ; 2) qu’il était capital de connaître « les conditions nécessaires de la transmission de la signification par signes d’un esprit à l’autre, et d’un état d’esprit à un autre » (Collected Papers ; cf. Morand, 2004, pp. 61-62) ; 3) et que c’était le moyen de comprendre les conditions d’accès à la vérité. On notera aussi qu’il n’était pas loin de la conception extrême-orientale de la connaissance (cf. Nonaka & Takeuchi, 1995) : des connaissances tacites (sensations internes, perceptions externes, façons de voir ou de sentir les choses) dont certaines sont explicitées et conceptualisées puis combinées pour être à nouveau intériorisées. Surtout, il avait une conception ternaire du signe qu’il définissait comme « quelque chose qui est mis à la place d’autre chose (objet) pour quelqu’un d’autre (interprétant) ». On pouvait donc examiner le signe pour ce qu’il est en lui-même, dans sa relation à l’objet et dans son impact sur un interprétant ; étant entendu que ces trois aspects devaient être appréhendés ensemble et dynamiquement. Tout particulièrement, l’interprétant n’est pas l’interprète (l’individu) mais un ensemble de signes « déjà là » qui vont permettre de donner une signification aux signes provenant d’un interlocuteur extérieur ou d’un état d’esprit intérieur. 9 En matière de conception technique, Jean-François Quilici (1999) montre que les substantifs et les verbes s’attachent respectivement aux aspects organiques (de quoi c’est fait ? à quoi ça ressemble ?) et fonctionnels (à quoi ça sert ?) des choses, en restant plus « muets » sur leurs aspects relationnels (par rapport à quoi ? en vue de quoi ?). Il suggère cependant que ces aspects transparaissent parfois au travers des adverbes ou locutions adverbiales qui spécifient les verbes (conduire vite, prudemment, « à l’aveuglette », « au jugé », « sans secousse », « comme un fou », adroitement, « avec ses fesses », « à l’économie », etc.). Cartes blanches au comité scientifique RIC’2006 23 Ainsi, au niveau du rapport à l’objet, distingue-t-il les icônes10 (qui décrivent l’objet sans l’expliquer), les indices (qui relient certaines parties de l’objet à certains de ses comportements) et les symboles (qui représentent l’objet par convention). Ces signes vont activer différemment des interprétants selon de multiples combinaisons. Pour l’illustrer, on prendra deux exemples. L’un est emprunté à Norwood Hanson (1958) : Kepler dispose de multiples indices sur le mouvement de la lune (les données collationnées par Tycho-Brahé) mais il les rapporte d’abord à un interprétant circulaire puis à d’autres interprétants possibles (épicycloïdes) qui ne le satisfont pas (autre interprétant plus proche de la sensation interne) ; par la suite, l’interprétant « ellipse » lui semble plus élégant (autre interprétant du type « sensation interne ») et surtout plus conforme au faits (interprétants symboliques relatifs aux données empiriques). L’autre est emprunté à Bernard Morand (2004) : un véliplanchiste se lance dans le vide en espérant atterrir à tel endroit mais sans savoir où il atterrira effectivement ; le lieu d’atterrissage projeté deviendra son « interprétant potentiel » auquel seront rapportés tous les signes qui ponctuent son trajet (sensations internes, indications sur le vent et les obstacles, connaissances et savoir-faire techniques). Ces deux exemples ont trait à la cognition mais on aurait pu y ajouter des exemples relatifs à la communication, notamment aux échanges entre locuteurs de langues différentes (comment chacun d’eux déploie ses interprétants pour saisir les signes qu’émet l’autre). Ce modèle peircéen assimile les interprétants à un rhizome étendant ses ramifications dans de multiples directions, de sorte qu’elles saisissent et transforment les signes qui lui parviennent. Ce rhizome est certes géré dans et par les mémoires individuelles mais l’on devine combien les nouvelles technologies de l’information et de la communication peuvent l’enrichir. Ainsi, les thésaurus multilangues permettent de comparer d’immenses réseaux sémantiques qui sont autant de points de vue sur le monde ; les moyens hypertextes multiplient les images et les données dans les domaines les plus variés ; les langages-objet permettent d’appliquer les mêmes opérations de transformation à de multiples classes d’objets, faisant ressortir des similitudes ou des différences de comportement que l’on ne soupçonnait pas. Mais ces aides renforcent-elles une intelligence collective considérée comme le produit d’intelligences individuelles de plus e plus rhizomiques ou constituent-elles les prémisses et la manifestation d’une intelligence globale ? Selon nous, l’enrichissement collectif de Linux ou de Wikipedia plaide toujours en faveur de la synergie d’intelligences individuelles. Cette synergie découle d’un type d’organisation plus adapté à ce type de signes et fondé sur : 1) la vision d’un cap (celle de Linus Torvalds ou de Jimmy Wales) ; 2) l’autonomie des individus ; 3) une culture de la crise (et non de la bureaucratie) ; 4) le chevauchement des expériences et compétences ; 5) la variété des réponses. Or, ces traits sont ceux-là mêmes que Nonaka & Takeuchi 10 Les icônes se subdivisent elles-mêmes en images (qui se caractérisent par leurs capacités de description), en diagrammes (qui se caractérisent par leurs capacités de mise en relation des parties au tout) et en métaphores (qui se caractérisent par leurs capacités de mise en relation avec d’autres objets). Le raisonnement abductif part de l’observation d’un fait surprenant (dans une image ou un diagramme) et entraîne l’évocation de ses explications plausibles (le plus souvent par le biais de métaphores). 24 Intelligence collective : Rencontres 2006 (1995) utilisent pour décrire les organisations japonaises qui s’inspirent de la conception extrême-orientale des connaissances pour en favoriser la production et la valorisation. CONCLUSION Les perspectives darwiniennes et néodarwiniennes rétablissent des liens entre les différentes espèces animales que les philosophies extrêmement anthropocentriques de l’ontologie ou de la connaissance avaient coupés, les unes au profit de forces surnaturelles et les autres au profit d’une pensée individuelle et désincarnée. Elles nous évitent aussi de réduire le problème de l’intelligence collective à celui de la coordination d’individus par des signaux (phéromones) ou des signes. Il s’agit plutôt de savoir si les gènes culturels constituent ou non un système autonome qui prendrait le relais des gènes biologiques et machinerait les individus, de sorte que toute intelligence individuelle ne serait que le reflet d’une intelligence plus globale. Même si nous y avons répondu par la négative, cette question méritait d’être posée puisqu’elle nous rappelle que nous ne sommes que les vecteurs d’un génotype qui nous a été transmis dans un environnement que nous n’avons pas choisi. En revanche, ces gènes ont un support biologique que n’ont pas les mèmes. Et, jusqu’à preuve du contraire, seuls les systèmes biologiques constituent des systèmes autonomes (obéissant à des lois qui leur sont propres) et capables de se reproduire (Von Neumann, 1951), d’évoluer [Von62] et de réduire leur dépendance à l’environnement [Ash62)]. Au regard des exemples que nous avons donnés, il semble que la synergie de nos intelligences individuelles vers de meilleurs résultats collectifs dépende d’un meilleur jeu des signes à notre disposition, des plus corporels aux plus langagiers, par l’entremise de nouvelles aides techniques (notamment informatiques et télématiques) ou organisationnelles. RÉFÉRENCES BIBLIOGRAPHIQUES [Ash62] W.R. Ashby : “Principles of the Self-Organizing Systems”, pp. 65-69, in : “Mechanisms of Intelligence” : Ross Ashby’s Writings on Cybernetics. Salinas, Intersystems Publication, 1981, (1962) [Bat48] A.J. Bateman : “Intra-Sexual Selection in Drosophila”, Heredity, 2 (1948) 349368 [Bla99] S. Blackmore : “The Meme Machine”, Oxford, Oxford Universiy Press, (1999) [Blo95] H. Bloom : “The Lucifer Principle”, Trad. fr. « Le principe de Lucifer », Paris, Le jardin des livres, 2001, (1995) [Blo00] H. Bloom : “The Global Brain”, Trad. fr. « Le principe de Lucifer 2, Le cerveau global », Paris, Le jardin des livres, 2003, (2000) [Dar59] C. Darwin : “On the Origin of Species by Means of Natural Selection”, Trad. fr. « L’origine des espèces », Paris, Flammarion, 1992, (1859) [Daw76] R. Dawkins : “The Selfish Gene”, Trad. fr. « Le gène égoïste », Paris, Odile Jacob, 1996, (1976-1989) Cartes blanches au comité scientifique RIC’2006 25 [Den95] D.C. Dennett : “Darwin’s Dangerous Idea. Evolution and the Meanings of Life”, Trad. fr. « Darwin est-il dangereux ? L’évolution et les sens de la vie » Paris, Odile Jacob, 2000, (1995) [Ham64] W.D. Hamilton : “The Genetical Evolution of Social Behaviour”, Journal of Theoretical Biology, 7, 1-52 (1964) [Han58] N.R Hanson : “Patterns of Discovery”, Trad. fr. « Modèles de la découverte. Une enquête sur les fondements conceptuels de la science », Chennevières-sur-Marne, Editions Dianoïa, 2001, (1958) [Jou05] P. Jouxtel : « Comment les systèmes pondent. Une introduction à la mémétique » Paris, Editions Le Pommier, (2005) [Kuh70] T.S. Kuhn : “Logic of Discovery or Psycholology of Research ?” pp. 1-24, in : I. Lakatos & A. Musgrave (Eds). “Criticism and the Growth of Knowledge”, Cambridge, Cambridge University Press, (1970) [Mor04] B. Morand : « Logique de la conception. Figures de sémiotique générale d’après Charles S. Peirce », Paris, L’Harmattan, (2004) [Mor87] E. Morin : « Penser l’Europe », Paris, Gallimard, (1987) [Non95] I. Nonaka & H. Takeuchi : “The Knowlege-Creating Company”, Trad. fr. « La connaissance créatrice. La dynamique de l’entreprise apprenante », Bruxelles, Paris, De Boeck Université, 1997, (1995) [Pag88] R. Pagès : « Le long courant porteur du signalétique à l’informatique et la rétroaction sur la sociopsychologie », pp. 161-182, in : P. Ansart (Ed) : « Usages et mésusages de l’informatique dans l’enseignement de la recherche en sciences sociales », Paris, Centre de coopération universitaire franco-québécoise, Publications de la Sorbonne, (1988) [Par42] B. Parain : « Recherches sur la nature et les fonctions du langage », Paris, Gallimard, 2000, (1942) [Pei31] C.S. Peirce : “Collected Papers (Vol. I-VI)”, Cambridge, Harvard University Press, (1931-1935) [Pei58] C.S. Peirce : “Collected Papers (Vol. VII-VIII)”, Cambridge, Harvard University Press, (1958) [Pop68] K. Popper : « Une épistémologie sans sujet connaissant », pp. 119-164, in : K. Popper : « La connaissance objective », Bruxelles, Editions Complexe, 1978, (1968) [Pop72] K.Popper : “Objective Knowledge, An Evolutionary Approach”, Trad. fr. « La connaissance objective », Paris, Flammarion, 1991, (1972) [Qui99] J.F. Quilici : « Technique et dialectique », St-Imier (2610 Suisse), Association Ferdinand Gonseth, (1999) [Rhe02] H. Rheingold : “Smart Mobs”, Trad. fr. « Les foules intelligentes. La révolution qui commence », Paris, M2 Editions, 2005, (2002) 26 Intelligence collective : Rencontres 2006 [Rom03] A. Roman : « Interrogation sur deux énigmes posées par la culture et la langue arabes », Modèles linguistiques, 24, n°2 (2003) 139-169 [Sim66] H.A. Simon : “Scientific Discovery and the Psychology of Problem Solving”, pp. 286-303, in : H.A. Simon. “Models of Discovery and Other Topics in the Methods of Science”, Dordrecht, Reidel, 1977, (1966) [Sim73] H.A. Simon : “Does Scientific Discovery Have a Logic ?”, pp. 326-337, in : H.A. Simon : “Models of Discovery and Other Topics in the Methods of Science”, Dordrecht, Reidel, 1977, (1973) [Sim90] H.A. Simon : “A Mechanism for Social Selection and Successful Altruism”, Science, n°250, 1665-1668, (1990) [Tri72] R. Trivers : “Parental Investment and Sexual Selection”, pp. 136-179, in : B. Campbell (Ed) : “Sexual selection and the descent of man”, Chicago, Aldine, (1972) [Von62] H. Von Fœrster : “Principles of Self-Organization”, New York, Pergamon Press, (1962) [Von51] J. Von Neumann : “The General and Logical Theory of Automata”, Trad. fr. « La théorie générale et logique des automates », pp. 93-153, in : A. Pélissier & A. Tête (Eds). Sciences cognitives, textes fondateurs (1943-1950), Paris, PUF, (1951) [Wit21] L.Wittgenstein : “Tractatus Logico-Philosophicus”, Trad. fr. « Tractatus LogicoPhilosophicus », Paris, Gallimard, 1988, (1921) [Wit32] L.Wittgenstein : „Philosophische Grammatik“, Trad. philosophique », Paris, Gallimard, 1980, (1932, 1969) fr. « Grammaire Cartes blanches au comité scientifique RIC’2006 27 POUR UN OBSERVATOIRE-PILOTE FRANCIS LAPIQUE EPFL LAUSANNE La mutation de notre société a atteint un seuil critique. Nos certitudes fondamentales sont ébranlées, tout comme nos institutions les mieux établies. Liée durant des millénaires au « savoir » qui la légitimait en la stabilisant, l’Université, comme toutes les autres institutions, doit compter de plus en plus avec les réseaux qui, tel internet, « inventent » le futur en temps réel. A quoi doit contribuer non un super moteur de recherche mais un observatoire d’un nouveau type. Entretien avec les concepteurs d’une expérience pilote, à la pointe des connaissances, René Berger, docteur honoris causa de l’EPFL et Président d’honneur de l’Association internationale des critiques d’art et Francis Lapique, collaborateur scientifique à l’EPFL, créateurs de « Pour un observatoire-pilote » à l’adresse : http ://oeuf.epfl.ch. QUESTION PROFANE : QU’EST-CE QU’UN OBSERVATOIRE-PILOTE ? René Berger et Francis Lapique : Tout observatoire se définit traditionnellement par un « objet » qu’on découpe dans un champ de connaissance donné – observatoire astronomique, économique, linguistique, – et par un objectif à atteindre au moyen de l’action et de la méthode jugées les plus appropriées, scientifique, économique, politique. L’ensemble se situe dans une certaine conception qu’on se fait du monde – notre Weltanschauung – et de la place que nous y tenons. MAIS VOTRE OBSERVATOIRE-PILOTE EST UNIQUE EN SON GENRE. POURQUOI ? D’abord nous avons renoncé à découper le champ de la connaissance en « objets » spécifiques en mettant au jour des phénomènes en interaction dans leur mouvement même. Nous avons aussi renoncé au recours à des catégories ou à des genres fondés sur un mode de penser essentiellement rationnel, qui privilégie la relation de causalité locale et la logique binaire. Notre observatoire vise à envisager les phénomènes dans leur complexité transdisciplinaire. En prenant en compte leurs fluctuations, leurs turbulences, et, prioritairement, leur périodicité, l’observatoire-pilote s’affranchit de la pensée linéaire, toujours réductrice pour tenir compte du processus non linéaire, propre au déroulement des phénomènes. A la différence de la plupart des moteurs de recherche, notre site vise, non plus à atteindre des objectifs donnés au moyen d’un nombre exponentiel de références obtenues dans les délais les plus brefs, et au moindre coût, mais à suggérer des perspectives et des 28 Intelligence collective : Rencontres 2006 démarches concourant à dégager une vision responsable du monde à venir à partir de trois « orientations » majeures. La première orientation consiste à mettre au jour l’information non seulement dans sa « factualité » mais dans l’esprit de sérendipité11 qui ne cesse de montrer sa fécondité. Exemple fameux : Fleming découvrant la pénicilline sans l’avoir expressément cherchée. La deuxième résulte de l’accélération générale qui caractérise notre époque et qui nous incite instamment à tenir compte de la « modulation temporelle » issue des nouveaux techno-supports en ligne. Ainsi, pour nous en tenir à l’essentiel, nous faisons une distinction méthodologique entre les références quotidiennes, du type « news » en ligne, les références périodiques du type « revues », « magazines » , « journaux » et les références durables du type « encyclopédie », « dictionnaire » hier encore dominé par l’imprimé, aujourd’hui bouleversé par les formidables changements en cours. La troisième orientation prend, quant à elle, en compte les méthodes d’apprentissage automatique, un agent filtrant chaque jour un ensemble de sites web en fonction d’un champ d’observation donné. QUELS SONT LES POLES QUE VOUS AVEZ DECIDE D’OBSERVER ? Nous avons choisi de délaisser les rubriques couramment traitées dans la plupart des sites généralistes – politique, finances, bourse, jeux, divertissement, rencontres, quiz, etc. –, notre champ d’observation comporte actuellement sept pôles à titre expérimental : la génétique, le cerveau, les changements climatiques, la science dans la société, l’évolution, la physique et l’espace. CECI N’IMPLIQUE-T-IL PAS UNE REFORME TECHNIQUE EN PROFONDEUR ? Certainement, et à plusieurs niveaux ! D’une part en recourant aux outils les plus sophistiqués ; d’autre part – c’est l’une des originalités novatrices du site – en générant un esprit à la fois ouvert et collaboratif. QU’ENTENDEZ-VOUS PAR «COLLABORATIF» ? N’EST-CE PAS UN VŒU PIEUX ? Nullement. C’est au contraire un concept très précis, mais qui, par sa nouveauté, exige quelque effort pour y accéder. Un site « collaboratif » est un site dans lequel les internautes mettent en commun des informations, plus largement des contenus à travers quatre grandes étapes : • un membre s’identifie et accède à un espace privé au sein du site ; • le membre-rédacteur rédige un article, une brève ou tout autre document qui restent 11 Three principles of serendip : insight, chance, and discovery in qualitative research, www.ul.ie/~philos/vol2/deegan.html Cartes blanches au comité scientifique RIC’2006 29 d’usage privé aussi longtemps que leur auteur n’aura pas déclaré explicitement sa volonté de les partager avec la communauté ; • le rédacteur décide de publier leur contenu. Suivant le type de données et les règles en vigueur sur le site, l’information est soit directement mise en ligne, soit sujette à l’approbation d’un modérateur ou relecteur ; • le contenu publié est classé et indexé en fonction de son type, du circuit de validation associé et d’un ensemble de propriétés décrivant le contenu. QUELLE EST LA GENESE DE CE PROJET ? Tout a commencé en 1996 à l’occasion du site que nous avons créé sous le nom « d’Observatoire pour l’université du futur (OEUF) »12. L’actuel Observatoire-pilote en constitue le prolongement et le développement à partir de trois axes : • l’Observatoire proprement dit qui se propose de réunir les Regards de ceux soucieux de débusquer les signes et les orientations qui émergent dans notre société en changement accéléré ; • les Carnets qui sont destinés à recevoir les idées, intuitions, projets à l’état de notes, d’esquisses, d’essais, de mises au point. Chaque « observateur » dispose de « carnets virtuels » qu’il peut enrichir, modifier, illustrer, voire supprimer. Le but est de suivre le mouvement de la connaissance en train de se former ; • le Vocabulaire dynamique qui regroupe les termes, les locutions et les concepts qui s’introduisent dans la langue courante pour désigner les phénomènes en mutation ; ainsi real time, qui désigne les opérations qui se font simultanément pour un ou plusieurs utilisateurs tout au long de leur accomplissement. VOUS APPLIQUEZ UNE METHODOLOGIE NOUVELLE. POUVEZ-VOUS EN DIRE QUELQUES MOTS ? C’est bien de méthodologie nouvelle qu’il s’agit. Cette entreprise est en effet un pari. Elle se distingue de l’idée de programme. L’avantage du programme c’est d’être d’une très grande efficacité tant que les circonstances qui en permettent l’accomplissement sont favorables. Dans le cas contraire, le programme s’arrête ou échoue. Le pari, par contre, se détermine en tenant compte d’une situation aléatoire, d’éléments adverses, voire d’adversaires, et cette situation est amenée à se modifier en fonction des informations fournies en cours de route. QUEL EST LE « BUT ULTIME » DE VOTRE OBSERVATOIRE ? L’Observatoire-pilote ne vise nullement à rivaliser avec les entreprises encyclopédiques non plus qu’avec les banques de données toujours plus nombreuses ou les moteurs de recherche sans cesse plus rapides et sophistiqués. Son objectif est d’instituer – non pas 12 Projet ICA (Institute for computer Communica-tions and Applications), «portal» designed to pursue the observation of our rapidly changing society, 1997-2000, http ://oeuf.epfl.ch 30 Intelligence collective : Rencontres 2006 d’institutionnaliser – une recherche en commun à partir de la multi-dimensionnalité et de la complexité grandissantes qu’accroissent encore les technologies de la communication et des transports en pleine mutation. Sa volonté est de tenir compte des différentes approches, non seulement du savoir, mais de la connaissance qui, sans récuser le passé, s’ouvre aux valeurs en train de naître et au nouvel «esprit collaboratif» au cœur de la métamorphose en cours. L’espoir qui fonde et guide l’ensemble de cette initiative est de créer, à la faveur de l’Observatoire-pilote, les conditions propres à une meilleure compréhension du monde à venir en esquissant, la «vision» – ou les visions – que l’on peut progressivement s’en former. A notre société en mutation répond l’instance d’une conscience en formation, comme l’a jadis rappelé Socrate. Cartes blanches au comité scientifique RIC’2006 31 L’INTELLIGENCE COLLECTIVE : UNE NOTION EN CHANTIER ANNE MAYERE PROFESSEURE, LERASS, UNIVERSITE TOULOUSE 3 UNE NOTION EN CHANTIER : QUELLE INTELLIGENCE SUR ‘L’INTELLIGENCE COLLECTIVE’ ? La notion « d’intelligence collective » est encore loin d’avoir connue le succès qui est celui par exemple de la notion de management des connaissances, ou « knowledge management », dont on remarquera quelle sous-tend plusieurs communications à ce congrès. Elle a, dans son expression même, une dimension programmatique qu’il s’agit d’interroger, en la confrontant aux phénomènes observables et aux cadres d’analyse des organisations contemporaines. Cette expression est sous-tendue de potentiels jugements de valeur, compte tenu de la charge associée à chacun de ces termes. Il importe de ne pas confondre préconisation et analyse, au risque de ne se situer sinon que sur le registre d’un discours incantatoire sans prise sur les évolutions effectives. L’émergence de cette expression se situe au croisement de travaux relevant de l’essai philosophique [Lev94] et de sa reprise au sein des sciences de l’ingénieur et sciences informatiques ; sa mobilisation dans les sciences humaines et sociales reste circonscrite, avec semble-t-il une écoute plus particulière en sciences de gestion, et dans certaines composantes des sciences de l’information et de la communication. C’est en cela une notion intéressante puisqu’elle peut ouvrir un débat entre sciences informatiques et de l’ingénieur et sciences humaines et sociales. Cette mise en discussion ne relève pas de l’évidence. Une notion aux ancrages théoriques incertains peut favoriser une impression de convergence. Mais la discussion ne peut ignorer que les concepts et cadres d’analyse sont différenciés ; comme pour les communautés de pratiques dans les organisations [Tay00] ; [Tay06] (à paraître)), les chercheurs dans chaque grand champ disciplinaire mobilisent des cadres théoriques qui leur sont spécifiques. Le recours à des notions aux contours flous, faiblement articulées sur les cadres théoriques, accroît le risque des fausses évidences et des proximités trompeuses. UNE NOTION QUI RENVOIE A UN PROJET ET S’INSCRIT EN RELATION AVEC UNE EVOLUTION GLOBALE L’évolution dans laquelle s’inscrit la notion d’intelligence collective est celle de la maturation de ce que certains économistes proposent de désigner comme le développement d’un capitalisme cognitif, caractérisé en particulier par des connaissances devenues socle principal de la compétitivité [Cor01 ; Bou03]. Parties prenantes de cette évolution, les technologies de l’information et de la communication de transactionnelles ont évolué vers des technologies coopératives, avec 32 Intelligence collective : Rencontres 2006 pour matière première les interactions entre acteurs [Baz06]. Ces technologies sont élaborées, mises en œuvre et utilisées à travers ce qui peut être désigné comme un travail d’organisation [Det02]. Le travail d’organisation vise à mettre en forme la structuration des objets symboliques (données, informations et connaissances) et les relations entre les acteurs pour in-former leurs actions (Bazet, de Terssac, ibid). Ce processus d’ensemble contribue à ce que certains auteurs désignent comme le développement de « ‘rationalisations cognitives’ qui prolongent les rationalisations industrielles de la production en investissant spécifiquement les activités de transmission d’information, de communication, de mobilisation de connaissances » [Bou05, p 92]. A cette dynamique contribue le développement des progiciels de gestion intégrée ou ERP. Leur déploiement repose sur un paramétrage des actions au quotidien qui articulent étroitement, tissent ensemble les tâches liées à l’activité, et les opérations requises par la gestion, contribuant en cela à la montée en puissance de la logique gestionnaire [Baz04 ; Seg04]. Le périmètre traditionnel du knowledge management, cadre originel de la capitalisation des connaissances, a été en cela largement dépassé, avec toute une diversité de constituants du dispositif informationnel, tels que les intranet, workflows, entrepôts de données et logiciels collaboratifs ; ils participent à l’extension et l’intensification de la formalisation de tout une variété d’informations et de connaissances, qui vont de la façon de gérer une relation client aux formes de résolution des pannes, jusqu’au process lié à l’activité principale. Ces différents constituants s’inscrivent dans une logique globale de rationalisation du travail de l’information et des activités de communication. Il s’agit en particulier d’améliorer la substituabilité des acteurs individuels et collectifs, d’accroître l’interchangeabilité des individus et des composantes organisationnelles à travers la diffusion de ‘bonnes pratiques’ à l’échelle d’un groupe ou d’un domaine d’activités. Ainsi les ERP sont-ils supposés être programmés en fonction des bonnes pratiques dans telle ou telle fonction, allant de la gestion des approvisionnements, à la conduite des achats, à la gestion des ressources humaines, ou à l’organisation de la logistique. L’attrait que peut susciter une notion comme celle d’intelligence collective trouve une de ses sources dans sa contribution à des enjeux qui se nouent autour de l’information et des connaissances. Cependant, restent en suspend un certain nombre de questions qui doivent être précisées pour que cette notion puisse être mobilisée plus avant. UNE INTELLIGENCE, DES INTELLIGENCES La notion d’intelligence au singulier tend à renvoyer à un caractère générique de cette intelligence. On n’est pas loin des grandes références des Lumières à une intelligence ‘universelle’. Or ceci tend à occulter ce qui est constaté par nombre de ceux qui ont observé de près ces processus en organisations, à savoir le caractère pluriel des savoirs et de leurs formes de mobilisation. Cette pluralité est associée à celle des activités et des métiers, en particulier. Comme l’explicite Jim Taylor 2006 [Tay06] (à paraître), une organisation contemporaine est une combinaison de pratiques situées, chacune de ces pratiques étant développée par une communauté - groupe professionnel, collectif de travail…- avec ses mécanismes de gouvernance internes, ses modes de construction du sens ancrés dans la pratique de leur activité. Ainsi entre les personnels du bureau d’études et ceux de Cartes blanches au comité scientifique RIC’2006 33 l’atelier, si une intelligence relative au produit et à son mode de production peut être en partie partagée, elle mobilise tout un ensemble de savoirs spécifiques, et peut reposer sur une conception même de l’objet radicalement distincte (comme l’a bien montré Scardigli s’agissant des rapports entre concepteurs et pilotes des avions - [Sca01]). Des projets tels que ceux que vise la notion d’intelligence collective traversent ces communautés. Or, comme le relève Jim Taylor, c’est ce qui fait leur vulnérabilité : parce que ce qui est proposé ne fait pas nécessairement sens au regard de ce qui est élaboré par chaque communauté. De même, les technologies transactionnelles telles que projetées par les spécialistes de leur programmation et de leur paramétrage peuvent-elles se situer dans ce rapport d’étrangeté radicale au regard des groupes professionnels auxquels elles sont destinées. Ainsi, le caractère collectif de l’intelligence n’est en rien acquis d’avance. C’est le résultat éventuel d’un ensemble de traductions et d’ajustements, au travers desquels s’identifient des intérêts convergents, qui sont nécessairement partiels et circonstanciés. En effet, la motivation qui peut justifier ce partage de connaissances au sein de collectifs de travail et entre collectifs n’est pas donnée non plus, elle est à construire. Les travaux qui mettent en évidence les transformations liée au développement du travail de l’information dans les organisations montrent bien en quoi cet investissement additionnel dans une production « pour d’autres que soi » est soumis au feu de la critique, chaque fois que le retour ‘pour soi plus tard’ n’est pas identifiable ([Vac97] ; [May05]). INTELLIGENCE ET POUVOIR Si la notion d’intelligence collective peut présenter le risque d’occulter l’institution qu’est l’organisation, faite d’une combinaison interactive de communautés, elle tend aussi dans certaines de ses formulations à occulter les rapports de pouvoir et les enjeux associés à la mise en commun de connaissances et à l’élaboration collective d’une intelligence de situations ou d’actions en projet. Les organisations contemporaines reposent sur la mise en flexibilité de toutes les ressources, à la fois ressources décomposables en unités, comme les stocks ou les ressources humaines, et de sous-ensembles organisés de ressources, que constitue telle ou telle composante de l’entreprise ou de son environnement. Ainsi les entreprises ontelles depuis les années 80 travaillé à la mise en flexibilité des fournisseurs, avec des appels d’offre remettant régulièrement sur le chantier la question des sources d’approvisionnement sélectionnées. Ce qui a d’abord surtout valu pour les composantes externes a été progressivement étendu aux composantes internes, à travers le reingeniering et l’outsourcing. Il s’agit fondamentalement d’approches tendant à proposer une vision objectivée de l’organisation, en dissociant les questions de performance organisationnelle de celle des individus et collectifs parties prenantes, pour diagnostiquer ce qui est supposé répondre aux meilleurs critères d’efficacité du moment dans l’allocation des activités entre services internes et services externes. La notion d’intelligence collective, dans une formulation générique déconnectée de ceux qui en seraient les co-producteurs, peut être identifiée comme participant de l’idéologie sous-jacente à cette dissociation entre organisation et acteurs individuels et collectifs. Le collectif dont il est question n’est-il pas au bout du compte cette organisation allégée de 34 Intelligence collective : Rencontres 2006 toute allégeance aux individus et groupes sociaux qui ont participé à son développement, et qui contribuent à créer les conditions de ce projet d’optimisation par le dépassement de tous ces attachements ? La faisabilité de l’interchangeabilité organisationnelle, censée permettre par exemple de substituer en temps réduit et sans perte d’efficacité un prestataire externe à un service interne, ou vice versa, repose en bonne part sur la fabrique d’une interchangeabilité informationnelle et communicationnelle [May06]. Celle-ci repose sur un corpus commun de règles de formalisation de l’information, de méthodes d’approche de son traitement, et de valeurs associées. Cette fabrique repose sur des dispositifs socio-techniques convergents, allant des normes ISO 9000 aux approches processus en passant par les méthodes de déploiement des ERP. Dans un contexte où les ressource humaines sont flexibilisées, ou la substituabilité des acteurs individuels et collectifs devient la règle, le système informatisé d’information est censé rassembler la mémoire active des modes opératoires, des façons de faire, des critères de référence, non seulement au travers des données enregistrées mais au travers des logiques « pré-cablées » dans la programmation et le paramétrage de processus. Il y a ainsi instrumentation du travail de l’information. S’agit-il, au-delà, d’une instrumentation de la somme des intelligences requises pour mener à bien l’activité, voire d’une intelligence au moins en partie partagée, mise en commun, rendue collective, mise en chantier entre l’entité organisation et ceux qui en font partie ? Y a–t-il possibilité même d’une intelligence, au sens d’une faculté à comprendre et d’une aptitude à s’adapter à des situations nouvelles ? N’est-ce pas là en effet le projet principal autour de cette notion, et ce qui la différencierait de la capitalisation des connaissances ? En effet cette dernière, quoiqu’en aient dit ses concepteurs, est souvent considérée comme suspecte de constituer la connaissances en patrimoine plutôt que de favoriser l’innovation et la créativité. Mais si le projet de créativité est fort compréhensible, il n’est pas sûr que la seule incantation autour de la notion d’intelligence collective permette de dépasser les contradictions actuelles. En cela, plutôt que d’occulter ces tensions, il paraît essentiel de les mieux cerner pour que le projet puisse être évalué dans sa faisabilité. INTELLIGENCE COLLECTIVE, ENJEUX DE COMMUNICATION ORGANISATIONNELLE ET QUESTIONS POUR LA RECHERCHE Comme le relève G. Valenduc [Val05], de nombreux investissements dans les TIC privilégient une codification croissante des connaissances, souvent associée à une standardisation et une parcellisation des tâches de production d’information. Or les usages créatifs des TIC requièrent une communication interne facilitée et une compréhension globale des processus, des produits et services de l’entreprise, et de son organisation. De plus, l’intensification croissante du travail laisse souvent peu de place à l’apprentissage réflexif, alors même que ce « détour » s’avère constituer une condition pour passer de connaissances imbriquées dans un contexte donné, à des connaissances transférables dans d’autres contextes. Dès lors qu’elle est resituée dans ces enjeux organisationnels et sociaux, la notion d’intelligence collective présente l’intérêt de souligner une question-clé dans l’évolution Cartes blanches au comité scientifique RIC’2006 35 actuelle des organisations. L’organisation par processus peut être envisagée comme une façon d’expliciter et d’homogénéiser les modes opératoires, en même temps que de constituer un savoir partagé au plan des méthodes d’organisation et de certaines valeurs associées. Les démarches en termes de capitalisation des connaissances ou d’intelligence collective participent de ces démarches qui visent à conforter la transversalité des pratiques en formalisant le savoir et en organisant son partage entre communautés professionnelles. D’une certaine façon, ces démarches viennent reconnaître les phénomènes organisationnels et leurs logiques spécifiques. Une question-clé porte sur les cadres d’analyse mobilisés, implicitement ou explicitement, dans cette prise en compte renouvelée des phénomènes organisationnels, et parmi eux, du rôle-clé des processus de communication et de co-production d’information. De ce point de vue, la responsabilité des chercheurs en la matière est importante : les chercheurs en sciences humaines et sociales travaillant sur l’organisation, la communication organisationnelle et les formes d’intégration des TIC peuvent trouver dans ces enjeux renouvelés une base importante de reconnaissance, de possibilités d’observation voire d’action. Mais le risque d’une instrumentation des travaux ne peuvent être sous-estimés, notamment en ce qu’ils peuvent contribuer à une rhétorique tendant à donner une vision de l’entreprise sans enjeux de pouvoir ni rapports de force, dans lequel les individus et groupes sociaux se fonderaient spontanément et sans réserve dans un intérêt supposé commun ; les chercheurs en sciences de l’ingénierie et sciences informatiques sont également concernés, dans la mesure où les évolutions actuelles autour des technologies coopératives soulèvent la question de leur capacité : à penser l’organisation autrement que comme une somme d’individus ; à entrer dans un dialogue approfondi avec les approches d’autres communautés (scientifiques et de pratiques) ; et à concevoir des technologies faisant place à une communication ouverte, à une intervention des différents acteurs dans le design des dispositifs d’information et de communication, et ouvrant des possibilités diverses d’appropriation. REFERENCES BIBLIOGRAPHIQUES [Baz04] I.Bazet, A.Mayère : « Entre performance gestionnaire et performance industrielle, le déploiement d’un ERP », Sciences de la Société, n°61 (2004) 107-121 [Baz06] I.Bazet, G.de Terssac : « Les TIC-TAC de la rationalisation : un travail d’organisation ? », à paraître aux éditions Octarès, G. de Terssac (éd.), (2006) [Bou03] J.L.Bouillon : « Les dimensions organisationnelles d’un changement de régulation : essai de mise en perspective communicationnelle », actes du Forum de la Régulation 2003, Association Recherche et Régulation, Paris, actes sur cédérom, (2003) [Bou05] J.L.Bouillon : « Autonomie professionnelle et rationalisations cognitives : les paradoxes dissimulés des organisations post-disciplinaires », Etudes de communication, n°28 (2005) 91-105 [Cor01] A.Corsani, P.Dieuaidé, C.Azais : « Vers un capitalisme cognitif, Entre mutation du travail et territoire », éd. L'Harmattan, (dir.) (2001) 36 Intelligence collective : Rencontres 2006 [Lev94] P.Levy : « L’intelligence collective », éd. La découverte, (1994) [May06] A.Mayère : « Les activités de communication et de production dans les organisations : apports et enjeux de la recherche en SIC », Congrès de la Société Française des Sciences de l’Information et de la Communication, Bordeaux, (Mai 2006) [May05] A.Mayère, B.Vacher : « Le slack, la litote et le sacré », Revue Française de Gestion, hors série, « Dialogues avec James March », (2005) [Sca01] V. Scardigli : « Un anthropologue chez les automates », PUF, 244p, (2001) [Seg04] D. Segrestin : « Les ERP entre le retour à l’ordre et l’invention du possible », Sciences de la Société, dossier : Le mythe de l’organisation intégrée, n°61, (2004) [Tay00] J.R. Taylor : “ What is an organization ?”, Electronic Journal of Communication / La Revue Électronique de Communication, (2000) [Det02] G. de Terssac, K. Lalande : « Du train à vapeur au TGV : sociologie du travail d’organisation », PUF, (2002) [Vac97] B. Vacher : « La gestion de l’information en entreprise. Enquête sur l’oubli, l’étourderie, la ruse et le bricolage organisés », ADBS éditions, (1997) [Val05] G. Valenduc : « La technologie, un enjeu de société », éd. Bruylant-Académia, 251p, (2005) Cartes blanches au comité scientifique RIC’2006 37 ESPACES COLLABORATIFS METAPHORES GRAPHIQUES ET EXPLORATION VISUELLE GUY MELANÇON PROFESSEUR, LIRMM UMR 5506, UNIVERSITES MONTPELLIER 2 ET 3 LA VISUALISATION D’INFORMATION AU SERVICE DE L’INTELLIGENCE COLLECTIVE. Nous vivons dans une société où l'information est abondante. En 2001, le projet « How much information » de l’université de Berkeley rapportait que l'on avait produit cette année-là un exabyte (1 million de terabytes) de données dont 99,997% sont disponibles sous forme électronique seulement (voir [Kei01]). En 2003, la quantité d’information rapportée à la population mondiale correspond à 800 Mo de nouvelles données produites par personne en un an [Pet03]. Cette abondance d'information apporte toutefois sont lots de questions à résoudre. Nombre de champs de recherche se penchent actuellement sur la construction de méthodes et d'outils capables d'exploiter cette richesse d'information. Les approches visuelles pour l’exploration et l’exploitation de ces informations connaissent un succès grandissant ; elles misent sur la capacité de l’œil humain à traiter efficacement des informations graphiques en y identifiant des motifs structuraux complexes − selon Ware [War00], 40% des activités de notre cortex sont dédiées au stimuli visuels. La visualisation d’information s’inspire d’idées ancrées dans des traditions d’origines diverses, dont la statistique graphique, la cartographie, le graphisme par ordinateur, l’interaction homme-machine, la psychologie cognitive, la sémiotique, le design graphique et l’art graphique [Tuf83 ; Tuf90 ; Tuf97], [Car99], [Her00], [Spe01]. La visualisation porte ses fruits notamment lorsqu’elle vient en appui au travail de l’expert. C’est le cas en biologie et en bio-informatique [Sch01], par exemple, et dans nombre d’autres domaines d’applications (voir [Joh06]). Lorsqu’on lance une requête sur Google Scholar avec les mots-clés « large information space », c’est sans surprise que l’on trouve parmi les liens les plus pertinents (au sens de Google) les références aux travaux actuels en visualisation d’information. La complexité que l’on perçoit en première analyse lorsqu’on aborde des données massives est souvent inhérente aux données, à la complexité de chacun des attributs des données et à leurs agencements. Il suffit de penser par exemple aux données d’expression de la génomique ou de la protéomique, aux réseaux d’interactions de protéines très étudiés aujourd’hui à l’aide d’outils de visualisation. Or, une autre dimension vient aujourd’hui se glisser dans cette « complexité », sociale celle-là. La technologie s’ouvre à un type de navigation qui permet à l’utilisateur de suivre le cheminement des autres utilisateurs afin d’être guidée non pas par le contenu seulement mais aussi par l’usage. Familier de l’intelligence collective, il peut mettre à profit dans sa recherche d’information ce qu’il connaît ou croît connaître des autres utilisateurs appartenant à sa 38 Intelligence collective : Rencontres 2006 communauté. Il peut valider la pertinence des informations accédées par rapport à leur contexte social ou contexte d’usage ramené à sa propre expérience. Nous parlons de la navigation sociale telle que posée déjà en 1994 par Chalmers [Dou94], où l’utilisateur a accès à la « trace » des activités des autres [Die01]. Ici encore la visualisation d’information a son rôle à jouer. Elle peut apporter un appui décisif pour la navigation en révélant visuellement la dimension sociale de l’environnement exploré. Les travaux qui se sont penchés sur la navigation sociale [Eri00], [Rie03] distinguent souvent les systèmes permettant à l’utilisateur de percevoir directement la présence et l’action des autres, et ceux où la trace sociale n’est accessible qu’au travers de l’historique des usages de l’espace d’information et des échanges antérieurs à sa connexion. Nombre de travaux se sont penchés sur le travail collaboratif et sur les artifices à mettre en œuvre pour faciliter l’interaction synchrone entre utilisateurs afin de donner « corps » aux échanges favorisant l’émergence de comportements « sociaux ». La dimension spatiale, notamment aux travers des avatars, mais aussi de plongement dans des univers virtuels 2D ou 3D a le plus souvent été conçue de manière à apporter à l’utilisateur des indices visuels ou sonores rappelant l’environnement réel [Zha00], [Die01]. Cependant, deux autres dimensions sont présentes lorsqu’il s’agit de naviguer un espace d’information : la dimension sémantique et la dimension sociale [Dou94]. La visualisation d’information, parfois moins attaché à plonger l’information dans la géométrie euclidienne du monde réel, tente de concevoir des vues dominées par la dimension sémantique – le défi peut se résumer à trouver une correspondance entre « proximité » sémantique et proximité sur l’écran ou « proximité dans l’interaction ». Ainsi, on peut imaginer enrichir un corpus de documents (textes, audio et/ou vidéo) d’informations concernant leurs usages et leurs usagers. VISUALISATION ET FOAD On pourrait imaginer par exemple enrichir une plate-forme de formation FOAD de cartographies permettant à l’utilisateur, apprenant (étudiant) ou enseignant, de visualiser les liens entre les documents : proximité de contenus, mais proximité d’usage parce que des utilisateurs ayant consulté le premier document ont aussi consulté le second (« à la Amazon ») ; liens entre documents et intervention sur les forums, par exemple : parce que des utilisateurs ont échangé sur un exercice apparaissant dans le document, permettant ainsi à l’utilisateur de visualiser que cet échange est en rapport son objet d’étude et de consulter le fil de discussion sans avoir à rechercher les forums ; etc. Pourquoi ne pas permettre à l’utilisateur enseignant de superviser le travail d’un étudiant en lisant la cartographie augmentée d’indices décrivant son parcours personnel ? Plus généralement, si les concepteurs d’un cours en décrivent la cartographie dès sa conception en indiquant les liens entre objets pédagogiques, on imagine l’enseignant pouvant aller « piocher » parmi les objets pédagogiques ceux qu’il mettra au programme du semestre en visualisant leurs interdépendances. Du coup, la cartographie des objet pédagogiques sélectionnés déduite de la cartographie de tout le cours et pourrait être Cartes blanches au comité scientifique RIC’2006 39 accessible aux étudiants afin qu’ils décident d’une stratégie pour effectuer l’ensemble des activités du cours13. Des systèmes comme NusEye pour la navigation de contenus syndiqués [Jar05] ou celui de Wang et Chen [Wan04] propose des navigations de réseaux sociaux associant acteurs et contenus. Ces systèmes souffrent cependant de ne pouvoir traiter des informations massives impliquant plusieurs centaines d’utilisateurs, voire plus, et de grands ensembles documentaires ou espaces d’indexation. Typiquement, les espaces considérés sont des réseaux qui explicitent les liens entre utilisateurs, entre utilisateurs et documents ou entre documents. Lorsque l’on considère des ensembles de grandes tailles, utilisateurs et documents, et qu’il est de plus nécessaire de prendre en compte différents attributs ou types de relations, les réseaux deviennent engorgés et se prêtent mal au techniques de dessin de graphes traditionnellement utilisées en analyse des réseaux sociaux [Sco00] ; [Bat98], [Kau01]. Cette masse d’information éprouve aussi les techniques reposant sur des indices de centralités permettant d’identifier les acteurs clés et les « communautés » présentes dans le réseau. Plus récemment, des approches reprenant les travaux sur le clustering de graphes se sont penchées sur l’identification de communautés d’acteurs dans les réseaux sociaux. Ces techniques tirent profit de propriétés structurelles des réseaux dits « petits-mondes » (small world) appelés ainsi par Watts [Wat99 ; Wat03] en référence aux travaux originaux de Milgram [Mil67]. Les travaux de Auber et al. [Auber, Chiricota et al. 2003], ceux de Newman et Girvan [Gir02 ; New04] ou de Boutin et al. [Bou03 ; Bou04 ; Bou05 ; Bou06] proposent des méthodes permettant d’identifier la structure de communautés d’un réseau. L’adaptation de la méthode de Auber et al. au réseau du trafic aérien mondial offre des résultats prometteurs [Ami05]. Ces méthodes s’inspirent des idées présentes dans les travaux de Granovetter [Gra73] et décident du rôle d’un lien dans le réseau : lien « fort » apportant cohésion à l’intérieur d’une communauté, ou plutôt lien « faible » s’ouvrant sur l’extérieur. Le bénéfice de ce découpage tient à ce qu’il permet ensuite de naviguer dans le réseau en quête d’information. Les techniques de navigation conjuguant zoom et/ou déformations sémantiques (voir par exemple [Her00]) donnent ainsi à la fois une vue détaillée de quelques acteurs et documents tout en maintenant à vue la globalité de l’espace. Des indices calculés en fonction de la région visitée permettent à l’utilisateur de repérer des régions d’intérêt. L’application Vizster, bien qu’elle se limite à visualiser les acteurs d’un réseau, est une tentative allant dans cette direction [Hee05] qui se compare à certains produits que l’on trouve dans le monde commercial. Les métaphores visuelles sont un vecteur très performant de la pensée analogique et très présent dans les modes de communication en société (la publicité, en particulier, leur laisse une place de choix) [Mol99], [Sch02], [Phi04]. On peut miser sur la visualisation comme agent actif de l’intelligence collective. Cela exige de repenser la métaphore visuelle en y associant l’interaction. La visualisation d’information doit encore travailler 13 C’est déjà l’usage : les auteurs d’ouvrages didactiques proposent souvent en début d’ouvrage une sélection de chapitres pour un cours d’un semestre, et le présente parfois sous forme graphique. 40 Intelligence collective : Rencontres 2006 au développement de techniques qui s’inséreront dans les pratiques des usagers pour faciliter la recherche d’information et la navigation dans les grandes masses de données. Les efforts de recherche sur l’évaluation des systèmes de visualisation vont dans ce sens [Fek04], [Wij05]. Il y a fort à faire afin de mieux cerner les métaphores visuelles et les modes de navigation adaptés en fonction des données visualisées ou des tâches effectuées [Shn96], [Chi00]. Après une décennie de résultats concernant les aspects plus techniques de la discipline, l’étude des usages est mis au premier plan des travaux de cette communauté de recherche [Joh06]. REFERENCES BIBLIOGRAPHIQUES [Ami05] M. Amiel, G. Melançon and C.Rozenblat : « Réseaux multi-niveaux : l'exemple des échanges aériens mondiaux », M@ppemonde 79, (3-2005) [Aub03] D. Auber, Y. Chiricota, F. Jourdan and G. Melançon : “Multiscale navigation of Small World Networks”, IEEE Symposium on Information Visualisation, Seattle, GA, USA, IEEE Computer Science Press, (2003) 75-81 [Bat98] G.D. Battista, P. Eades, R.Tamassia and I. G. Tollis : “Graph Drawing : Algorithms for the Visualisation of Graphs”, Prentice Hall, (1998) [Bou03] F. Boutin, and M. Hascoët : “Focus-Based Clustering for Multi-Scale Visualization”, Proceedings of the Seventh International Conference on Information Visualization, IEEE Computer Society : 53, (2003) [Bou04] F. Boutin, and M. Hascoët : “Focus dependent multi-level graph clustering”, Proceedings of the working conference on Advanced visual interfaces. Gallipoli, Italy, ACM Press, (2004) 167-170 [Bou05] F. Boutin, J. Thièvre and M. Hascoët : “Multilevel Compound Tree Construction Visualization and Interaction”, Human-Computer Interaction Interact'05, (2005) [Bou06] F. Boutin, J. Thièvre and M. Hascoët : “Focus-based filtering + clustering technique for power-law networks with small world phenomenon”, SPIE Electronic Imaging / Visualization and Data Analysis, San Jose, California, SPIE IS&T, (2006) [Car99] S.K. Card, J.D. Mackinlay and B. Shneiderman : “Readings in Information Visualization”, San Francisco, Morgan Kaufmann Publishers, (1999) [Chi00] E.H. Chi : “A Taxonomy of Visualization Techniques Using the Data State Reference Model”, IEEE Symposium on Information Vizualization, IEEE Computer Society, (2000) [Die01] A. Dieberger, K. Höök, M. Svensson and P. Lönnqvist : “Social navigation research agenda”, CHI '01 extended abstracts on Human factors in computing systems. Seattle, Washington, ACM Press, (2001) 107-108 [Dou94] P. Dourish, and M. Chalmers : “Running Out of Space : Models of Information Navigation”, Ancillary Proceedings of BCS HCI'94, Glasgow, U.K., (1994) Cartes blanches au comité scientifique RIC’2006 41 [Eri00] T. Erickson, and W.A. Kellogg : "Social translucence : an approach to designing systems that support social processes", ACM Transactions on Computer-Human Interaction 7(1), (2000) 59-83 [Fek04] J.D. Fekete, and C.Plaisant : « Les leçons tirées des deux compétitions de visualisation d'information », IHM2004, International Conference Proceedings Series, Namur, Belgium, ACM Press, (2004) 7-12 [Gir02] M. Girvan and J.Newman : "Community structure in social and biological networks", Proceedings of the National Academy Science USA, 99 (2002) 78217826 [Gra73] M.S. Granovetter : "The Strength of Weak Ties", The American Journal of Sociology 78(6), (1973) 1360-1380 [Hee05] J. Heer and D.Boyd : “Vizster : Visualizing Online Social Networks”, IEEE Symposium on Information Visualization (INFOVIS'05), (2005) [Her00] I. Herman, M.S. Marshall and G. Melançon : "Graph Visualisation and Navigation in Information Visualisation : A Survey", IEEE Transactions on Visualization and Computer Graphics 6(1), (2000) 24-43 [Jar05] A.C. Jarrett and B. M. Dennis : “NusEye : designing for social navigation in syndicated content”, Proceedings of the 2005 conference on Diversity in computing. Albuquerque, New Mexico, USA, ACM Press, (2005) [Joh06] C. Johnson, R. Moorhead, T. Munzner, H. Pfister, P. Rheingans and T. S. Yoo, Eds. : “NIH-NSF Visualization Research Challenges Report”, IEEE Computer Society, (2006) [Kau01] M. Kaufmann, M. and D. Wagner, Eds. : “Drawing Graphs, Methods and Models”, Lecture Notes in Computer Science, Springer, (2001) [Kei01] D.A. Keim : "Visual exploration of large data sets", Communications of the ACM 44(8), (2001) 38-44 [Mil67] S. Milgram : "The small world problem", Psychology today 1(61), (1967) [Mol99] P. Mollerup : “ Marks of Excellence”, Phaidon Press, (1999) [New04] M. Newman, and M. Girvan : "Finding and evaluating community structure in networks", Physics Reviews E 69(026113), (2004) [Pet03] L. Peter and H. R. Varian : "How Much Information 2003", (2003), Retrieved March 2006, from http ://www.sims.berkeley.edu/how-much-info-2003. [Phi04] B.J. Phillips and E. F. McQuarrie : "Beyond Visual Metaphor : A New Typology of Visual Rhetoric in Advertising", Marketing Theory 4(1-2), (2004) 113-136 [Rie03] M.O. Riedl and R. St-Amant : “Social navigation : modeling, simulation, and experimentation”, Proceedings of the second international joint conference on Autonomous agents and multiagent systems. Melbourne, Australia, ACM Press, (2003) 361-368 42 Intelligence collective : Rencontres 2006 [Sch02] J. Schroeder : “Visual Consumption”, Routledge, (2002) [Sch01] M.D. Schroeder, J. van Helden and P. Noy : “.” Information Sciences 139(1-2), (2001) 19-57 [Sco00] J.P. Scott : “Social Network Analysis: A Handbook”, SAGE Publications, (2000) [Shn96] B. Shneiderman : “The Eyes Have It : A Task by Data Type Taxonomy for Information Visualization”, IEEE Conference on Visual Languages (VL'96), Boulder, CO, IEEE CS Press, (1996) 336-343 [Spe01] R. Spence : “Information Visualization”, Harlow, England, ACM Press/AddisonWesley, (2001) [Tuf83] E.R. Tufte : “The Visual Display of Quantitative Information”, Cheshire, CT, USA, Graphics Press, (1983) [Tuf90] E.R. Tufte : “Envisioning Information”, Cheshire, CT, USA, Graphics Press (8th printing), (june 2001) [Tuf97] E.R. Tufte : “Visual Explanations”, Cheshire, CT, USA, Graphics Press, (1997) [Wan04] J.C. Wang and C.-L. Chen : "An Automated Tool for Managing Interactions in Virtual Communities-Using Social Network Analysis Approach", Journal of Organizational Computing and Electronic Commerce 14(1), (2004) 1-26 [War00] C. Ware : “Information Visualization : Perception for Design”, Orlando, FL, Morgan Kaufmann Publishers, (2000) [Wat99] D.J. Watts : “Small Worlds”, Princeton University Press, (1999) [Wat03] D.J. Watts : “Six Degrees : The Science of a Connected Age”, W. W. Norton & Company, (2003) [Wij05] J.J. Wijk : “The Value of Visualization”, IEEE Visualization, IEEE Computer Society, (2005) 79-86 [Zhao00] Q.A. Zhao and J. T. Stasko : “What's happening? : the community awareness application”, CHI '00 extended abstracts on Human factors in computing systems. The Hague, The Netherlands, ACM Press, (2000) Cartes blanches au comité scientifique RIC’2006 43 ACTEURS SOCIAUX, PENSEE COMMUNE ET CROYANCES COLLECTIVES SUR LES DOMAINES VIRTUELS MICHEL MOATTI MAITRE DE CONFERENCE EN SOCIOLOGIE INSTITUT DE RECHERCHES SOCIOLOGIQUES ET ANTHROPOLOGIQUES UNIVERSITE MONTPELLIER 3 L’expression intelligence collective veut-elle définitivement signaler que nous sommes bien plus intelligents lorsque nous décidons de penser à plusieurs, de mettre en commun notre machine à produire, à concevoir, à imaginer ? L’émergence des réseaux, de la vie en réseau[x], au cours de ces dix dernières années signifie t-elle que nous avons fini de vivre seuls, isolés, et que désormais toute conception – réelle, virtuelle, logique ou onirique – ne se fera qu’ensemble, au sein de ces improbables parce que multiples – en sens comme en géométries – communautés virtuelles ? Oui. Et non. Oui, parce que désormais s’est ouverte – et ne se refermera sans doute pas de sitôt – la porte de l’autre et que d’une société toute repliée sur l’ego et le cocooning, la suspicion et l’indifférence, on est soudain passé (comme dans le Nosferatu de Murnau, il suffisait de passer le pont pour que les fantômes viennent à notre rencontre) à une société ouverte, curieuse, partageuse (du moins sur les domaines virtuels…) et multiple. Oui, parce que ces qualités généreuses ne sont apparues qu’avec l’idée que c’était justement l’échange – et je ne parle pas ici seulement de fichiers MP3 ! –, l’élan vers l’autre, l’intuition collective, les commerces symboliques entre pairs, les affinités partagées qui allaient faire mourir le vieux monde, les anciennes machines à diviser en même temps qu’elles formataient apparences et pensées, qu’elles mercantilisaient les rêves, les désirs et les phantasmes. Et non, parce qu’en donnant des espaces neufs à ces créations intelligentes, en ouvrant autant ou presque de domaines virtuels qu’il y a de désirs et d’échappées belles chez chacun d’entre nous, les communautés flottantes, les socialités nouvelles des mondes virtuels replacent l’individu, ses représentations – et son intelligence – au centre du jeu. Ces châteaux d’air, pour reprendre à Freud une de ses plus belles métaphores, construits au cœur des systèmes cybernétiques, proposent autant d’espaces vierges, secrets et intimes, où se logent, se lovent, depuis plusieurs années, nos machines à rêver. Que se passe t-il dans ces chambres obscures, ces chambres cachées du Net ? Ne pourrait-on imaginer que naît, dans ces isoloirs de l'Internet, une sorte de société retravaillée, refaçonnée à l'aune de désirs particuliers, des sortes de segments aux lisières du social « ordinaire », des poches de social, mais en même temps, créant des zones élargissant le social ordinaire, dilatant son périmètre originel, y greffant des annexes, des sortes de mises à jour – pour reprendre un terme admis dans le vocabulaire des cybernautes. On croirait voir là, dans cette escapade, cette fuite, la création d'un territoire 44 Intelligence collective : Rencontres 2006 ressemblant assez à la matérialisation de ce que Jean Baudrillard appelait « l'espacetemps de toute une simulation opérationnelle de la vie sociale »14. Sans doute ne faut-il pas conclure hâtivement que ces socialités par défaut ne sont que des pis-aller, des havres pour des naufragés du social, et leurs habitants des égarés, des solitaires, des exclus. Cet exil, cet exil cybérien, renvoie d’abord à une sorte d’action volontaire, de geste actif et non forcément subi. Volontaire, intelligent et collectif. C’est dire si ces exodes ne constituent pas obligatoirement un rejet, une expulsion pratiqué par un social agressif et bien décidé à se défaire de ses sujets peu consensuels, de ses scories, de ses agents trop absents ou trop timorés dans l’affirmation et le partage d’un pragmatisme, d’un utilitarisme et d’un rationalisme qui signe la modernité. Mais plutôt – et obscur renvoie alors plutôt à nocturne qu’à néfaste – ces recompositions communautaires dans les plis du secret de l’Internet et de son jumeau cryptique l’UnderNet15 contribuent à réimplanter dans la vie des hommes d’aujourd’hui du rêve et de la liberté que la pression du dehors et les obligations utilitaires avaient consumés. Il apparaît que les socialités non-conformistes, les efforts communs, les constructions, les relations affinitaires singulières, les sexualités rares ou insolites, les croyances étonnantes mais fédératrices, les compagnonnages fantasques ou grotesques rencontrés sur les newsgroups et les salons de conversation où les avatars brûlent de passions étranges constituent bien, au fond, autant de créations collectives, de formidables et neufs espaces de rencontres et de liberté. Ici, souvent, dans ces salons et sur ces forums, agir collectivement, penser à plusieurs, fusionner dans les exaltations d’un fétiche ou d’un topic, c’est renégocier les limites de certains possibles ; en fait pour les habitants de ces châteaux d’air, être ensemble, c’est être intelligent. L’exploration plus profondes des croyances collectives émergentes sur le réseau mondial – comme l’affirmation qu’Internet constitue si on sait le maîtriser, une fantastique machine à résister et à ne plus subir tel ou tel joug économico-politique – des sensualités inhabituelles ou remarquables, et qui trouvent sur l’UnderNet un espace sans équivalent dans la “vraie vie”, mais qui peuvent par simple capillarité à terme influencer ses débats, sont autant de projets communs, fédérateurs et consensuels qui restent, pour leurs sectateurs, à affirmer. N’est-il pas envisageable de penser que bientôt, certains usages nés du réseau glisseront dans les pratiques de la société « globale » ? Sans foncer tête baissée dans un cyberenthousiasme qui serait aussi grotesque que la cyberméfiance qui lui fait pendant, il s’agit simplement d’affirmer, avec Solveig Godeluck, que « la clameur qui monte du cyberespace doit être entendue. Elle déferlera inévitablement dans le monde réel. » 16. 14 Jean Baudrillard, Simulacres et simulation Paris, Galilée, 1981, p. 102. 15 Sur l’Undernet, voir Michel Moatti, “ Images de l’Undernet : secrets et partage sur le réseau mondial ”, Questions de communication n° 6, Presses Universitaires de Nancy, 2004. 16 Solveig Godeluck, La géopolitique d’Internet, Paris, La Découverte, 2002, page 12. Cartes blanches au comité scientifique RIC’2006 45 On a vu, lors du tout récent mouvement étudiant du printemps 2006 une ferveur collective, une exaltation commune qui a emprunté aux usages et aux lieux en ligne à la fois son élan et son modèle épidémiologique. Relayé par les supports et [certains] idéaux cybertechnologiques du moment, le mouvement étudiant a largement surpris ceux qui n’ont pas vu venir l’avènement conjoint de nouvelles espérances et de nouveaux médias et techniques de communications capables de les porter. Blogs, téléphones cellulaires, forums de discussions, email ont tous accompagné en temps réel les initiatives des étudiants dans leur refus du CPE [Contrat première embauche], nourrissant leur réflexion, facilitant la communication instantanée sur leurs projets d’action et garantissant dans le même temps leur médiatisation auprès du public et de la presse. Le pseudo – autre exemple – destiné lors des séjours en ligne à habiller les personnalités zigzagantes d’implications multiples et parfois contradictoires ne sera t-il pas bientôt d’usage courant dans la vraie vie, selon que l’on s’attelle à telle ou telle entreprise ? N’avons-nous pas déjà, la plupart d’entre nous, plusieurs vies, concomitantes ou successives, sociales, familiales puis intimes, et qui dessinent au fond cette silhouette improbable en forme de portrait chinois et qu’on appelle sa vie ? Ne sommes-nous pas, parfois, des avatars de nous-même, des réincarnations nées de déceptions, d’échecs, de reconstructions, des hétéronymes qui dressent un état-civil ambigu et multiple, kaléidoscopé sous la forme d’un parfait convoi dans lequel se sont rangés les wagonnets successifs de nos petits secrets ? C’est donc bien de recomposition dont on se rend témoin lorsqu’on observe ces vagabondages et ces rendez-vous secrets ou simplement chafouins qui pétillent là-bas dans les recoins de Cybérie, et non de reconquête. Car il s’agit bien d’un départ et non pas d’un retour. L’internaute des replis cybernétiques ne recherche pas la case départ des interactions anciennes, il réinvente, avec hésitation, maladresse, insolence et suffisance, parfois, mais avec quel panache, un nouveau domaine de l’être-ensemble. 46 Intelligence collective : Rencontres 2006 Cartes blanches au comité scientifique RIC’2006 47 LES TECHNOLOGIES INTELLECTUELLES ENTRE THEORIE ET POLITIQUE (A PROPOS DES OUTILS DE L’INTELLIGENCE COLLECTIVE) PASCAL ROBERT MAITRE DE CONFERENCES HABILITE A DIRIGER DES RECHERCHES EN SIC UNIVERSITES D’AIX-MARSEILLE 2 ET 3 Si l’intelligence est collective alors elle s’exprime forcément par le truchement d’outils, de dispositifs techniques. Ces outils, à la suite des travaux pionniers de Bell, Goody et Lévy, nous les appelons volontiers des « technologies intellectuelles ». Nous ne savons pas a priori ce qu’est une technologie intellectuelle ni quelles sont les différentes technologies intellectuelles. C’est pourquoi nous avons construit une « machine conceptuelle » qui permet à la fois de la définir sur un mode générique et d’en dresser (et discuter) la liste. A la différence du philosophe pour lequel la question est déjà réglée, ou à la différence du sociologue qu’elle n’intéresse pas, puisqu’il se concentre sur le seul usage d’une technique qu’il ne modélise pas, nous pensons que les sciences sociales doivent modéliser pour savoir de quoi elles parlent. Cependant, puisque nous ne sommes ni ingénieur ni systémicien, cette modélisation ne peut suffire, c’est pourquoi elle doit toujours s’inscrire dans un espace dans lequel elle entre en tension avec une approche critique qui ne néglige pas les enjeux politiques de la technique. C’est ainsi que j’ai proposé une première esquisse d’une théorie générale des technologies intellectuelles17 dont je reprends ici succinctement les grandes lignes du processus de modélisation de base (Cf. I) ainsi que la perspective de macro-sociologie politique (Cf. II). 17 Cf. Robert, pascal, « Qu’est-ce qu’une technologie intellectuelle ? », Communication et langages, n°123, Armand Colin, Paris, 2000, pp. 97 à 114. « Vers une typologie des technologies intellectuelles », Communication et langages, n°125, Armand Colin, Paris, 2000, pp. 98 à 115. « Pour une « histoire » et une « causalité » non linéaires des technologies intellectuelles », Journée d’étude du groupe Réseaux de la SFSIC « Réseaux d’information et non linéarité », CEMGRESIC, Bordeaux, 2001. « Des machines à remonter le temps ? La photographie, l’informatique et le paradoxe de la simultanéité », Communication et langages n°134, Décembre 2002, Paris, pp. 111 à 123. Cf. également Robert, Pascal, Le modèle CRITIC, contribution à l’élaboration d’une théorie macro-sociétale critique de l’informatique en sciences de l’information et de la communication, HdR en SIC, sous la direction d’Y. Jeanneret, Université Paris-IV-Sorbonne, Paris, 2004, 2 volumes de 152 et 215 pages accompagnés d’un recueil d’articles et de communications. 48 Intelligence collective : Rencontres 2006 APPROCHE THEORIQUE : LE PROCESSUS ET L'OPERATION DE CONVERSION J. Goody a montré que la liste est un outil qui produit de nouvelles aptitudes intellectuelles parce qu'elle permet de travailler dans un espace à deux dimensions18. En effet, alors que la parole est prise dans la linéarité -ce que nous compensons en partie par le réseau dialogique de la conversation-, la liste offre d'emblée un jeu de traitement de l'information qui repose justement sur la possibilité d'utiliser un espace de deux dimensions. Notre proposition théorique se veut en quelque sorte une systématisation et une extension de cette remarque de Goody. Les technologies intellectuelles sont ainsi définies, à ce niveau interne, comme des techniques de traitement de l'information dont la possibilité même du processus dépend d'un travail sur le jeu des différentes dimensions qu'elles rendent accessibles : la « feuille », comme surface quelconque d'inscription offre donc ses deux dimensions comme condition de possibilité d'un traitement graphique de l'information. Si le passage d'une à deux dimensions est possible il n'est pas théoriquement aberrant de supposer que d'autres passages, que nous appelons « conversion de dimensions » soient également possibles entre dimensions supérieures : de 2 à 3, de 3 à 4 etc. Nous avons donc exploré la logique de cette hypothèse, afin de savoir : jusqu'où pousser le principe, si l'opération de conversion peut a soi seule circonscrire une technologie intellectuelle, et quelles technologies existantes peuvent correspondre à ces différents espaces. Nous allons maintenant brièvement présenter les résultats de ce travail. Par processus de conversion j'entends un processus qui dépasse la seule opération de conversion des dimensions, qui ne suffit pas à elle seule pour véritablement circonscrire une technologie intellectuelle. Elle s'articule en fait à un jeu de quatre opérations. Car l'outil -qui n'existe pas en dehors d'une concrétisation matérielle socialement construite- : est un outil régulé (c'est dire qu'il possède, et a donc acquis, un ensemble de dispositifs qui le mettent en forme, qui le formatent en quelque sorte), de gestion du nombre (de la complexité, d'un grand nombre d'hommes, de signes ou de choses simultanément, ce qui exige de s'extraire de la linéarité), qui opère une traduction de l'événement en document (fixation et enregistrement), par la conversion des dimensions. Autrement dit, l'opération de conversion des dimensions s'exerce sur une matière, qui sert de support à un document à formater qui peut être utilisé comme instrument de gestion du nombre au sein d'une société. 18 Cf. Goody, Jack, 1979, La raison graphique, Minuit. Cartes blanches au comité scientifique RIC’2006 49 Les différents types de conversion se déclinent de une dimension (1D) sur deux dimensions 2D (passage des mots pris dans la linéarité d'une parole à leur inscription dans une liste) à ND sur 4D, soit au total 9 positions (Cf. le tableau ci-joint) ; Ces 9 positions s'articulent à un travail sur 2D, 3D et 4D, qui, à plus ou moins une position près, définit trois « raisons » -la raison graphique, la raison classificatrice et la raison simulatrice. Trois raisons ordonnées à trois modalités de la conversion des dimensions : la conversion d'un format inférieur à un format supérieur correspond au traitement (T) de l'information (1D sur 2D ou 2D sur 3D ou 3D sur 4D), la variation d'échelle au sein d'un même format équivaut à une navigation (N), alors que la conversion d'un format supérieur à un format inférieur renvoie à une modélisation (M) (3D sur 2D, 4D sur 3D, ND sur 4D). TABLEAU 1 : CONVERSION DES DIMENSIONS ET TECHNOLOGIE INTELLECTUELLLES Raisons Raison graphique Raison Classificatrice Raison simulatrice Conversion des dimensions Technologies Intellectuelles Ecritures Technologies Intellectuelles Images T = 1D sur 2D N = 2D sur 2D M = 3D sur 2D Liste & graphiques Graphiques Plan & Carte Dessin Technique T = 2D sur 3D N = 3D sur 3D M = 4D sur 3D Livre Classeurs Encyclopédie Livre T = 3D sur 4D N = 4D sur 4D M = ND sur 4D Mécanographie Mécanographie Informatique Photo Cinéma Informatique Encyclopédie Avec : • graphiques = courbes, diagrammes, arborescences etc. • classeurs = bibliothèques et armoires. Les différentes déclinaisons de l'opération de conversion traduisent de fait une gradation de niveaux de complexité ; ce qui ne signifie cependant pas que les technologies intellectuelles retenues sont susceptibles de se substituer les unes aux autres, parce que les niveaux de complexité n'éliminent pas les différences de support, de matière. On peut ainsi « simuler » n'importe quelle autre technologie intellectuelle sur informatique, sans pour autant que celle-ci puisse totalement s'y substituer, car les propriétés des deux « matières » restent quant à elles singulièrement distinctes. Autrement dit, un texte sur 50 Intelligence collective : Rencontres 2006 papier, par exemple, possède encore quelque chose, qu'il doit au papier et une longue tradition d'impression, d'irréductible au support informatique -et réciproquement. Soulignons enfin qu'écriture et images ne constituent pas à nos yeux des technologies intellectuelles en tant que telles. Elle occupent une place beaucoup plus fondatrices. Elles sont aux conditions de possibilité de toute technologie intellectuelle, en position de métatechnologies intellectuelles. MACRO-SOCIOLOGIE POLITIQUE Une technologie intellectuelle -comme toute technique- ne se développe dans une société que si elle peut être enrôlée dans des jeux qui travaillent essentiellement sur et avec le couple réversibilité/irréversibilité. Il s'agit, pour s'inspirer de Latour19 de savoir comment quelque chose parvient à s'assurer ou à être assuré d'une certaine réversibilité -toujours locale- ou d'une certaine irréversibilité -toujours locale également. Dire qu'une technique participe à renforcer l'irréversibilité -qui encore une fois est toujours relative et locale dans l'espace et le temps- d'un processus, d'un projet, d'une autre technique ou d'une institution, c'est dire qu'elle lui apporte des ressources susceptibles de rendre beaucoup plus difficile et coûteuse sa déstabilisation et tout retour en arrière. Dire d'une technique qu'elle favorise la réversibilité, c'est dire que l'on mobilise dans un processus, un projet, une autre technique ou une institution, des ressources susceptibles de les déstabiliser, de les faire changer d'état donc, et de passer d'un état relativement cadré, calé, posé, à un état d'incertitude et/ou de dégradation, et ce, si possible à un moindre coût (financier, humain, organisationnel etc.). Où donc il est question du pouvoir, et deux fois plutôt qu'une : en effet, il s'agit de comprendre comment un pouvoir est déstabilisé ou renforcé dans sa stabilité ; ce qui signifie que celui qui maîtrise ces ressources possède lui-même un indéniable pouvoir. Toute macro-sociologie des technologies intellectuelles comme formes concrètes de ces ressources est inévitablement une sociologie politique. Prenons l'exemple des imprimés, notamment du livre imprimé, et singulièrement de son émergence lors de la Réforme de Luther. Sans tomber dans une lecture par trop mécaniste des travaux désormais classiques d'Eisenstein20 notamment, il n'est pas aberrant de considérer que l'imprimerie a joué à court terme un rôle en faveur de la réversibilité du pouvoir global de l'Eglise romaine, au profit de l'irréversibilité bien fragile -et qui a d'autant plus besoin de ressources- de la Réforme ; puis, à moyen terme elle joue en faveur de l'irréversibilité du pouvoir de l'Eglise catholique sur ses terres grâce au travail d'éducation des jésuites ; enfin, on peut estimer qu'elle joue à plus long terme à nouveau une réversibilité du pouvoir de l'Eglise au profit d'une culture laïque et « scientifique », dont elle assure la relative irréversibilité. Où l'on voit donc que la réversibilité des uns n'est autre que l'irréversibilité des autres. Où l'on voit également 19 Cf. Latour, Bruno, 1992, Aramis, ou l’amour des techniques, La découverte. 20 Cf. Eisenstein, Elisabeth, 1991, La révolution de l’imprimé, La découverte. Cartes blanches au comité scientifique RIC’2006 51 qu'une technologie intellectuelle ne joue pas à long terme seulement en faveur ou contre une institution. Où l'on voit enfin qu'une technologie intellectuelle n'est jamais neutre socialement. Si des acteurs mobilisent -entre autres- des technologies intellectuelles c'est bien parce que celles-ci sont dotées de propriétés singulières qu'ils peuvent faire jouer, croient-ils, à leur bénéfice et donc accroître leur propre irréversibilité relative ou accroître le coût de sa réversibilité, autant qu'ils affaibliront l'irréversibilité relative de leurs concurrents, ou rendront le coût de leur réversibilité plus faible. A la suite de Latour21, on peut avancer que les technologies intellectuelles possèdent essentiellement trois propriétés : la stabilité, la mobilité (circulation dans l'espace ou transmission dans le temps) et l’accumulation. Stabilité car le document n'est tel qu'à condition d'être muni d'une relative stabilité dans l'espace et le temps ; et c'est bien parce qu'il est lui-même stable que le document peut participer à des processus de dé-stabilisation ou de stabilisation : dans un cas il offre une certaine crédibilité à celui qui veut se poser comme une alternative pertinente (ex : la Réforme face à l'Eglise catholique), dans le deuxième il renforce par sa propre stabilité une stabilité déjà acquise (l'institution et son livre ou le livre et son institution). Mobilité, car le document, stable mais léger peut voyager dans l'espace et le temps ; ce qui participe là encore à des mouvements de dé-stabilisation ou stabilisation : soit que la dissémination du document dans l'espace atteste de la prégnance d'une idée nouvelle (Luther diffuse ainsi mieux les siennes et plus vite qu'un Zwingli), lui permet d'occuper le terrain -donc de se stabiliser- et dans le même pas de faire pièce au pouvoir institué. Accumulation, car le document gagne à une accumulation intelligente, c'est-à-dire structurée et gérée, donc efficace intellectuellement. Une accumulation qui joue sur sa propre irréversibilité -c'est-à-dire le coût de création d'une concurrence crédible-, là encore soit pour renforcer l'irréversibilité du pouvoir qu'elle sert, soit pour s'opposer, rendre un tant soit peu réversible, le pouvoir en place : l'Encyclopédie, dès lors qu'elle existe offre une masse de connaissances autrement inaccessible à un grand nombre de lecteurs potentiels, auquel le pouvoir ne peut s'opposer que par une bien inefficace interdiction ou par un investissement équivalent -en l'occurrence très coûteux puisqu'il exige une véritable volonté politique et la mobilisation de ressources financières et humaines considérables. Cette démarche ouvre l'espoir de l'élaboration d'une véritable théorie générale des technologies intellectuelles qui sache réarticuler les frères si souvent ennemis de l'histoire politique et de la théorie. Car nous avons besoin des deux ; nous ne pouvons pas faire l'économie de l'un ou de l’autre. Le structuralisme nous a justement montré ses limites en écrasant en quelque sorte toute perspective historique sur une variation de versions au sein d'un même type -pensons à son approche du mythe ; l'histoire, la nouvelle histoire, avec un F. Braudel notamment, nous a montré que l'on ne pouvait se satisfaire du suivi de la seule variation, que nous avons également besoin de cadrer, à différentes échelles, du plus stable au moins stable, du géologique au politique, en 21 Cf. Bruno Latour : « La science en action », La découverte, 1989. 52 Intelligence collective : Rencontres 2006 passant par le géographique et l'économique. Une réflexion sur les technologies intellectuelles moins que tout autre ne peut se permettre d'en rester aux tiraillements où les disciplines la plongent : soit l'histoire, qui vous somme de choisir votre objet -celle du livre, un tant soit peu balisée, ou celle de l'informatique, encore à construire, sûrement pas les deux ; soit la théorie, ou plutôt bien souvent l'essai à vocation sociologique ou philosophique, construit sur l'intuition plutôt que sur des principes théoriques solides et objectivés -donc discutables. La notion de technologie intellectuelle est, croyons-nous (car il faut bien quelquefois fonder la raison sur quelque acte de foi moteur), singulièrement riche et pertinente. Notion heuristique à condition toutefois de la construire en respectant toute sa complexité, laborieusement peut-être, à travers un modèle difficile même, parce qu'il ne veut justement pas sacrifier l'une à l'autre l'histoire politique et la théorie. II - CONFERENCES RIC’2006 BRUNO BACHIMONT JEAN-FRANÇOIS DORTIER PIERRE-LEONARD HARVEY DOMINIQUE LESTEL PIERRE LEVY SERGE PROULX LOUIS QUERE 54 Intelligence collective : Rencontres 2006 Conférences RIC’2006 55 SUPPORT DE CONNAISSANCE ET INTELLIGENCE COLLECTIVE : HERITAGE ET INDIVIDUATION TECHNIQUE BRUNO BACHIMONT Bruno Bachimont est directeur scientifique du département de Recherche de l'Institut National de l'Audiovisuel. Ingénieur civil des Mines, docteur en informatique et en épistémologie, habilité à diriger des recherches, il est co-responsable de l'équipe CNRS/UTC Heudiasyc à l'Université de Technologie de Compiègne. L’intelligence est une faculté dont les caractéristiques semblent difficiles à rattacher à un substrat matériel, fût-il cérébral. Aussi, malgré les injonctions positivistes et épistémologiques de ne recourir qu’à des explications fondées sur la matière pour rendre compte de l’intelligence, il semble nécessaire d’envisager une base plus large que le simple substrat cérébral pour rendre compte du fonctionnement de la cognition et des fondements de la connaissance. Le parti pris de cet article est d’argumenter en faveur d’une fondation technologique de la connaissance, qu’elle soit individuelle ou collective. En nous appuyant sur une perspective ouverte par les thèses naguère soutenues par Leroi-Gourhan22 selon lesquelles l’anthropogenèse est une technogenèse, nous adoptons l’hypothèse que la connaissance dont nous disposons se constitue en fonction des propriétés et configurations des inscriptions matérielles censées les représenter. La connaissance résulte d’un jeu permanent d’internalisation et d’externalisation de manipulation matérielle d’objets : de la manipulation des cailloux qui ont donné naissance au calcul23 à la matérialisation sur le manuscrit des mnémotechniques monastiques24 (index, tables de matières, etc.), on constate que nos structures et performances cognitives constituent nos technologies intellectuelles autant qu’elles en sont la conséquence. Autrement dit, ce que nous pensons détermine les outils que nous façonnons, et ces derniers configurent notre manière de penser. L’outil, constituant et constitué, est à la fois la condition et le résultat de la connaissance. Les inscriptions matérielles, en particulier les différentes formes d’écritures mobilisées pour matérialiser les discours et les contenus de connaissances, peuvent s’associer à différents niveaux de constitution de connaissance. Nous voudrions en distinguer essentiellement deux dans cet article : le premier correspond à un niveau cognitif, centré 22 Le geste et la parole, André Leroi-Gourhan, Albin Michel, 1967. 23 L’aventure des nombres, Yves Godefroy, Odile Jacob, 1997. 24 Le livre de la mémoire, Mary Carruthers, Macula, 2000. 56 Intelligence collective : Rencontres 2006 sur les structures conceptuelles de l’esprit ; le second correspond à un niveau plus collectif, centré sur les structures d’héritage et de transmission de la culture. Autrement dit, nous aimerions poser un parallèle entre la lecture d’une inscription et l’héritage d’un patrimoine culturel, l’héritage étant au niveau collectif ce que la lecture serait au niveau individuel. Comme l’individu hérite du sens véhiculé et transmis par une inscription, recevant comme étant déjà-là et le précédant toujours le sens de l’inscription (même si en fait il le construit pour une large part), un collectif lit son passé comme un texte orientant le cours de son avenir et de ses actions. Certes, il ne faut pas ignorer les limites de ce parallèle ni exagérer la portée de cette comparaison qui sans doute n’excède pas la métaphore. Cependant, il nous semble que ce parallèle permet de mettre en valeur un facteur déterminant dans les deux cas, la temporalité. Le plan de cette contribution est le suivant. Après avoir argumenté en faveur d’une constitutivité des inscriptions matérielles, en introduisant les notions de raison graphique et de raison computationnelle comme structures conceptuelles découlant des techniques graphiques et numériques respectivement, nous abordons la problématique patrimoniale comme héritage dans la longue durée des inscriptions matérielles vues comme patrimoine. TECHNOLOGIES NUMERIQUES ET ECRITURE Dans la longue histoire des outils intellectuels qui nous aident à penser, l’informatique et le numérique occupent une place importante, dont la portée reste encore à établir et à étudier25. En effet, si la nature scientifique et technique du numérique et du calcul reposent sur des bases solides, les conséquences entraînées par leur utilisation massive dans les secteurs les plus divers de l’activité humaine sont encore difficiles à mesurer. Les technologies numériques s’inscrivent en effet dans le mouvement d’extériorisation et de prothétisation de la pensée26, suivant lequel des opérations intellectuelles sont consignées et confiées à des outils et instruments matériels, déchargeant ainsi la pensée et lui permettant de s’intéresser à d’autres choses. Cependant, en étant confiées à des instruments et supports matériels, les tâches intellectuelles changent de nature et, quand l’esprit se réapproprie leur résultat, il y trouve autre chose que ce qu’il aurait trouvé s’il s’était chargé lui-même de ces tâches. Par exemple, si au lieu de mémoriser un discours, on le consigne par écrit, le confiant ainsi au support matériel du papier, la lecture du texte résultant permet de dégager d’autres propriétés que la remémoration. A travers les techniques de l’écriture et le travail de l’édition, la lecture donnera accès au contenu exact, alors que la mémoire peut être fautive. Le texte écrit permet en outre de voir ensemble, disposés dans un même espace, des séquences de mots qui étaient séparées par la succession de la parole. Le 25 Même si des ouvrages importants présentent des jalons importants de cette investigation, notamment Les technologies de l’intelligence, de Pierre Lévy, Seuil, 1990. 26 La technique et le temps, Bernard Stiegler, Galilée, 1999. Le geste et la parole, Tome II : La mémoire et les rythmes, André Leroi-Gourhan, Albin Michel, 1967. Conférences RIC’2006 57 texte offre un accès simultané à un contenu rassemblé dans l’espace synoptique de l’écriture, contenu qui demeurait jusque là dispersé dans la linéarité temporelle de la parole. Spatialisant la parole, l’écrit la délinéarise, et permet de considérer le contenu dans la spatialité bi-dimensionnelle des pages. Mais l’écrit perd les intonations, la prosodie, les marqueurs émotionnels dont la mémoire peut garder un souvenir plus ou moins fidèle. Si l’écrit apporte un supplément de d’intelligibilité à la parole, en la rendant visible, il lui enlève également des niveaux de compréhension. C’est pourquoi, si l’écrit permet d’effectuer des tâches que l’on pourrait confier à la mémoire orale, il le fait autrement, si bien qu’il fait autre chose, et nous fait faire autre chose. L’écrit nous offre la matière à penser différemment, à penser autre chose, à dégager de nouvelles tâches intellectuelles et de nouveaux objets intellectuels. Par conséquent, se dégage l’idée que nos outils intellectuels, selon leur nature et leurs propriétés, nous aident à penser différemment, comme les outils mécaniques permettent de réaliser des objets matériels différents. Et, de la même manière qu’il existe une histoire des techniques et des objets qu’elles permettent de réaliser, il existe une histoire de nos outils intellectuels et des modes de pensée qui y sont attachés. Si, comme l’écriture, le numérique marque une rupture dans l’histoire des outils de la pensée, la question se pose de distinguer en quoi nous pensons différemment quand nous disposons d’outils numériques, en quoi nous constituons des objets intellectuels nouveaux, en quoi nous élaborons des concepts qui resteraient inconcevables sans une telle médiation numérique. Mais il ne faut pas considérer que la mutation technologique des outils intellectuels conduit nécessairement à un supplément, à une extension de notre champ cognitif. Il peut se traduire par un déficit d’intelligibilité, par une perte de sens, par une désorientation. Les possibilités ouvertes par une mutation technologique, avant d’être actualisées, peuvent se traduire par un manque. Quel est le manque introduit par le numérique ? Il nous semble que le supplément apporté par le numérique se laisse sans doute mieux comprendre par le manque auquel nous devons faire face quand nous abordons l’instrumentation numérique de nos modes de pensée. Ce manque est la marque de la rupture vis-à-vis des habitudes antérieures, et décrit en creux les nouveaux horizons que nous pouvons tenter d’explorer. Enfin, en dernier préalable, la mutation numérique n’est pas un progrès, ou une régression, mais une mutation qui s’impose à nous-même si nous en sommes les auteurs. Le numérique n’est sans doute pas mieux, ni moins bien que l’écriture par exemple, mais sûrement aussi important. Il ne convient donc pas de se lamenter d’une éventuelle régression ou de se féliciter d’un hypothétique progrès, mais plutôt de se doter des concepts permettant de penser le numérique. DE LA RAISON GRAPHIQUE A LA RAISON COMPUTATIONNELLE Il peut paraître surprenant d’adosser le terme de « raison » à un principe technique : l’écriture dans un cas, le calcul dans l’autre. En effet, il est habituel de considérer que la pensée, et la rationalité en particulier, est une activité propre de l’esprit, indépendante en droit sinon en fait de son environnement culturel ou historique. Autrement dit, le 58 Intelligence collective : Rencontres 2006 pensable ne dépend pas de l’environnement technique de l’esprit, même si, de manière contingente, ce qui est effectivement pensé peut être affecté par les conditions matérielles de la raison. Par conséquent, évoquer comme le propose Goody27 une raison graphique et, comme nous le suggérons, une raison computationnelle28, est paradoxal puisqu’on ferait dépendre d’un principe technique une activité qui, en droit ne dépend que d’elle-même. Pourtant, les travaux sur l’écriture ont permis de montrer que les innovations techniques qui ont marqué son histoire ont eu des conséquences directes sur le pensable (et pas seulement le pensé). Les conséquences liées à la maîtrise de la technique de l’écriture peuvent se considérer selon deux aspects, un aspect anthropologique, ou un aspect historique. Jack Goody est sans nul doute l’anthropologue qui a le plus contribué à comprendre le rôle de l’écriture dans l’émergence de certaines opérations cognitives ou manières de penser qui seraient spécifiques à l’écriture. Dans son célèbre ouvrage pour lequel les traducteurs français ont proposé le titre de « Raison graphique » (le titre original étant the domestication of the savage mind), Goody montre en quoi les cultures dotées de l’écriture raisonnent différemment des cultures dites orales. En effet, plutôt que d’attribuer ces différences à un axe de développement et de progrès continu sur lequel les cultures orales occuperaient une position inférieure aux cultures écrites, les premières montrant un état antérieur des secondes, Goody montre qu’il s’agit plutôt de différences procédant d’instrumentations techniques distinctes. En quoi l’écriture est–elle si importante et induit-elle des opérations cognitives particulières, une manière de penser spécifique, bref une rationalité qu’il faudrait qualifier de graphique ? En allant à l’essentiel, l’écriture apporte au contenu une synopsis spatiale, permettant de repérer des rapports et des propriétés qui demeurent indécelables dans la succession linéaire de la temporalité de la parole : l’écriture donne à voir des rapports qui ne sont pas perceptibles à l’écoute de la parole. En effet, en apportant une bidimensionnalité spatiale à la représentation du contenu, l’esprit peut accéder simultanément à différentes parties du contenu indépendamment de l’ordre reliant ces parties dans le flux oral. Par conséquent, ce qui est dispersé dans le temps devient contigu dans l’espace, l’œil pouvant librement naviguer et repérer des identités entre éléments du contenu (par exemple, des mots possédant un même radical mais des flexions différentes). Alors qu’une phrase contenant dans une succession linéaire les mots « rosa, rosae, rosam, rosas, etc. » est très improbable, si bien qu’à l’oral il demeure très difficile de repérer que ces différents mots renvoient à une même déclinaison dont on peut d’ailleurs dégager la structure (les différentes flexions), la représentation écrite permet de délinéariser le discours et d’en prélever des unités que l’on peut confronter et juxtaposer au regard de l’esprit. 27 La raison graphique, Jack Goody, Editions de Minuit, 1979. Voir aussi du même auteur La logique de l’écriture, Armand Colin 1985. 28 L’intelligence artificielle comme écriture dynamique : de la raison graphique à la raison computationnelle, In Au nom du sens, Paolo Fabbri et Jean Petitot Editeurs, Grasset, 2000. Conférences RIC’2006 59 LES STRUCTURES DE LA RAISON GRAPHIQUE C’est ainsi que Jack Goody insiste sur le fait que l’écriture induit un mode de pensée particulier et un rapport au monde spécifique. Selon lui, l’écriture permet de constituer trois types principaux de structures conceptuelles, conditionnant notre mode de penser. Ce sont la liste, le tableau et la formule. La liste permet de délinéariser le discours pour en prélever des unités que l’on ordonne ensuite dans une énumération. La liste permet de rassembler dans une même unité ce qui est dispersé dans le discours : elle induit par conséquent un classement et une catégorisation. Faire des listes, c’est choisir de consigner un item parmi d’autres en considérant qu’ils ont quelque chose à faire ensemble : ils appartiennent une même classe, une même catégorie. En favorisant la structure de liste, l’écriture induit un rapport au monde qui procède de la raison classificatoire : penser le monde, c’est l’organiser en classes et hiérarchies, c’est l’ordonner et le ranger. Le monde de l’écriture, c’est le cosmos des antiques, comme univers (au sens de totalité, universum renvoyant à l’ensemble des choses considérées globalement) organisé, cohérent et harmonieux. On sait29 en effet que kosmos signifie originellement « ornement » et a donné le « cosmos » de « cosmologie » comme celui de « cosmétique ». Cet univers harmonieux serait-il un artefact de l’écriture alphabétique ? C’est une hypothèse suscitée par les possibilités classificatoires induites par les listes que l’écriture permet de constituer. Le tableau est le fait de représenter un ensemble de rapports entre des unités à travers leur position respective selon les deux dimensions de l’espace de l’écriture : être à gauche ou à droite, être au dessus ou au dessous, sont les deux types de relations spatiales qui permettent de mettre en relation sémantique les unités ainsi disposées. Dans un tableau, l’unité occupant une case prend une signification déterminée, à tout le moins conditionnée, par la position de la case dans le tableau. Le mode de penser induit par le tableau est alors le système : un tableau spécifie des relations entre les cases, et permet par exemple de prévoir a priori, de manière systématique, la valeur devant occuper une case, du fait de la position de cette dernière. L’exemple le plus fameux est sans doute le tableau de Mendeleïev des éléments, dont la systématicité a permis de prédire, lors de sa formulation, que de futurs éléments (comme l’uranium) devaient être trouvés. Enfin, la formule. La formule est un procédé permettant de mener des raisonnements en fonction seulement de la forme, sans avoir à prêter attention à la signification. La forme prenant en charge dans sa structure ce qu’il faut retenir des significations considérées, il suffit alors de manipuler la forme pour mener à bien les raisonnements sur le contenu ou la signification. C’est ce qui est à la base de la logique formelle et plus généralement des mathématiques. Le problème n’est pas tant le fait de savoir si le formalisme permet de mener le raisonnement indépendamment du contenu, ce dernier pouvant même être remis en question (existe-t-il vraiment ?), mais le fait de pouvoir se fier à la forme. 29 La sagesse du monde, Histoire de l’expérience humaine de l’univers, Rémi Brague, Fayard, 1999. 60 Intelligence collective : Rencontres 2006 DU GRAPHIQUE AU CALCUL Se fier à la forme est l’attitude à la base de tous les formalismes, notamment ceux qui seront à l’origine de l’informatique et du numérique. Quand, à la fin du XIXe siècle, apparut la crise des fondements des mathématiques, suscitée notamment par les paradoxes issus de la théorie des ensembles, de nombreux mathématiciens cherchèrent des moyens de surmonter cette crise. David Hilbert proposa de considérer les mathématiques à travers leur écriture, et de rechercher les procédés permettant de contrôler cette écriture. L’objectif est de s’assurer que, un énoncé mathématique étant produit, il n’est pas possible d’en dériver l’énoncé d’une contradiction. Pour y parvenir, Hilbert considère l’écriture mathématique de manière purement formelle30, c’est-à-dire en ne considérant que les signes utilisés indépendamment de leur signification. Or, le nombre de signes est fini, les énoncés et les textes mathématiques sont finis, le temps mobilisé par les mathématiciens est fini : on se retrouve donc dans la situation où l’on manipule un nombre fini de signes en un temps fini ; bref on fait de la combinatoire de signes. Il suffit alors de trouver des règles purement formelles, qui ne demandent aucune inventivité mathématique ou compréhension particulière pour les appliquer, qui permettent de vérifier que les signes d’un énoncé ou texte mathématique ne permettent pas de déduire des énoncés contradictoires. En termes contemporains, on dirait qu’il faut trouver un programme qui permette de prouver qu’un énoncé mathématique n’entraîne pas de contradiction. Cet objectif fixé par Hilbert ne put être atteint : il n’existe pas de programme vérifiant la cohérence des énoncés. Ce « programme » de Hilbert (programme au sens d’objectif ou de « programme » de travail) a cependant permis d’élaborer l’idée de systèmes de signes (les énoncés) se manipulant de manière purement formelle via des règles formelles. Turing, le père de l’informatique, continua sur la même lancée en proposant une machine abstraite conçue de la manière suivante31 : on dispose d’une bande mémoire infinie composée de cases ne pouvant contenir qu’un et un seul symbole (c’est en fait la feuille de papier sur laquelle travaille le mathématicien), une tête de lecture et d’écriture, se déplaçant sur la bande mémoire de case en case (une à la fois), pouvant lire et écrire un symbole (c’est le stylo du mathématicien), et enfin un état interne de la tête de lecture (c’est l’état mental du mathématicien). Un programme, purement formel permet de déterminer ce que doit écrire la tête de lecture et comment elle doit se déplacer en fonction de qu’elle lit et de son état interne. Autrement dit, en fonction de ce qu’il pense et de qu’il voit, le mathématicien écrit un symbole sur sa feuille de papier. La métaphore ne doit pas nous égarer : les manipulations de symboles sur la bande mémoire sont purement formelles, et le fonctionnement de la machine de Turing ne repose sur aucune interprétation ni signification associées aux symboles, mais uniquement sur leur forme. Autrement dit, le formalisme, issu de la structure de formule rendue possible selon Goody par l’écriture, a permis d’engendrer l’idée de systèmes automatiques manipulant 30 Ibid. 31 On Computable Numbers, with an Application to the Entscheidungsproblem, Proceedings of the Mathematical Society, 2(42), p. 230-265, corrections apportées dans 2(43), p. 544-546. Conférences RIC’2006 61 des signes formels : une écriture formelle automatique, qui s’écrit en quelque sorte toute seule. UN RAISON COMPUTATIONNELLE ? Cette idée a engendré l’informatique, technique permettant de manipuler automatiquement les inscriptions symboliques, qu’elles représentent des nombres, des lettres, ou n’importe quoi d’autre. De la même manière que l’écriture a permis d’engendrer un mode particulier de penser, la question peut être posée de savoir si on peut constater un phénomène semblable avec l’informatique et le numérique : en quoi le recours à des représentations calculées induit-il une rationalité particulière ? Nous aborderons cette question sous deux angles : d’une part, quel serait l’apport cognitif ou phénoménologique du calcul formel et de l’informatique à la connaissance, à l’instar de l’écriture qui propose une synthèse synoptique spatiale de ce qui est dispersé dans le temps ; d’autre part quelles seraient les structures de pensée fondamentales suscitées par l’informatique, à l’instar de ce que sont la liste, le tableau et la formule pour l’écriture ? Si l’écriture permet la synthèse du temps dans l’espace, en permettant que ce qui est dispersé dans le temps (flux de la parole) soit rassemblé dans l’unité d’une représentation spatiale synoptique, offrant au regard de l’esprit la possibilité de repérer des configurations synthétiques constituant de nouveaux concepts, l’informatique permet le déploiement de l’espace en temps32. En effet un programme n’est pas autre chose qu’un dispositif réglant un déroulement dans le temps, le calcul ou l’exécution du programme, à partir d’une structure spécifiée dans l’espace, l’algorithme ou programme. L’algorithme spécifie que, les conditions initiales étant réunies, le résultat ne peut manquer d’être obtenu, selon une complexité donnée. Le programme est donc un moyen de certifier l’avenir, d’en éliminer l’incertitude et l’improbable pour le rapporter à la maîtrise. Le temps de l’informatique n’est donc pas une disponibilité à ce qui va venir, aussi improbable que cela puisse être, mais la négation du futur dans son ouverture pour le réduire à ce qui peut s’obtenir à partir du présent. Le calcul, c’est le devenir - dans l’ouverture, la disponibilité à l’Être - réduit à ce qui est à-venir, dans la certitude de la prévision formalisée. Le calcul instaure une espèce d’équivalence ou correspondance entre temps et espace : le temps devient celui qui est nécessaire à l’exploration systématique d’un espace de calcul, comme parcours de tous les cas possibles d’une combinatoire ; l’espace devient l’espace qu’il faut parcourir en un certain nombre d’étapes, spécifiées par le calcul. Mais l’espace et le temps sont duaux : l’espace est celui que l’on peut parcourir à travers les étapes du calcul ; le temps, ce sont les étapes nécessaires au parcours de l’espace. Dans ces conditions, quelle est la fonction cognitive du calcul correspondant la spatialisation synoptique de l’écriture ? Nous proposons la notion d’exploration systématique. Le calcul, c’est ce qui permet de parcourir systématique un espace de 32 Herméneutique matérielle et artéfacture : des machines qui pensent aux machines qui donnent à penser. Bruno Bachimont, Thèse de doctorat en épistémologie, Ecole Polytechnique, 1996. 62 Intelligence collective : Rencontres 2006 possibles. Ces possibles sont possibles en tant qu’ils sont calculables, et le calcul les parcourt pour les examiner et leur appliquer un critère donné. C’est cette notion d’exploration systématique qui permet de dériver les structures conceptuelles caractéristiques d’une raison computationnelle. Nous proposons de considérer la notion de programme, de réseau et de couche. LES STRUCTURES DE LA RAISON COMPUTATIONNELLE Le programme est à la raison computationnelle ce que la liste est à la raison graphique. Autant la liste permet de catégoriser et de classifier, d’offrir une synopsis spatiale, le programme permet de spécifier un parcours systématique : l’exécution du progamme n’est alors que le déploiement temporel de la structure spatiale symbolique qu’est le programme. Le réseau est à la raison computationnelle ce que le tableau est à la raison graphique. Alors que le tableau propose une structuration et une systématicité entre les contenus répartis dans les cases du tableau, le réseau propose un mode de communication et répartition entre les cases du tableau. C’est un tableau dynamique. Enfin, la couche est à la raison computationnelle ce que la formule est à la raison graphique. La formule permet en effet de considérer la forme abstraction faite du contenu : la couche permet de considérer des relations calculatoires entre des unités abstraction faite des calculs sous-jacents impliqués. La notion de couche en informatique, via celle d’implantation et de compilation, permet de représenter les structures formelles en faisant abstraction des calculs élémentaires induits, comme la formule permet de s’abstraire du sens. TABLEAU 1 : LES STRUCTURES DE LA RAISON Raison graphique Raison computationnelle Liste Tableau Formule Programme Réseau Couche Ces structures cognitives sont fondamentales et affectent désormais nos modes de penser. La raison graphique a produit la raison classicatoire, la raison computationnelle produit la pensée en réseau et le temps de la prévision. Pour une raison graphique, le réseau n’est pas une structure de l’intelligible : le réseau, échappant à la synopsis spatiale de fait de sa complexité, est un labyrinthe où l’on se perd. C’est une figure de l’irrationnel, et non une manière de penser le monde. L’interaction et la communication selon la structure des réseaux sont devenues intelligibles car le calcul permet de réduire la complexité et de parcourir l’ensemble des possibles induit par les réseaux par les programmes qui en spécifient le comportement. Conférences RIC’2006 63 De même, la notion de couche est une manière également de réduire la complexité et de rapporter une masse quasi infinie de calculs formels à des structures plus intelligibles pour l’être humain. Les structures en réseau et en couche, via les programmes qui les réalisent et les rendent effectives, permettent d’aborder le réel non comme une structure hiérarchisée et organisée en classes, mais de le considérer comme une dynamique déployant une rationalité et un ordre sous-jacents : le monde n’est que l’exécution de programmes qui temporalisent les relations qu’ils spécifient. Non pas qu’il faille sousentendre qu’il y ait un seul programme sous-jacent, mais au contraire que plusieurs ordres interagissent ensemble. Ces interactions n’étant pas forcément prédictibles ni cohérentes, il faut alors en rechercher le programme et reconduire la recherche d’un ordre calculé. Si la taxinomie des espèces peut être une illustration de la pensée induite par la raison graphique, le code génétique est celle de la pensée induite par la raison computationnelle. HERITAGE ET TRANSMISSION De la même manière que l’intelligence est conditionnée par les inscriptions matérielles et les concrétisations matérielles du sens, la culture est conditionnée par l’héritage matériel et ce qu’on a coutume d’appeler le patrimoine. Autrement dit, l’intelligence collective repose largement sur l’héritage partagé d’un patrimoine, inscription matérielle de la culture, comme l’intelligence individuelle reposerait sur les inscriptions matérielles de la connaissance. Mais il convient de ne pas réifier la notion de patrimoine et de le rabattre sur une pure matérialité. En effet : Le patrimoine n’est pas un objet, mais le processus qui survient à tout produit de l’activité humaine dès lors qu’il s’inscrit dans la longue durée de l’histoire et dans l’espace de la diversité des cultures. Quand une trace devient l’objet d’un effort de mémoire, qu’elle relève d’une réappropriation du passé par le présent, il y a patrimonialisation, car il y a alors transmission d’un contenu et réception d’un héritage. Selon cette optique, le patrimoine ne se définit pas à partir d’un secteur particulier d’objets ou de contenus, dont la valeur particulière leur confèrerait une valeur patrimoniale dont d’autres objets seraient dépourvus. Tout secteur d’activité est potentiellement le siège de processus patrimoniaux. Plus généralement, un patrimoine est au croisement de deux processus conjoints : La préservation des objets ou contenus constituant la matérialité du patrimoine, L’entretien de la tradition de lecture ou d’usage associée à ces objets. Les objets sans leur intelligibilité entretenue par un exercice continuellement entretenu de leur compréhension et interprétation sont inutiles. En effet la véritable complexité de la conservation patrimoniale réside dans le fait qu’il ne suffit pas de conserver les objets, mais il faut en conserver également la compréhension pour rester capable de les faire revivre, non pas à l’identique car c’est bien évidemment impossible, mais dans une continuité interprétative. Or, l’éloignement inexorable dans le passé introduit un fossé d’intelligibilité entre le contenu préservé et le monde présent : le contenu devient 64 Intelligence collective : Rencontres 2006 étranger à la culture du temps présent si des médiations ne sont pas créées, accumulées et conservées comme autant de moyens d’accès à l’œuvre comme œuvre et pas seulement comme objet. Alors que les inscriptions étrusques, conservées et inscrites dans un alphabet que nous maîtrisons (alphabet grec) demeurent inintelligibles, nous lisons toujours Aristote à travers ses grands commentateurs successifs, les contemporains y accédant par exemple par Saint Thomas qui le lisait à travers Averroès, lui-même à travers Alexandre d’Aphrodise, etc. La clef de la préservation patrimoniale est donc de préserver la tradition d’interprétation et de la faire vivre. Certains outils et modèles permettent de mettre en œuvre ces logiques (OAIS par exemple), mais beaucoup reste à faire pour déterminer les méthodes et contenus adaptés aux objets numériques conservés. Par conséquent, la préservation et la sauvegarde du patrimoine ne peut s’effectuer qu’à travers une pratique qui rejoue les œuvres, relit les textes, réinterprète les contenus. Car il ne s’agit pas de figer les objets dans un passé à jamais révolu et pour toujours inaccessible, mais de vivre avec eux dans une interprétation qui construit l’avenir en tâchant d’être respectueux du passé. Le patrimoine se constitue comme une transcendance du passé qui se déploie sur deux plans complémentaires, celui de la temporalité et celui de l’intersubjectivité. Matérialisant un passé révolu, la trace ou vestige n’est pas un souvenir : elle excède la mémoire individuelle et la cognition individuelle. Elle transcende par conséquent l’esprit et le force en un sens à sortir de lui-même pour se mettre à l’écoute d’une extériorité dont le sens se révèle en tant qu’il est révolu. Par ailleurs, le patrimoine est matériel et consiste en objets qui s’offrent aux multiples subjectivités : en tant que patrimoniaux, ces objets sont des traces qui s’adressent au collectif de ceux qui sont présents et qui ne peuvent en assumer le sens que collectivement. L’héritier est une classe générale, même si elle n’est instanciée de manière contingente que par un seul individu. Transcendance temporelle et intersubjective, le patrimoine s’adresse à un collectif et contribue par conséquent à la constituer comme tel. Le collectif s’identifie et se constitue, dans une prise de conscience de lui-même, comme héritier de traces transmises. Mais le patrimoine n’est pas seulement matériel dira-t-on. On mentionnera les pratiques, les rituels, les contenus oraux, etc. Certes, mais il ne s’agit pas vraiment de patrimoine, mais d’habitus entretenu et pratiqué par le collectif. Mais, comme on l’a souligné, il y a une forte dépendance entre patrimoine et habitus. Il n’y a de transmission que s’il y a entretien de la pratique, c’est-à-dire la transmission ne se traduit pas par la circulation de l’objet le long des générations, mais par la répétition des actes interprétatifs qui lui confèrent son sens et sa valeur. En 1537, François 1er fonde la bibliothèque royale (la future Bibliothèque de France) par l’édit de Montpellier. Auparavant, il avait fondé le Collège de Lecteurs Royaux en 1530 (le futur collège de France). L’une conservait les biens, l’autre entretenait la pratique, non pas comme transmission de la lecture, mais comme pratique et répétition de l’acte de lecture comme garant de la transmission du savoir de la lecture. Cependant, habitus et répétition ne doivent pas leurrer. La répétition n’est jamais à l’identique, et à ce titre elle crée de la différence et du différemment, c’est-à-dire qu’elle permet aux interprètes du moment d’introduire leur singularité et d’ouvrir l’avenir pour Conférences RIC’2006 65 un sens légué toujours à venir. On aura reconnu le thème de la différance de Jacques Derrida dont il donne lui-même une caractérisation précise33 : On sait que le verbe « différer » (verbe latin differre) a deux sens qui semblent bien distincts ; […]. En ce sens, le differre latin n’est pas la traduction simple du diapherein grec […]. Car la distribution du sens dans le diapherein grec ne comporte pas l’un des deux motifs du differre latin, à savoir l’action de remettre à plus tard, de tenir compte, de tenir le compte du temps et des forces dans une opération qui implique un calcul économique, un détour, un délai, un retard, une réserve , une représentation, tous concepts que je résumerai ici d’un mot dont je ne me suis jamais servi mais qu’on pourrait inscrire dans cette chaîne : la temporisation. Différer en ce sens, c’est temporiser, c’est recourir, consciemment ou inconsciemment, à la médiation temporelle et temporisatrice d’un détour suspendant l’accomplissement ou le remplissement du « désir » ou de la « volonté », l’effectuant aussi bien sur un mode qui en annule ou en tempère l’effet. Et nous verrons – plus tard – en quoi cette temporisation et aussi temporalisation et espacement, devenir temps de l’espace et devenir espace du temps, « constitution originaire » du temps et de l’espace, diraient la métaphysique ou la phénoménologie dans le langage qui est ici critiqué et déplacé. L’autre sens de différer, c’est le plus commun et le plus identifiable : ne pas être identique, être autre, discernable, etc. S’agissant des différen(t)(d)s, mot qu’on peut donc écrire comme on voudra, avec un t ou un d final, qu’il soit question d’altérité de dissemblance ou d’altérité d’allergie et de polémique, il faut bien qu’entre les éléments autres se produise, activement, dynamiquement, et avec un certaine persévérance dans la répétition, intervalle, distance, espacement. La répétition induite par l’habitus culturel est différenciant et différant : il introduit du non identique, du singulier et du nouveau ; introduisant de la différance, il reporte à plus tard l’avènement de l’identique et qui ainsi temporisé, renvoyé à un horizon futur et lointain. Réciproquement, la répétition, en répétant les « mêmes » actions sur des objets qu’on croit être des originaux car on les a conservés comme tels, introduit des différences car il n’est jamais possible de refaire deux fois la même chose avec le même sens ou même résultat puisque le contexte et l’environnement ont changé. C’est donc la volonté de répéter le passé pour le conserver qui crée de la différence, cette différence différant à plus tard le sens révolu et renvoyant à un a-venir qui ne viendra jamais la répétition de l’identique. Par conséquent, l’écart creusé par la différence, cet espacement dans l’espace logique des variantes autour d’une identité recherchée, constitue une temporalité et une temporalisation, c’est-à-dire une tension vers l’avenir. Ceux qui veulent répéter le passé à l’identique pour le reproduire se tourne du mauvais coté : répéter le passer, c’est construire l’avenir, à condition de laisser la place à la différence, à condition de laisser la différence différer à plus tard l’avènement du sens révolu. La répétition différante est donc une individuation du collectif qui reçoit cet héritage et qui se construit un avenir en se l’appropriant. Le concept d’individuation a 33 Marges de la philosophie, Jacques Derrida, Minuit, 1972. 66 Intelligence collective : Rencontres 2006 particulièrement été travaillé par Gilbert Simondon34. Renversant les conceptions classiques sur l’Être et le Devenir, jouant en quelque sorte Héraclite contre Parménide et Zénon, Simondon considère que l’Être véritable est relation et devenir. Dans cette perspective, les individus ne sont que des étapes provisoires et temporaires du devenir, étapes métastables d’un processus qui les emportent. L’individuation correspond ainsi à la production d’un individu comme résolution d’une tension entre des tendances contradictoires, l’individu devenant l’état d’équilibre métastable entre ces tensions. Métastable, c’est l’équilibre n’est que local et provisoire. L’individuation prend plusieurs figures : l’individuation physique, l’individuation collective et l’individuation technique. Simondon articule étroitement les individuations psychique et collective sans leur rapporter explicitement l’individuation technique. Cependant, à la suite de Bernard Stiegler, nous pensons qu’il est nécessaire, pour la pleine intelligibilité des individuations psychique et collective, de les rapporter à l’individuation technique comme l’un de leur moteur et principe. Citons ici Bernard Stiegler35 : Le je, comme individu psychique, ne peut être pensé qu’en tant qu’il appartient à un nous, qui est un individu collectif: le je se constitue en adoptant une histoire collective, dont il hérite, et dans laquelle se reconnaît une pluralité de je. Cet héritage est une adoption au sens où je peux parfaitement, en tant que petitfils d’un immigré allemand, me reconnaître dans un passé qui n’a pas été celui de mes ancêtres, et que je peux néanmoins faire mien ; ce processus d’adoption est donc structurellement factice. Un je est essentiellement un processus, et non un état, et ce processus est une in-dividuation (c’est le processus d’individuation psychique) en tant que tendance à devenir-un, c’est à dire in-divisible. Cette tendance ne se réalise jamais parce qu’elle rencontre une contre-tendance avec laquelle elle forme un équilibre métastable […]. Un nous est également un tel processus (c’est le processus d’individuation collective), l’individuation du je étant toujours inscrite dans celle du nous, tandis qu’à l’inverse, l’individuation du nous ne s’accomplit qu’à travers celles, polémiques, des je qui le composent. Ce qui relie le je et le nous dans l’individuation est un milieu pré-individuel qui a des conditions positives d'effectivité, relevant de ce que j’ai appelé les dispositifs rétentionnels. Ces dispositifs rétentionnels sont supportés par le milieu technique qui est la condition de la rencontre du je et du nous : l’individuation du je et du nous est en ce sens également l’individuation d’un système technique (ce que Simondon, étrangement, n’a pas vu). 34 L’individuation à la lumière des notions de forme et d’individuation, Gilbert Simondon, Millon, 2005. 35 De la misère symbolique, Bernard Stiegler, Galilée, 2004. Conférences RIC’2006 67 7. Le système technique est un dispositif qui jouit d’un rôle spécifique (où tout objet est pris : un objet technique n’existe qu’agencé au sein d’un tel dispositif à d’autres objets techniques : c’est ce que Simondon appelle l’ensemble technique) […]. 8. Le système technique est aussi ce qui soutient la possibilité de constitution de dispositifs rétentionnels, issus du processus de grammatisation qui se déploie au sein du processus d’individuation du système technique, et ces dispositifs rétentionnels sont ce qui conditionne les agencements entre l’individuation du je et l’individuation du nous en un même processus d’individuation psychique, collective, et technique (ou la grammatisation est un sous-système de la technique) qui comporte donc trois brins, chaque brin se divisant lui-même en sous-ensembles processuels (par exemple, le système technique en s’individuant individue aussi ses systèmes mnémotechniques ou mnémotechnologiques). L’individuation technique qui conduit le devenir technique préside à l’évolution des objets matériels supports du patrimoine et de la mémoire collective. Entre document et monument, la matérialité du passé est façonnée par la technique et évolue avec elle. Les tendances techniques, que Simondon a analysées à travers son concept de concrétisation36, s’expriment dans les supports de mémoire et y impriment leurs structures. Le point important est que l’évolution du support technique répond à des contraintes propres au support qui ne sont pas déduites de l’utilité recherchée ou des fonctionnalités attendues. Bien au contraire, utilités et fonctionnalités sont reconfigurées par l’évolution technique. Il y a donc bien une autonomie du technique, qu’il ne faut pas travestir en déterminisme technologique. Ce qui signifie que le système technique, en tant que système, qui possède donc des lois propres et des contraintes spécifiques découlant de sa systématicité, évolue, pour ainsi dire, pour son propre compte, sans qu’il soit totalement déterminé par les visées d’un concepteur qui anticiperait le futur technologique en fonction des fins qu’il se fixe. Cette autonomie du technique institue donc une différence avec le régime des usages et de l’interprétation qui peut être productrice de sens : l’évolution des outils du fait de l’autonomie du technique reconfigure l’espace de l’intelligibilité en remodelant la structure de la signifiance, ce qui se présente à nous comme étant investi d’esprit ou de signification. Mais possibilité n’est pas actualité : le technique ne programme pas le sens, et toute évolution technologique n’aboutit pas nécessairement à une évolution cognitive. Reconfigurer l’espace des possibles, restructurer le pensable dispose de nouveaux possibles sans en imposer aucun. L’individuation technique serait ainsi un moteur de l’individuation psychique, comme on l’a vu dans la première partie de cet article, mais aussi du collectif, du fait de la double transcendance des objets patrimoniaux. CONCLUSION Intelligence collective. Si le lecteur doit pouvoir saisir ce que vous avons voulu mettre derrière la notion de collectif, il doit rester plus circonspect sur notre contribution au 36 Du mode d’existence des objets techniques, Gilbert Simondon, Aubier, 1989. 68 Intelligence collective : Rencontres 2006 sujet de l’intelligence collective. C’est que, avouons le finalement pour conclure, in cauda venenum, cette notion nous laisse perplexe. Nous ne pensons pas que l’intelligence désigne un phénomène particulier qu’il faudrait distinguer de la culture et de la question du sens. C’est la raison pour laquelle nous avons volontairement laissé de côté cette notion, qui fleure bon une psychologie surannée ou un naturalisme cognitiviste dont nous nous démarquons. En revanche, comme le rappelait Aristote dans l’Ethique à Nicomaque, être humain implique ne pas avoir raison tout seul ni surtout qu’on ne peut avoir raison tout seul, non pas au sens où détenir seul une vérité n’est rien si on ne peut la faire accepter par le collectif, mais bien plutôt parce qu’on ne peut trouver seul la vérité dans la mesure la vérité humaine est une vérité du collectif. Or, nous l’avons suggéré, la vérité s’hérite. Non pas il n’aurait pas de moyen de trouver ou d’élaborer de nouvelles vérités, mais le nouveau ne se dévoile qu’à travers la répétition différante de la tradition. La tradition vivante est donc la tradition qui n’en finit pas d’être trahie alors qu’on croit y rester fidèle. Quand on y est fidèle, c’est que la tradition s’est muée en dogme, stérile et castrateur. La création, l’innovation n’est pas rupture mais singularité qui s’engouffre dans l’écart creusé par la répétition fautive. Autrement dit, il nous semble illusoire de vouloir faire du nouveau pour faire du nouveau, comme par exemple faire de l’art pour l’art : la véritable innovation naît d’une compréhension fine de la tradition qui induit son dépassement, ce que souvent les contemporains qualifie de rupture. Il en est ainsi pour le collectif. En se vivant comme héritant d’une culture, il se construit un avenir. Restant fidèle à sa tradition, il lui tourne le dos pour innover et créer du radicalement nouveau, à l’instar des philosophes médiévaux qui se revendiquaient d’Aristote pour élaborer des systèmes philosophiques radicalement nouveaux, dont la subtilité et l’innovation ne laissent de surprendre encore aujourd’hui. C’est sans doute cela, l’intelligence collective. Non pas tant un schéma de distribution des ressources pour la résolution de problèmes, non pas fait social qu’il faudrait construire en contradiction avec une psychologie plus centrée sur l’individu, mais un héritage collectif d’un passé légué par des objets techniques mémorisant le passé pour, à travers une appropriation répétant le passé pour le trahir et innover par la différence qu’elle introduit, individuer le collectif comme tel. Conférences RIC’2006 69 DES FOURMIS A INTERNET LE MYTHE DE L’INTELLIGENCE COLLECTIVE JEAN-FRANÇOIS DORTIER J-F. Dortier est fondateur et rédacteur en chef du mensuel Sciences Humaines. Auteur de « Les sciences Humaines, Panorama des connaissances » (éd. S.H. 1998) et « L’homme, cet étrange animal » (ed. S.H., 2004), il a également dirigé de de nombreux ouvrages collectifs, dont, « Le Cerveau et la Pensée » (2004) et « le Dictionnaire des sciences Humaines » (2004). Howard Rheingold ne passe pas inaperçu. Pas simplement à cause de sa belle moustache et de son chapeau qu’il ne quitte jamais, mais surtout parce qu’il peint ses chaussures. Oui, il peint ses chaussures de motifs et couleurs variés : fleurs, arabesques, points lumineux…37 Et quand il ne peint pas ses chaussures, H. Rheingold écrit des livres, fait des conférences et enseigne à l’université de Stanford les principes de l’intelligence collective. Son livre Smart Mobs (Foules intelligentes, M2 Editions, 2002) a connu un grand succès aux Etats-Unis. H. Rheingold y prend le contre-pied de l’idée classique qui veut que les foules seraient toujours stupides et irrationnelles. Son idée ? Grâce aux technologies interactives (courriels, SMS, blogs, wiki, chats, etc.), les groupes humains peuvent s’auto-organiser, s’informer mutuellement et réagir instantanément à un événement. En quelques minutes, de bouche à oreille – ou plutôt d’un écran à l’autre –, un message peut circuler rapidement vers des milliers d’individus. Il devient alors possible de mobiliser une manifestation surprise (ce fut le cas lors de la réunion de l’OMC à Seattle en décembre 1999), de concevoir un happening artistique (les «flashmobs»), d’organiser des secours d’urgence.38 Des communautés intelligentes qui s’auto-organisent, sans chef ni gourou, qui réagissent instantanément à un message, peuvent communiquer et débattre entre elles : voilà le modèle de référence de l’IC. L’expression est devenue l’emblème d’une galaxie hétéroclite de théoriciens, chercheurs, consultants en organisation et vulgarisateurs qui manipulent pêle-mêle des théories mathématiques de la complexité, des développements informatiques sur l’intelligence artificielle distribuée, des outils de knowledge 37 On peut d’ailleurs admirer la collection de ses œuvres sur internet. 38 Grâce aux réseaux d’information qui relient les individus entre eux, H. Rheingold pense qu’une «révolution sociale »se prépare. La démocratique cognitive court-circuite les réseaux traditionnel d’information. Sur le même thème, voir aussi J. de Rosnay, La révolution ProNetarienne, 2006. 70 Intelligence collective : Rencontres 2006 management, des spéculations philosophico-politiques sur l’avènement d’une nouvelle démocratie cognitive et, enfin, des discours prophétiques sur l’avènement d’un «cerveau global». LES SOCIETES DE FOURMIS L’IC repose sur un principe simple. La coopération d’entités multiples aboutit à la formation d’une intelligence supérieure par une sorte d’alchimie naturelle – appelée «émergence ». Si on en croit Steven Johnson, auteur d’un récent best-seller, Emergence: The connected lives of ants, brains, cities and software [Scr01], le principe d’émergence pourrait s’appliquer autant aux fourmis, aux cerveaux, aux communautés humaines qu’aux réseaux d’ordinateurs. Voyons comment. L’IC n’est pas une création humaine. Elle était déjà présente, il y a 100 millions d’années, chez les fourmis primitives qui construisaient en commun des dômes et élevaient ensemble leurs larves39. Le principe de la coopération fut efficace. Quelques millions d’années plus tard, la Terre entière était peuplée de milliers d’espèces (on en dénombre 9 500) capables de construire des fourmilières complexes, avec chambre royale, crèches, greniers, couveuses, solariums, salles d’hibernation, salles de garde, cimetières. Certaines espèces pratiquent l’agriculture (culture de champignons), d’autres l’élevage (de pucerons pour récolter le miellat), d’autres l’esclavage40. Et le tout sans chef, contremaître, centre de décision. Comment s’y prennent-elles ? Les chercheurs ont tenté de modéliser le problème sous le nom d’intelligence en essaim (swarm intelligence41). Le modèle canonique concerne le problème du transport de la nourriture (trouver le chemin le plus court de la source de nourriture à la fourmilière). On suppose que les fourmis répondent à un comportement très simple : chacune suit la trace odorante laissée par les exploratrices retournées à la fourmilière. Comme celles qui empruntent le chemin le plus court font le plus d’allers et retours, elles laissent donc plus de traces odorantes. Les autres fourmis ont donc tendance à s’agréger autour de cette piste. Au bout d’un certain temps, ce chemin est emprunté par toutes. Des modèles théoriques d’intelligence en essaim simulent assez bien la façon dont les fourmis résolvent le problème dit du «voyageur de commerce «: comment trouver le plus court chemin entre deux points ? La voie semblait prometteuse. Pourtant à ce jour, on n’a pas vraiment découvert comment les fourmis s’y prennent pour résoudre des problèmes plus complexes. Car certaines fourmis ne se contentent pas de trouver une bonne piste : parfois elles creusent des galeries, entretiennent les voies existantes. Par exemple, certaines fourmis légionnaires africaines prélèvent de la terre sur leur parcours pour construire des murs 39 Bert Hölldobler et Edward O. Wilson, Voyage chez les fourmis, Seuil, 1996. 40 Les fourmis amazones rouges (Polyergus rufescens) tuent la reine de l’espèce noire (Fromica fusca), les fourmis en esclaves. 41 E. Bonabeau, M. Dorigo, G. Théraulaz, Swarm Intelligence: From Natural to Artificial systems (Oxford University, Press), 2000. Conférences RIC’2006 71 latéraux et se protéger ainsi du soleil42. Un tel comportement suppose sans doute l’activation de programmes établis génétiquement. Ce n’est donc pas l’auto-organisation spontanée qui agit ici. De plus, des expériences montrent l’existence d’une certaine plasticité dans la conduite de la fourmi. Ainsi, en réduisant artificiellement le nombre d’ouvrières dans une fourmilière, on s’aperçoit que les soldats vont subitement changer de rôle et prendre la place des ouvrières disparues. Enfin les recherches menées sur l’intelligence individuelle des insectes et invertébrés révèlent également une capacité d’apprentissage, de mémoire et de souplesse comportementale bien plus importante que ne le suppose le modèle de l’intelligence collective. Ainsi, Nigel Franks et Tom Richardson de l’université de Bristol ont montré que certaines fourmis (de l’espèce Temnothorax albipennis) se comportent en véritable «institutrices »pour guider d’autres fourmis du nid à une source de nourriture. La fourmi suiveuse – celle qui apprend le chemin - suit la fourmi «institutrice»en lui touchant les pattes arrières et l’abdomen. Si la suiveuse décroche, la fourmi institutrice s’arrête et attend son élève… Pour la fourmi institutrice, le trajet peut durent quatre fois plus de temps que d’habitude, ce qu’il montre bien qu’elle adapte son comportement à celui de sa suiveuse. Deux critères démontrent bien, selon N. Franks et Tim Richarson, l’existence d’un véritable «enseignement»: 1) la fourmi maître change son comportement en présence de l’élève (elle ralentie sa marche) 2) la fourmi-élève retrouve ensuite toute seule le chemin vers la source de nourriture. 43 En somme, les fourmis sont des «agents»individuels peut-être moins stupides qu’on l’a cru. Au fil des recherches, il est devenu évident que les fourmis ne se comportaient pas en agents simples, répondant à des comportements élémentaires (suivre une trace odorante), régis par quelques formules élémentaires pour résolution de problèmes. La fourmilière est un superorganisme où chaque élément, issu d’une même histoire évolutive, est déjà doté d’un programme de conduite élaboré. DES FOURMIS AUX ROBOTS : LES SYSTEMES MULTIAGENTS L’étude de l’intelligence en essaim relève d’un champ de recherche informatique en plein essor : celui des systèmes multiagents (SMA)u. Le principe général des SMA a été conçu par Marvin Minsky, l’un des fondateurs de l’intelligence artificielle (IA), dans son livre La Société de l’esprit44. La notion d’agent désigne toute entité autonome – des fourmis, des neurones, des robots, des sociétés humaines, etc. – dotée de savoir-faire plus ou moins étendus. Tout le problème des SMA consiste à trouver un mode de coopération 42 Bruno Crobara, Constructions animales, Delachaux et Niestlé, 2005. 43 N.R. Franks & T. Richardson, Teaching in tandem-running ants, Nature, 2006. 44 M. Minsky, La Société de l’esprit, Interéditions, 1988. voir aussi Michael Wooldridge, An Introduction to MultiAgent Systems, John Wiley & Sons, Inc., 2001, Gerhard Weiss, (ed.), Multiagent Systems, A Modern Approach to Distributed Artificial Intelligence, MIT Press, 1999, Jacques Ferber, Les systèmes multi-agents : Vers une intelligence collective, InterEditions, 1997 72 Intelligence collective : Rencontres 2006 qui permette à ces agents de résoudre des problèmes plus ou moins complexes. Imaginons que nos agents soient des petits lutins robotisés chargés d’entretenir le feu dans une cheminée. Les uns doivent couper le bois, certains le transporter, d’autres empiler les bûches, d’autres encore veiller à ce que le feu ne s’éteigne pas, d’autres enfin préparer à manger (il faut bien que les ouvriers se nourrissent !). Chacun est donc affecté à une tâche spécialisée. Une coordination d’ensemble s’impose pour éviter les bousculades et engorgements ou au contraire le manque de bûches45. Au lieu de concevoir un programme général intégrant toutes les données, la solution peut consister à nommer un agent chargé de s’occuper du planning, un autre d’organiser le repos de chacun (tout en évitant la rupture de la chaîne), d’autres encore seront chargés de la circulation du bois, de maintenir constant le nombre de bûches dans le feu, etc. Un tel dispositif, souple dans son principe, permet de faire face à une variété de situations qui n’ont pas à être programmées par avance. De fait, les modèles de SMA ont dû, au fil du temps, intégrer dans leurs modèles des agents cognitifs et non plus simplement réactifs. De même il a fallu intégrer des dispositifs d’organisation hiérarchiques, des centres régulateurs, des dispositifs de supervision, de contrôle, s’éloignant ainsi de plus en plus de l’idée d’une IC qui émergerait spontanément d’agents rudimentaires en interaction. Le cerveau serait-il lui aussi un SMA ? On sait que le cerveau humain est composé de milliards de neurones reliés entre eux par des voies synaptiques. L’immense réseau ainsi formé est parcouru de flux d’informations circulant sous forme chimique et électrique. Comment ce dispositif fonctionne-t-il ? Une des hypothèses avancées est celle des réseaux de neurones formels. Il s’agit de modèles mathématiques censés reproduire le fonctionnement des neurones biologiques. Chaque neurone se comporte comme un agent simple, qui réagit – positivement ou négativement – à plusieurs stimuli qui lui sont envoyés. Dès les années 1950, la théorie des réseaux de neurones formels a suscité de nombreux espoirs. On pouvait supposer que par la combinaison entre de très nombreux éléments, reliés entre eux, il serait possible de simuler des fonctions complexes : mémoire, perception, apprentissage, intelligence… Une fois le principe de base découvert, le passage de cerveau simple à cerveau complexe n’était plus qu’une question de nombre. Mais très vite, on allait déchanter. Dans les années 1960, suite au piétinement du perceptronu et des critiques acerbes de ses détracteurs (Seymour Papert et M. Minsky en tête), le projet était au point mort. Puis il a connu une renaissance dans les années 1990 (avec notamment de nouveaux modèles dits réseaux de Hopfield) et constitue aujourd’hui une nouvelle piste pour l’IC. Mais il reste qu’on ne peut espérer y trouver la façon dont le cerveau s’y prend pour résoudre des problèmes généraux. La raison en est la suivante : si le cerveau se présente bien comme un réseau de neurones, cela ne signifie nullement que l’étude de la physiologie de chaque neurone et de ses connexions avec les autres suffit à expliquer l’organisation d’ensemble. 45 Le problème se pose notamment à propos de l’encombrement des réseaux d’Internet sans fil. «Le Wi-fi intelligent », Alex Hills, Pour la Science, janvier 2006. Conférences RIC’2006 73 Le corps humain – ou de tout autre animal complexe – apparaît comme une somme de milliards de cellules interconnectées. Mais pour comprendre le fonctionnement général de ce corps, on ne peut s’en tenir à la seule échelle des cellules et de leurs connexions. Des groupes de cellules forment des organes, eux-mêmes reliés entre eux… Penser l’ensemble suppose de changer d’échelle d’analyse : passer du niveau de la cellule à la physiologie globale. DES ROBOTS AUX CERVEAUX Il en va de même pour le cerveau. La démarche élémentariste qui pense reconstruire le fonctionnement du cerveau à partir de réseaux de neurones ne saurait suffire. Pour en saisir la logique d’ensemble – celle des aires cérébrales spécialisées et leurs articulations –, il faut passer à un niveau d’organisation supérieur. Voilà pourquoi les modèles connexionnistes – qui se situent à un niveau d’organisation assez élémentaire – peinent à comprendre les lois d’organisation du cerveau à un niveau plus général. L’étude du fonctionnement global du cerveau – et plus généralement de tout dispositif intelligent – relève de ce que l’on nomme les architectures cognitives (AC) Qu’est ce qu’une A.C. ? C’est un schéma d’organisation et de fonctionnement d’un dispositif intelligent (ordinateur ou cerveau). Une AC se présente d’abord sous la forme d’un schéma (comparable à celui d’un moteur de voiture) décrivant les organes principaux (les modules : mémoire, vision…) et leurs relations (comment y circule l’information). Dans La Société de l’esprit (1988), Marvin Minsky, un des pionniers de l’intelligence artificielle, a proposé une AC sous la forme d’un ensemble de petits agents dotés de fonctions simples du type «ajouter», «poser», «rapide», «dehors»…, ceux-ci se combinant entre eux sous la conduite d’autres fonctions, plus générales. Il ne s’agissait encore que d’une hypothèse théorique, destinée à expliquer comment fonctionne un système intelligent généraliste. La théorie unitaire de la cognition de John Anderson a donné lieu à l’une des AC les plus connues : l’ACT-R. Bâtie sur une base connexionniste, elle fut ensuite largement amendée et fait désormais intervenir plusieurs modules (visuel, intentionnel, mémoire, etc.) qui exécutent chacun une fonction cognitive précise. Elle a été traduite sous la forme d’un programme informatique (dernière version ACT-R6). Il existe différents types d’AC. Certaines sont de nature psychologique (visant à modéliser l’esprit humain), d’autres de nature informatique, d’autres enfin se veulent universelles (applicables à tout dispositif intelligent). C’est le cas pour les modèles SOAR créés par Alan Newell, l’ACT-R de J. Anderson ou l’architecture cognitive de subsomption de Rodney Brooks, etc. Certaines sont polyvalentes (prétendant simuler toute fonction cognitive), d’autres dévolues à un domaine cognitif particulier : perception, mémoire, lecture, conduite automobile, etc. Certaines reposent sur une base modulaire (petites unités responsables d’une fonction précise et pilotées par un centre), d’autres sur un principe connexionniste (une myriade d’unités identiques sans pilotage général), d’autres encore, comme l’AC de subsomption, s’inspire de modèles vivants. 74 Intelligence collective : Rencontres 2006 Autant dire que les modèles d’AC créés pour simuler le fonctionnement du cerveau restent largement spéculatifs et limités dans leur application. Mais là encore, lorsque l’on tente de classer les différentes AC disponibles sur le marché des idées, il apparaît immédiatement que très peu fonctionnent sur le mode idéal de l’IC, c’est-à-dire d’une multiplicité d’agents simples qui s’auto-organiseraient spontanément. Aucune ne peut se ramener à un simple schéma d’émergence «bottom-up». Toutes font plus ou moins appel à des dispositifs complexes formés de modules, sous-modules, centres pilotes… Elles s’appliquent par ailleurs à des fonctions cognitives assez limitées. Du point de vue des AC en tout cas, le cerveau n’apparaît pas comme une libre assemblée de neurones indépendants qui s’assemblent et entrent spontanément en coopération pour former une belle machine. DES ROBOTS AUX ORGANISATIONS Changeons de niveau d’organisation et passons aux sociétés humaines. La question de l’IC y renvoie à des questions classiques en théorie des organisations : comment s’élaborent les décisions ? Où se réalise la coordination d’activité dans une entreprise ou une administration ? Jusqu’aux années 1970, ces questions étaient abordées à partir d’un modèle dominant : l’organisation hiérarchique pilotée du haut vers le bas à partir d’un centre de décision unique. Depuis les années 1980, ce schéma d’organisation a perdu de son crédit. Le déclin des modèles hiérarchiques a conduit à s’intéresser de près au travail en équipe, au processus de décision collective (rebaptisée «gouvernance »), à l’autonomie et la communication des acteurs, à la logique des réseaux46. De plus, l’importance accrue accordée à l’information, la culture, l’apprentissage, l’innovation, conçus comme des ressources stratégiques, a mené à porter attention à la «cognition collective» en organisation. Plusieurs courants de pensée se sont engagés dans cette voie et c’est ainsi qu’on a vu fleurir les théories de l’apprentissage organisationnelu, de la cognition située*, des communautés de pratique*, du knowledge management*, du CSCW (Computer Supported Cooperative Work)*, etc. Toute une littérature s’est développée à partir de ces travaux qui sont entrés en connexion avec les théories de l’intelligence sociale (Lev S. Vygotski) ou l’ethnométhodologie. Globalement, un paradigme «constructiviste «de l’intelligence sociale s’est affirmé dans les années 1990, qui se situe en opposition au modèle cognitif standard qui a longtemps régné au sein des sciences cognitives. Ce nouveau regard sur les relations informelles et les interactions entre acteurs a contribué à mettre en lumière tout un pan des organisations resté jusque-là dans l’ombre. Etienne Wenger a montré dans une étude célèbre sur les communautés de pratique comment les agents de Xerox se transmettaient pendant les pauses leurs «trucs «et 46 M. Castells, L’Ere de l’information. La société en réseaux, Fayard, 1997. Conférences RIC’2006 75 ficelles sur le fonctionnement de leurs machines47. De son côté, Norbert Alter a dévoilé comment se produisait l’innovation au quotidien dans les entreprises : les agents trouvent des combines, inventent des procédures pour faire fonctionner des dispositifs en dehors des règles formelles. ENCADRE 1 Quand les robots attaquent 1) «J’avance», 2) «si je suis face à un ami, je m’écarte», 3) «si je suis face à un ennemi, je frappe», 4) «j’avance». A l’aide de quelques simples types de comportements attribués à une myriade de soldats robots, on peut simuler une bataille sur ordinateur. C’est ainsi que dans le film Le Seigneur des anneaux (Peter Jackson), les scènes de batailles ont été modélisées sur écran – sans qu’aucun figurant réel ne joue la scène. Le comportement des «agents » était géré par un programme d’intelligence artificielle multiagent nommé Massive. Sur ce modèle, on peut aussi réaliser des jeux tels les Robocup où des équipes de robots s’affrontent. Dans les systèmes multiagents, (SMA), une série d’agents autonomes interagissent en suivant chacun des comportements simples. Collectivement, ils parviennent ensemble, sans pilote ni plan d’ensemble, à résoudre des problèmes. C’est ainsi que l’on explique certains comportements collectifs caractéristiques des insectes sociaux, comme les fourmis ou les termites (transport de nourriture ou constitution de cimetières). Dans les premiers modèles de SMA, les agents sont dits «réactifs ». Leur comportement est guidé par des règles élémentaires les faisant réagir à un environnement changeant. Mais peut-on tenter de modéliser des comportements avec des agents «cognitifs», qui obéissent à des conduites complexes : ces agents possèdent des représentations globales de la situation, sont capables de se fixer des buts (gagner la guerre dans le cas du jeu vidéo). Dans ce cas, les agents ont une gamme de conduites à leur disposition. Ils ne se contentent pas de tuer l’ennemi qui se présente, mais cherchent aussi à occuper une position stratégique, à trouver des moyens pour franchir les obstacles. L’interaction de ces agents cognitifs suppose alors planification et coordination des comportements. Par exemple, il faut nommer un agent régulateur, ou planificateur. Rien n’interdit de le faire en principe. Mais on retombe alors dans les modèles de pilotage hiérarchique de l’action, qui reprend le pas sur l’interaction spontanée des agents. On s’éloigne donc des modèles d’intelligence collective. n J.-F.D. À lire P. Mathieu, S. Picault et J.-C. Routier, «Les agents intelligents», Pour la science, n° 332, juin 2005. A-t-on pour autant mis au jour les lois de l’intelligence collective en organisation ? On en est loin. Tout d’abord parce que le modèle de l’IC, en se focalisant sur les réseaux, sur le fonctionnement des services, détourne de fait le regard du fonctionnement général des 47 E. Wenger, Communites of Practice. Learning, meaning, and identity, Cambridge University Press, 1998.