« PRATIQUES ET USAGES ORGANISATIONNELS DES SCIENCES ET TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION » ACTES du Colloque International en Sciences de l’Information et de la Communication RENNES - 7, 8 ET 9 SEPTEMBRE 2006 Organisé par le Centre de Recherches en Sciences de l’Information et de la Communication – CERSIC/ERELLIF EA 3207 ÉDITION-REPROGRAPHIE ENSP 2 2 3 3 4 4 5 « PRATIQUES ET USAGES ORGANISATIONNELS DES SCIENCES ET TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION » Colloque international organisé les 7, 8 et 9 septembre 2006 à l’Université Rennes 2, par le CERSIC-ERELLIF (EA 3207) en collaboration avec l’Ecole Supérieure de la Santé Publique (ENSP-Rennes) et France télécom R&D et avec le soutien du Conseil Scientifique de l’université Rennes 2, de Rennes Métropole, de la Région Bretagne, de la Caisse régionale d’épargne de Bretagne, de la Société Française des Sciences de l’information et de la communication, du Groupe d’Etudes et de Recherches sur les communications organisationnelles « Org & Co », et des revues Sciences de la Société et Communication et organisation. ORGANISATION DU COLLOQUE Responsables scientifiques Christian LE MOENNE Catherine LONEUX Responsable du comité scientifique en charge des tables rondes Didier CHAUVIN Comité scientifique Responsables du comité Recherches/Entreprises Maryse CARMES Emmanuel MAHE Françoise BERNARD (France) Robert BOURE (France) Sylvie BOURDIN (France) Arlette BOUZON (France) Jean-Jacques BOUTAUD (France) Valérie CARAYOL (France) Yves CHEVALIER (France) Pierre DELCAMBRE (France) Finn FRANDSEN (Danemark) Nicole GIROUX (Canada) Gino GRAMACCIA (France) Carole GROLEAU (Canada) Brigitte GUYOT (France) Winni JOHANSEN (Danemark) Christian LE MOENNE (France) Catherine LONEUX (France) Vincent MEYER (France) Jean-Max NOYER (France) Serge PROULX (Canada) Responsable de l’organisation Sophie RAPNOUIL Comité d’organisation Maryse CARMES Didier CHAUVIN Christian LE MOENNE Catherine LONEUX Sophie RAPNOUIL Julie TREVILY Claire MAHEO Julien TARTIVEL François MATHIEU Shuai YAN Secrétariat du CERSIC ERELLIF Nelly BRÉGEAULT-KREMBSER 5 6 PROGRAMME GENERAL Jeudi 7 Septembre 8H30-9H30 : Accueil - Petit-déjeuner 9h30-10h15 : OUVERTURE DU COLLOQUE Ouverture institutionnelle du Colloque, par Jean-Emile Gombert, vice-président du Conseil Scientifique, représentant Marc Gontard, Président de l’Université Rennes 2. Ouverture scientifique du Colloque, par Christian Le Moënne et Catherine Loneux 10h15-12h45 : SÉANCE PLÉNIÈRE AUTOUR DE L’AXE 1 - Animation scientifique: Sylvie Bourdin Jean-Max Noyer, « De l’extension illimitée des études d’usages. Quelques remarques. »» 11h00-11h15 : pause Jean-Jacques Boutaud, « Les organisations, entre idéal du moi et monde possible » Finn Frandsen et Winni Johansen, « Internet, intercrise » 12H45-14H00 : Déjeuner 14H00-16H00 : TABLE RONDE PROFESSIONNELLE - Responsabilité et animation scientifique: Bertrand Parent. « Organisation et dispositifs de communication en situation d’exception et de crise » - Amphithéatre de l’ENSP 16h00-16h15 : pause 16H15-18H45 : SÉANCE PLENIÈRE AUTOUR DE L’AXE 2- Animation scientifique: Vincent Meyer. Brigitte Guyot, « Les pratiques des TIC du côté des sciences de l’information : quelle influence sur les processus organisationnels ? » Pierre Delcambre, « Quand les TIC sont la simple modernisation des technicités anciennes et n’accompagnent pas (contre toute attente) des recompositions organisationnelles, des chercheurs en SIC doivent-ils aller planter leur tente ailleurs ? » Bernard Floris, « Les TICs dans l’intégration organisationnelle des entreprises et du marché ». 19h15 Cocktail Soirée libre. Possibilité d’assister à l’ENSP à la conférence-débat sur « l’anticipation des risques liés à la Grippe aviaire ». Vendredi 8 Septembre 8H30-9H00 : Accueil et Petit-déjeuner 9H00-12H35 : 2 ATELIERS en parallèle pour chacun des 4 axes) – voir programme ateliers AXE 1 : Quelles pratiques émergentes ? Les organisations communicantes : entre utopies et mise en œuvre, état des conceptions, des pratiques. AXE 2 : Quelle influence sur les processus organisationnels ? De la notion d’instrument technologique à celle de dispositif de régulation organisationnelle. AXE 3 : Quel impact sur le travail ? AXE 4 : Quelles nouvelles problématisations ? 12H45-14H00 : Déjeuner 14H00-16H00 : 2 TABLES RONDES PROFESSIONNELLES (en parallèle) « Intranet : quelles pratiques et enjeux associés aux méthodologies de conception ? » (Responsabilité et animation scientifique: Maryse Carmes) « Créations et utopies autour de l’organisation communicante » (Responsabilité et animation scientifique : Emmanuel Mahé et Julie Trevily) 16H00-16H15 : pause 16H15-16H30 : COMPTE RENDU DES 2 TABLES RONDES PROFESSIONNELLES en séance plénière, par les animateurs. 16H30-18H45 : SÉANCE PLEINIÈRE AUTOUR DE L’AXE 3 - Animation scientifique : Robert Boure Gino Grammaccia, « Les antinomies entre la modélisation numérique des activités professionnelles et le caractère indécidable des pratiques. » Anne Mayère, « Repenser les TIC – Pour un cadre d’analyse des évolutions des dispositifs d’informationcommunication et des pratiques professionnelles. » Carole Groleau, « Intégration de technologies de l’information et de la communication en milieu de travail : penser l’arrimage des médiations sociales et matérielles avec la théorie de l’activité. » 20h00 : SOIREE DE GALA - Apéritif, Repas-Buffet et piano-bar au « Café des Bricoles » - 17 Quai de la Prévalaye, Rennes Station de Métro : République – Aller vers la Place de Bretagne (en sortant du métro du côté du Café de la Paix) et longer ensuite la vilaine sur 200mètres : vous y êtes. Samedi 9 Septembre 8H30-9H00 : Accueil et Petit déjeuner 9H00-11H00 : 2 ATELIERS en parallèle pour chacun des 4 axes – voir programme ateliers 11H00-11H15 : pause 11H15-12H30 : SÉANCES PLEINIÈRE AUTOUR DE L’AXE 4 - Animation scientifique : Catherine Loneux. Françoise Bernard, « La communication d’action et d’utilité sociétales : nouveaux enjeux, problématiques et terrains pour la communication des organisations. » Christian Le Moënne, « La place des formes organisationnelles dans les nouvelles problématisations en SIC. » 12h30 : CLOTURE SCIENTIFIQUE DU COLLOQUE et Déjeuner sur le pouce (sandwiches). 6 7 SOMMAIRE PRESENTATION GÉNERALE DU COLLOQUE PROGRAMME COMMUNICATION INTRODUCTIVE Christian LE MOENNE, et Catherine LONEUX 2 - « Pourquoi les recherches sur les pratiques et usages des sciences et technologies de l’information et de la communication ne peuvent plus ignorer le contexte organisationnel » COMMUNICATIONS AUX SEANCES PLENIERES Françoise BERNARD - « Le paradigme de la communication engageante : nouveaux enjeux, problématiques et pratiques pour la communication des organisations ». Jean-Jacques BOUTAUD - « Les organisations, entre idéal du moi et monde possible » Pierre DELCAMBRE – « Quand les TIC sont la simple modernisation de technicités anciennes et n’accompagnent pas (contre toute attente) des recompositions organisationnelles, des chercheurs en Sic doivent-ils aller planter leur tente ailleurs ? » Winni JOHANSEN et Finn FRANDSEN, « Internet, intercrise ? » Gino GRAMACCIA, « Les antinomies entre la modélisation numérique des activités professionnelles et le caractère indécidable des pratiques. » Carole GROLEAU,) « Intégration de technologies de l’information et de la communication en milieu de travail : Penser l’arrimage des médiations sociales et matérielles avec la théorie de l’activité. » Brigitte GUYOT, « Comment articuler pratiques et organisation : document dans l’activité, management de l’information » Christian LE MOËNNE, « Apport des recherches en communications organisationnelles aux nouvelles problématisations en Sciences de l’Information et de la Communication. » Anne MAYERE, « Repenser les TIC : Pour un cadre d’analyse des évolutions des dispositifs d’information – communication et des pratiques professionnelles ». Jean-Max NOYER, « De l’extension illimitée des études d’usages. Quelques remarques. » COMMUNICATIONS DANS LES ATELIERS (voir également le programme détaillé) AIT OUARAB BOUAOULI Souad,« Internet dans les centres de recherche algériens : l’absence d’une stratégie interne d’appropriation. » ANOIR Imane et PENALVA Jean-Michel, “Usage des dispositifs socio-techniques dans les situations de travail collaboratif » BATAZZI Claudine et ALEXIS Henri, « Une approche des TIC dans l'organisation par la notion de confiance » BAZET Isabelle,« De l’informatisation des processus au travail informationnel en miettes. » BAUJARD Corinne, « Collaboration et technologies : quelles pratiques organisationnelles ? » BERTHELOT-GUIET Karine, JEANNE-PERRIER Valérie et PATRIN-LECLERE Valérie, « Informatisation d'une rédaction radiophonique : incidences professionnelles et organisationnelles » BOBOC Anca et DHALEINE Laurence, « Individus et usages des TIC, à l'articulation du privé et du professionnel » BOUILLON Jean-Luc et DURAMPART Michel, « Entre autorégulation, formalismes et constructions symboliques : les paradoxes des « nouvelles formes organisationnelles » BOURRET Christian, « Technologies de l'information et de la communication et évolution des pratiques professionnelles : le 7 8 cas des réseaux de santé en France » CHABBEH Samah, « les TIC et la recherche d’une nouvelle conception de l’espace du travail et des nouvelles relations communicationnelles et socioprofessionnelles. Le cas des entreprises de presse tunisiennes » CHABERT Ghislaine et IBANEZ BUENO Jacques, « Télé-présence avec images et sons et communication organisationnelle » CHAPELAIN Brigitte, « L’intelligence collective dans les communautés littéraires en ligne. » CORDELIER Benoît,« Les TIC, actants du changement organisationnel. Une approche discursive de la structuration des organisations » COTTE Dominique, « Logique documentaire et organisation d'entreprise, regards croisés depuis les SIC? » DEPAUW Jeremy,« La gestion de l’information comme processus de médiation dans l’organisation: vers une typologie des pratiques“ DUMEZ-FEROC Isabelle, « Des dispositifs de communication multicanaux au service de l’apprentissage collaboratif dans des classes de l’enseignement secondaire : émergence de nouvelles pratiques de formation ? » DUMOULIN Laurence et LICOPPE Christian, « Usages des dispositifs technologiques dans la justice : le cas des audiences à distance » ENGUEHARD Chantal, « Le vote électronique en France : opaque et invérifiable » GAGLIO Gérald, MARCOCCIA Michel et ZACKLAD Manuel, « L’élaboration et la réception de fichiers power point en entreprise : instrument technologique ou dispositif de régulation organisationnelle » GARDERE Elizabeth, « Conduire un projet d'entreprise avec les TIC. De l'acteur projet à l'acteur réseau? » GROSJEAN Sylvie et BONNEVILLE Luc, « TIC, organisation et communication : entre informativité et communicabilité» HANEN Teka et HAMDI Helmi, L’impact de la nouvelle économie sur le développement des firmes.” HELLER Thomas, « TIC et contrôle : Narcisse défiguré. » HENAFF Nolwenn, « Usages en contexte organisationnel d’un dispositif technique innovant : les blogs » HIRT Olivier, « De l'explication des effets, à la compréhension des usages des TIC dans les organisations : un défi pour les SIC » HUET Romain,« Quelle régulation sociale pour « quelle société de l’information » ? HUSSENOT Anthony, « Vers une reconsidération de la notion d'usage des outils Tic dans l'organisation : une approche en termes d' «énaction». JANVIER Roland, « Le contrat en action sociale : un nouvel objet technique. Impact sur les pratiques professionnelles, incidences sur les formes et les processus organisationnels » KESSOUS Emmanuel, « Qualifier l’information confidentielle. Retours sur les usages de la messagerie électronique et des dispositifs de stockage dans une grande entreprise de service » LE DEUFF Olivier, « Les documentalistes de l’Education Nationale : la perpétuelle mutation professionnelle. » MALLET Christelle, « Une approche contextualiste de l'appropriation des TIC dans les organisations : le cas des outils de gestion de la relation client » MARCHAL Nicolas, « L'expérience d'une machine à voter: Sa réalisation et sa publicité auprès des utilisateurs potentiels. » MASSOU Luc, KELLNER Catherine et MORELLI Pierre, « Pratiques effectives de travail collaboratif à distance : limites prévisibles et inattendues » METGE-AGOSTINELLI Marielle,« Usages et TIC : une méthodologie à construire » MONTAGNAC-MARIE Hélène, « Internet en bibliothèque universitaire : des représentations et pratiques en construction » MORILLON Laurent et BELIN Olivia, « L’intranet comme révélateur des libertés : jeux, pouvoirs et stratégies d’acteurs dans les organisations.» 8 9 NOEL-CADET Nathalie, « Observer les formes de relation au travail dans les centres d’appels par l’approche sémiotique de l’écriture d’écran. » OMRANE Dorsaf, « PME et TIC : trajectoires, représentations et pratiques pour une analyse des usages des sites web » PAYEUR Cécile et ZACKLAD Manuel, « Enjeux des TIC dans le secteur de la distribution de la presse écrite » PINEDE-WOJCIECHOWSKI Nathalie, « Logiques et stratégies de pouvoir dans les organisations via les TIC : ruptures et/ou continuités ? » PIPONNIER Anne, « Nouvelles dynamiques organisationnelles de la communication scientifique de réseau : émergence d’une pragmatique éditoriale dans les portails de projets de R&D internationaux. » PREVOT Hélène, « Le choc des cultures réglementaires dans l’aviation de loisir en France. Approche socio-anthropologique des processus réglementaires. » RENAUD Lise, « La figure du cadre nomade: contribution à une analyse des discours d’accompagnement des téléphones mobiles professionnels » RIGOT Huguette, « L’agir info-organisationnel. Nouvelles approches des pratiques scientifiques en SHS » ROUX Angélique, « Dispositif informationnel et utilisateur-acteur: de l’usage à la pratique. Une approche par les processus d’appropriation» SALANCON André, « Le commerce agroalimentaire via Internet, encore une utopie?“ VACHER Béatrice, « Bricolage informationnel : entre intérêt stratégique et banissement. Une explication historique. » VAN CUYCK Alain, « Pour une perspective en SIC du concept de forme organisationnelle » VERDIER Benoît, « Usages TIC et interdépendance des logiques organisationnelle et individuelle : le cas des formateurs permanents du GRETA des Ardennes». WILHELM Carsten, « Interférences interculturelles et co-construction interactive en ligne. Étude de cas d’un dispositif d’apprentissage collaboratif à distance ». ZOUARI Khaled, « Les entreprises de presse au Maghreb face à l'Internet : pratiques professionnelles et formes organisationnelles » 9 10 INTRODUCTION DU COLLOQUE « Pourquoi les recherches sur les pratiques et usages des sciences et technologies de l’information et de la communication ne peuvent plus ignorer le contexte organisationnel » Christian Le Moënne et Catherine Loneux CERSIC-ERELLIF, EA 3207, Université de Rennes 2 [email protected] et [email protected] Ce colloque a pour objectif d’alimenter le débat sur les problématiques émergentes et les travaux de recherches concernant les pratiques et usages des sciences et technologie de l’information et de la communication (TIC) dans les différents contextes organisationnels. Les pratiques de mise en œuvre de ces technologies sont souvent analysées dans des perspectives qui privilégient les interactions individuelles en situation, en les mettant éventuellement en relation, parfois de façon un peu artificielle, avec des évolutions sociétales et économiques globales. La dimension organisationnelle et le contexte institutionnel de l’émergence de ces pratiques sont ainsi étonnamment négligés ou massivement sous estimés, alors que les innovations affectant les formes organisationnelles apparaissent comme des éléments majeurs des compétitions mondiales des firmes, mais également des états et de différents acteurs collectifs, organisés en reseaux, pour de nouvelles logiques d’efficacité. Le développement massif des technologies de l’intelligence dont l’invention avait été fortement encouragée par la perspective de réduire les coûts de transaction et d’industrialiser les tâches administratives, semble en effet accompagner une évolution de l’administration des firmes. La « gestion par les instruments » et par les normes techniques s’inscrit dans une compétition mondiale de recherche d’efficacité organisationnelle qui bouleverse les formes institutionnelles et traditionnelles d’organisation et propose des logiques d’evaluation susceptibles de contourner ou de remplacer les normes de droit. Cette référence aux normes pratiques s’articule à la communication institutionnelle et à « l’éthique managériale » comme modalités de gestion des environnements sociétaux et culturels. Ceci entraîne une recomposition permanente des limirtes entre sphères publique, privée, et professionnelle. Les TIC jouent donc un rôle majeur dans les dynamiques de changements organisationnels qui accompagnent la mondialisation des réseaux et des flux, mais également le développement simultané d’une « société de l’information » dont chacun voit qu’elle est aussi une « société du risque ». Diverses problématiques d’analyse de ces pratiques en termes d’usages tendent par ailleurs à maintenir une séparation entre acteur, objet, dispositif, ce qui induit une conception dualiste des techniques d’information et de communication et des processus de médiation. Or, les TIC affectent à l’évidence la délimitation antérieure des frontières entre entreprise et environnements sociétaux, entre travail et hors travail, entre sphères professionnelle, publique, privée, etc. Elles stimulent les imaginaires et les utopies des réseaux, de l’autonomie au travail et hors travail, de la connexion universelle et de la coordination harmonieuse, de la société de la connaissance partagée et de l’accès généralisé. Travailler sur les « usages » des TIC : un enjeu concurrentiel pour les sciences de l’information et de la communication ? Dans le contexte que nous venons de présenter, nous comprenons qu’il est devenu aujourd’hui difficile d’isoler l’impact spécifique des technologies de l’information des différentes évolutions qui leur sont concomitantes : concurrence accrue, réingénierie, fusions-acquisitions, développement de nouvelles attitudes des salariés vis-à-vis des situations de travail, etc. La recherche dans le domaine a cherché depuis plusieurs années à développer des hypothèses sur l’impact des TIC proposant des causalités multiples, suggérant que l’effet des TIC doit être évalué conjointement à l’effet d’autres variables. Ainsi, ce colloque a pour objet d’examiner de plus près les principaux facteurs de changement qui touchent l’univers professionnel des organisations. Rappelons les quatre axes proposés qui ont prévalu à la structuration des communications reçues : AXE 1 : Quelles pratiques émergentes ? Les organisations communicantes : entre utopies et mise en œuvre, état des conceptions, des pratiques. - La question des frontières et les recompositions 10 11 organisationnelles. - La question des « formes organisationnelles » : Quelle pertinence pour ce concept ? Quelle dimension anthropologique ? - La question des usages et des études d’usages en organisation. Faut-il parler d’usages ou de pratiques de travail ? Quelle pertinence dans le contexte de l’autonomie plus grande dans le travail ? - Entreprise informationnelle, communicante, intelligente, capitalisme cognitif, maison communicante… : Utopies ou stimulation de l’imagination et de la recherche ? - Rôle des facteurs linguistiques et culturels dans les usages des TIC, objectifs linguistiques et culturels de ces usages. AXE 2 : Quelle influence sur les processus organisationnels ? - De la notion d’instrument technologique à celle de dispositif de régulation organisationnelle. - Quelle est la place des instruments technologiques dans les organisations ? - Comment les dispositifs technologiques se construisent-ils dans l’organisation, et dans ses environnements ? - Quels sont les usages des TIC dans les pratiques d’expertise et d’évaluation ? (Veille informationnelle, chartes éthiques, normalisation, etc.) - Quel type de technologies relier à quel type de traces, ou de référentiels professionnels ? - Quelle est l’actualité des écrits d’écran de travail collaboratif : forums, pages personnelles, groupware, etc. ? - Quels outils technologiques voit-on émerger pour accompagner les recompositions organisationnelles et stabiliser l’ordonnancement du réel dans l’organisation ? AXE 3 : Quel impact sur le travail ? - Quels sont les usages du document numérique en organisation ? - Quelles technologies voit-on émerger pour quels référentiels de compétences ? - Quelle actualisation des usages des TIC observe-t-on en matière de capitalisation du savoir ? - Quelles est la réception, du côté des salariés, de ses stratégies managériales reposant sur des TIC ? - Quel type de mutualisation des usages de l’internet en organisation rencontre-t-on ? - Les dimensions organisationnelles d’internet entre hypermédia, informations en ligne et dispositif de coordination. AXE 4 : Quelles nouvelles problématisations ? - Quel est l’impact des nouvelles structurations de recherche? - Les objets techniques en organisation : quelle interaction avec les pratiques professionnelles ? - Quelle définition donner à ces termes de « professionnels » et « chercheurs » ? - Quelle limite à l’individualisme méthodologique pour penser les usages ? - Les formes organisationnelles en question : Quel est l’impact de la normalisation internationale ? - TIC et recomposition des sphères privée et professionnelle. - L'interdisciplinarité dans les recherches sur les TIC. Des communications de chercheurs et d’acteurs d’entreprises En s’appuyant sur ces différents axes, les communications ont permis de rapprocher les communautés professionnelles de la recherche des professionnels et acteurs des entreprises et administrations diverses concernés par les TIC, afin de favoriser la construction de réseaux et la mise en oeuvre possible de programmes collaboratifs de recherche. Les 60 communications dans les ateliers ainsi que les communications proposées dans les tables rondes portent sur plusieurs grands registres de travaux. Nous trouvons ainsi dans les textes des différents auteurs : - Des travaux qui s’efforcent d’analyser les problèmes posés par l’irruption massive des TIC dans les différents contextes et niveaux organisationnels (y compris les problèmes culturels et linguistiques, notamment dans le domaine francophone)… - Des travaux qui s’attachent à observer et penser les usages de tel ou tel dispositif ou technologie (mobiles, internet, progiciels, didacticiels, etc.) en contexte organisationnel… - Des travaux qui s’attachent à analyser la façon dont les TIC modifient les choix stratégiques des concepteurs des formes organisationnelles… - Des travaux qui s’attachent à analyser les effets sur le travail et la mise au travail des logiques participatives fondées sur les technologies de l’intelligence et les dispositifs cognitifs… - Des travaux qui s’attachent à analyser le rôle joué par les politiques générales des pratiques langagières, des écritures et des traces dans l’évolution du management et des logiques d’action aux différents niveaux organisationnels… - Des travaux qui s’attachent à observer le management du changement et de l’innovation organisationnels et communicationnels dans le contexte des TIC, notamment les hypothèses et recherches fondées sur « l’organisation communicante ». - Des travaux qui s’efforcent de penser les évolution épistémologiques et conceptuelles qui sont portées par le développement de formes organisationnelles instables, évolutives, en rupture avec les problématiques de modèles de la norme. Construire les TIC comme objet de recherche en communication organisationnelle. La perspective privilégiée à chaque fois dans les communications a consisté en une problématisation des TIC visant à les transformer en objet de recherche. Les opérations de construction de l’objet de recherche TIC, de son cadre conceptuel, et de ses modes d'intelligibilité, se sont faits à partir de choix méthodologiques différents à l’intérieur des différentes contributions proposées. L’objectif à chaque fois, en tant que chercheur, a été pour les participants à ce colloque de vouloir connaître le réel au delà de ce qui apparaît comme « naturel » et « observable ». Et pour réussir à dépasser le réel, les données telles qu’elles leur apparaissent à l’état « brut » dans un premier temps, ils ont tenté de les assembler pour les construire à leur manière, dans le but de dépasser l’objet TIC tel qu’il se donnait à voir à eux. Ils ont ainsi porté leur regard sur les différents outils technologiques comme s’ils ne constituaient qu’un support de plus de communication entre les acteurs de l’entreprise, comme si ces traces numériques, écrites, n’étaient pertinentes à observer que pour les effets qu’elles sont censées produire auprès des auxquels elles se destinent (les salariés ou les acteurs des environnements externes de l’organisation). Dans tous les travaux présentés, lorsqu’ils étudient les TIC et leurs usages dans les organisations, les auteurs ne cherchent pas à produire uniquement de la connaissance sur ces objets organisationnels et sociaux, mais plus sur la relation qui s’établit entre ces objets à visée communicationnelle et leurs usagers. L’objet doit ainsi sortir de son cadre technique pour être envisagé autrement que par le prisme des représentations élémentaires ne proposant pas de perspective 11 12 complexe. Alors, les questions qui émergeront auront à voir avec une approche de l’objet perçu comme assemblage de paramètres, d’acteurs, comme étant le fruit d’interactions nombreuses, comme un « dispositif » émanant des forces en présence dans l’organisation, en tension les unes vis-à-vis des autres. L’objet, d’empirique, devient ainsi scientifiquement construit. Les traces, les documents, la mémoire, les usages des technologies et des supports de communication, etc., seront observés. Les activités en organisations donnent en effet lieu à de nombreuses traces, plus ou moins visibles, qui vont œuvrer dans le sens de la constitution d’une mémoire collective, au gré des écrits qui émergeront et circuleront à l’intérieur de l’organisation via les TIC. Des documents se créent « en couches », de manière complexe, réunissant des contextes, co-textes, contenus textuels ou non, selon des circuits de conception collectifs ou non, des circuits de diffusion, des modes d’archivage particuliers ? Cette complexité dans la création de documents numériques intéresse les chercheurs en communication, qui appréhendent l’outil technologique pour chercher à l’interpréter dans sa dimension d’usage, d'apprentissage et d'interaction homme machine. Il convient de mettre en relation la forme de ces documents avec la nature de leur production, si l’on souhaite atteindre la genèse de la constitution de l’organisation. Ainsi, les auteurs ont tenté d’établir une distanciation vis-à-vis des objets professionnels. Il s’est agi pour eux de construire un objet original, sans que la pensée ne se délite au fur et à mesure des théories qu’ils ont énoncées, en offrant un repérage bibliographique clair. Pour valider leur objet, ils ont délimité leur travail de recherche par rapport à l’essai, afin d’éviter le risque de compilation d’auteurs et celui de la métaphorisation (emprunt dans notre discipline de concepts d’autres disciplines). Ils ont formulé et accumulé des hypothèses, pour prédire a minima, proposant un savoir qui essaie de penser ses propres limites. Dans cette perspective, le fait scientifique devient un objet scientifique, un artefact. Les faits scientifiques apparaissent comme construits, communiqués, évalués, sous la forme de propositions écrites : le travail scientifique devient une activité interprétative. Interroger l’organisation « dématérialisée » ou intelligente ? Beaucoup de communications ont proposé également des analyses portant sur des questions plus générales, telle que celle de la transformation de l’organisation par les TIC. Ainsi, les phénomènes liés à l’automatisation de la production sont appréhendés comme provoquant des changements non seulement dans les structures mais aussi dans les rôles tenus par certains acteurs. Ces transformations ont à voir avec : - la réduction des tâches classiques de l’encadrement de proximité (cadences, charges, planning) - l’augmentation des aléas techniques - le renforcement des services techniques (méthodes, entretien) - l’irruption de la préoccupation commerciale dans l’atelier Cette influence des dispositifs techniques se retrouve ailleurs dans les organisations, dès que l’informatique se développe (dans le secteur administratif par exemple). Ces nouvelles technologies, de traitement et de diffusion de l’information, couplées à des stratégies nouvelles de gestion des « ressources humaines » ont de effets considérables de « remodelage » (Livian, p. 62), sinon de la structure elle-même de ces organisations, du moins des compétences des salariés et de leurs modes de relation. Pierre Livian nous met en garde vis-à-vis de deux écueils à éviter lorsqu’on aborde la question de la technologie en organisation : - il faut éviter de les considérer comme neutres et sans effet particulier - il faut de même éviter de la considérer comme déterminante, sans possibilité d’intervention ou de marge de manœuvre « Dans un cadre qui considère l’organisation comme un « construit social », influencée mais non déterminée par des facteurs extérieurs, la technologie contribue, avec d’autres variables, à façonner des situations auxquelles les individus et les groupes vont réagir et s’adapter. Ces stratégies sont observables au niveau du lieu de travail, mais dépendent aussi du cadre institutionnel au sein duquel on se place (relations sociales, système éducatif, modèle de production) et qui oriente, d’une certaine manière, les opportunités et contraintes liées à cette technologie. On le sait aujourd’hui d’autant mieux que les comparaisons internationales des systèmes d’organisation et d’emploi montrent bien une variabilité institutionnelle des « effets » de la même technologie. » (Livian, p. 64). Interroger les relations entre les technologies et l’organisation « dématérialisée » revient à réaffirmer le rejet de tout déterminisme pour comprendre les organisations, dans un sens comme dans l’autre : une technologie aurait des effets organisationnels incontournables, ou bien une organisation conditionnerait l’adoption ou l’usage d’une technologie). Selon Livian, il y a une interaction entre solutions technologiques et organisationnelles. « Il n’y a pas de technologie pure, détachée des contingences organisationnelles, de même que les dispositifs organisationnels sont bâtis sur les technologies existant à un moment donné. Il y a interstructuration des deux domaines » (Livian, p. 210). Cette interrelation entre les technologies et leurs acteurs laisse de la place à une forme de liberté. Cela ne veut pas dire que tout est possible, mais on voit apparaître des stratégies du côté du fournisseur de technologies qui a des objectifs de valorisation de ses technologies et de domination technique, ainsi que de stratégies du côté de l’utilisateur, liées à la stratégie de l’organisation (une administration voulant réduire ses coûts de traitement de l’information, un choix de tel ou tel dispositif technico-organisationnel). Dans ce contexte, on devine que les voies par lesquelles une organisation adopte une technologie passent par des interactions entre acteurs, et doivent tenir compte aussi bien de ce qui se passe dans l’organisation que entre les organisations. Cette technologie pourra redéfinir la place des acteurs économiques les uns par rapport aux autres, au sein du secteur d’activités dans lequel ils opèrent. De nombreux exemples de technologies ont été présentés dans les articles reçus pour ce colloque, traitant des changements organisationnels occasionnés par la dématérialisation provoquée par les différents objets technologiques, tels que le téléphone mobile, la visio-conférence, les outils de travail collaboratifs (« workflow »), les technologies des documentalistes, des centres d’appel, des acteurs de santé, des médias presse, radiophoniques et télévisés. Analyser les éléments organisationnels ? socio-cognitifs des processus Outre leur dimension dématérialisée, les actions délibérées des acteurs en charge des TIC dans les organisations, ainsi que celles des usagers, possèdent de même, semble-t-il, une base socio-cognitive et reflètent l’installation de changements dans les normes et les stratégies. L’apprentissage humain, dans cette perspective, sera compris en termes de construction, de test, de restructuration des connaissances. La construction et la stabilité des formes 12 13 d’organisation passe alors par un apprentissage organisationnel (notion plusieurs fois abordée dans les communications). Argyris et Schön analysent l’organisation dans une double perspective. D’abord, elle est perçue comme associée à l’action, constituée d’un gouvernement (« polis »), d’une agence et d’un système de tâches. Ensuite, elles est associée à la connaissance, étant théorie de l’action, entreprise cognitive et artefact cognitif : « l’organisation est un artefact de moyens individuels de se représenter l’organisation » (Argyris, Schön, 1978, p. 16). Les « cartes organisationnelles » des acteurs mobilisent des images, des descriptions partagées de l’organisation que les individus construisent ensemble et utilisent dans leur démarche, au gré des changements internes et externes. L’organisation cherche elle-même à assurer sa propre transformation, afin de s’adapter à des conditions nouvelles d’exploitation des technologies issues des activités de recherche et développement. structures sociales pourraient technologies. être incarnées dans les Le discours qui accompagnait les TIC lors de leur essor au début des années 90 jouait sur le lien entre communication technique et lien social, entre échange et interactivité, mais aujourd’hui, la pensée critique de la technique présente dans le champ de la communication organisationnelle et au sein des pratiques professionnelles a tendance à intégrer une pensée critique et plus nuancée sur les usages de ces technologies. En matière d’organisation du travail, par exemple, les analyses proposées montrent que nous sommes sans doute dans un moment caractérisé par un principe d’ouverture de l’infrastructure TIC, d’interconnexion de réseaux, donc de dislocation des frontières de l’organisation. BIBLIOGRAPHIE De nombreuses communications ont cherché à repérer ces imaginaires et représentations associées aux TIC, partant de l’idée que les inventions techniques n’arrivent pas seules, mais prennent place dans un imaginaire qui leur préexiste. Le rapport entre imaginaire et processus d’innovation technique est souvent interrogé via des analyses empruntant au courant socio-technique et portant par exemple sur l’analyse des discours relatifs aux TIC dans les organisations. Le caractère matériel des TIC, leurs fonctionnalités, leurs sources potentielles d’efficience, se double pour ce courant théorique d’un caractère social, d’usage particulier dans un contexte organisationnel, où coexistent des rélités diverses, hétérogènes, mal articulées (Orlikowski). La technologie devient une construction sociale prenant place avant l’action, en raison des institutions cognitives qui contribuent à définir son « esprit » (Desanctis), sa « définition officielle » concernant ses usages appropriés. Les caractéristiques de cette technologie conduisent à des modes d’interaction qui peuvent modifier les propriétés structurelles des organisations. Cela suppose un processus de co-construction de la technologie et des pratiques professionnelles qui dépasse les visions déterministes et structuro-fonctionnalistes qui ont tendance à considérer l’innovation technologique comme objet stabilisé. Ce courant sera parfois critiqué dans la mesure où il implique que les Argyris Ch., Schön D.A. (1978) Organizational Learning : a Theory of Action Perspective, Massachussets, California (USA), London (U.K.), Ontario (Canada), Sydney (Ausatralia), Addison-Wesley Publishing Company. Desanctis G. Poole M.S. (1994), « Capturing the Complexity in Advanced Technology Use : Adaptive Structuration Theory », Organiszation Science, vol. 5, n°2. Grize, J-B et Vergès P., Silem A., (1987) : Salariés face aux nouvelles technologies, vers une socio-logique des représentations. Lyon, CNRS. Grunstein M. (1995), La capitalisation des connaissances de l'entreprise, système de production de connaissances. L'entreprise apprenante et les Sciences de la Complexité, Aix-en-Provence, éd. ??. Linhart D. (2000), « Le discours d’accompagnement des TIC dans les entreprises », La communication entre libéralisme et démoncratie, Paris, Actes du colloque du 12 décembre 2000. Livian Y-F. (2005), Organisation – Théories et pratiques, 3è édition, Paris, Dunod. Orlikowski W. (1992), « The Duality of Technology : Rethinking the Concept of Technology and Organizations », Organization Science, vol. 3(3), p. 398. Suchman L. (1987) Plans and situated actions : The problem of human-machine communication, New-York, Cambridge University Press. Tiberghien G. (1988) « Psychologie cognitive, science de la cognition et technologie de la connaissance », in Martin C. Informatique et société, des chercheurs s’interrogent, Presses Universitaires de Grenoble, pp. 82-96. 13 14 COMMUNICATIONS AUX SEANCES PLENIERES DU COLLOQUE Le paradigme de la communication engageante : nouveaux enjeux, problématiques et pratiques pour la communication des organisations Françoise Bernard, CREPCOM, Université de Provence. Des enjeux de société cruciaux tels que la santé et la prévention, la protection de l’environnement et l’écocitoyenneté, impliquent fortement l’information et la communication, par exemple sous la forme de programmes de sensibilisation et d’information, mais aussi dans la conduite de projets fortement médiatés et médiatisés. De nouvelles pratiques sociétales sont mises en place qui comportent les caractéristiques suivantes : Conception de projets impliquant différents partenariats : institutions, pouvoirs publics, collectivités locales, entreprises, équipes de recherche, associations, bénévoles, etc. Actions collectives portées par des pratiques de médiation et de médiatisation Emergence d’une « culture de la responsabilité sociétale » (Bernard, 2005) Questionnement concernant les pratiques des « professionnels » de la communication (presse, agences de communication, etc.) Des chercheurs en communication, et notamment en communication des organisations, sont impliqués dans des projets de recherche financés par l’état, les collectivités territoriales portant sur ces thématiques. De nouveaux terrains de recherche sont ainsi construits. Ils nécessitent un élargissement du pluralisme théorique, méthodologique et empirique en vigueur dans le champ des sciences de l’information et de la communication. En ce qui concerne la dimension théorique, il s’agit de convoquer des ressources théoriques susceptibles de penser la relation entre communication et action. Des travaux en cours visent à articuler les théories de l’action formulées dans le champ de la psychologie sociale autour de la théorie de l’engagement avec des apports théoriques de la communication des organisations (Joule et Bernard, 2005 ; Bernard et Joule, 2005). Par ailleurs, les actions conduites et étudiées mènent à un dépassement des objets « traditionnels » de la communication des organisations et notamment à de nouvelles problématisations qui travaillent la question de l’ « inter organisation » ou encore de « l’organisation élargie ». En ce qui concerne la dimension méthodologique, les chercheurs se situent bien souvent dans des logiques de « recherche action ». Ces logiques conduisent à expliciter la posture du chercheur et les conditions de mise en œuvre de travaux de recherche qui prennent en compte concrètement les questions du changement sociétal. Par ailleurs, les chercheurs sont fréquemment amenés à mettre en place des instances de « chercheur collectif » qui fédèrent des chercheurs de métiers et des non chercheurs décideurs et acteurs des projets. De telles instances s’avèrent souvent très pertinentes afin de travailler dans les deux sens la relation entre théorie et pratique. En ce qui concerne la dimension empirique, il s’agit d’être particulièrement vigilants aux question posées par le terrain, par exemple comment articuler en situation les trois questions du sens, du lien et de l’action dans des projets marqués par l’interculturalité (cultures de groupes, de métiers, d’organisations, etc.). Ainsi, les enjeux de société dont il a été question plus haut conduisent à un élargissement significatif de l’habitus scientifique en communication des organisations dont l’un des points, et non le moindre, est d’étudier des organisations autres que les organisations marchandes, ce qui fait historiquement partie du projet scientifique de la communication des organisations. Bibliographie (sélection) Bernard F. (2005). « La question de la culture et de la communication interorganisationnelles. Le cas de la communication d’action et d’utilité sociétales » Actes du colloque Culture des organisations, I3M, Université de Nice-Sophia Antipolis. Bernard F. & Joule R.V. (2005). « Le pluralisme méthodologique en SIC à l’épreuve de la « communication engageante », Questions de communication, Presses Universitaires de Nancy, n°7, p. 187-205. Bernard F. (2006, sous presse). « Organiser la communication d’action et d’utilité sociétales. Le paradigme de la communication engageante », Communication & Organisation,GreCo, Université Michel de Montaigne, Bordeaux 3. 14 15 « Les organisations, entre idéal du moi et monde possible » Jean-Jacques BOUTAUD, LIMSIC, Université de Bourgogne, [email protected] L’usage des TIC est gouverné, a priori, par des raisons instrumentales : mieux communiquer, plus vite, à moindre coût, partout, à tout moment, gagner en puissance et en facilité. Mais les problématiques émergentes en information et communication, notamment autour des usages, prennent en compte des dimensions complexes, non réductibles à des variables pratiques et opératoires. Au-delà de la matérialité des supports et des techniques, sont impliqués les rôles des usagers, leurs compétences, certaines modalités relationnelles et organisationnelles. Tout un univers de construction de soi et du monde que la sémioTIC, si l’on veut bien pardonner cette facilité, décrit en termes de monde possible. Entre le monde réel, certes construit (socialement, mentalement) mais présupposé comme cadre « naturel » de manifestation, et le monde textuel, inscrit dans nos messages, nos énoncés, le propre de la communication tient dans cette fiction de la relation qu’est le monde possible, le monde de l’énonciation. Concrètement pour notre sujet, cela engage à concevoir idéalement le rôle des TIC au sein de la société, et des organisations en particulier, en présupposant idéalement les pôles d’énonciation qui font usage de ces médiations techniques, dans leur propension à construire leurs rôles, leurs compétences et, plus encore, leur image et leur identité, sur un plan symbolique, cette fois, et pas simplement matériel. Le monde possible est donc celui de l’usager modèle (en production comme en réception, à titre individuel comme à titre collectif), fiction nécessaire du discours et de l’énonciation, pour construire l’idéal de la relation. Sans quoi il faudrait rabattre, dans le discours sur les TIC, tout le poids du réel, avec son cortège d’ennuis, de corvées, de contraintes, de limites (trop de travail, pas assez de temps, trop dur), qui ramène bien vite sur terre l’instance d’énonciation, construite idéalement dans le discours, dans l’action, ou que l’organisation s’emploie à construire idéalement. A côté ou audelà des logiques de valorisation des TIC, à décrire, et des fonctions dominantes, reconnues ou attribuées aux TIC, il faut déjà identifier ce niveau d’énonciation du monde possible, entre réel et textuel, en comprendre la fonction symbolique dans la construction des pôles et des figures de communication, selon un mouvement qui porte (soutenir et tendre vers) le discours et du même coup les sujets vers l’idéal de la relation. La fiction, pour ne pas dire l’utopie du monde possible, construit autour des TIC dans les organisations, nous portera précisément vers des problématiques émergentes à l’horizon sensible et symbolique de la communication, avec les valeurs associées aux TIC : la performance, la transparence, la quête immatérielle, dans le permanent de la relation. Le performant et le performatif. Quand les TIC sont la simple modernisation de technicités anciennes et n’accompagnent pas (contre toute attente) des recompositions organisationnelles, des chercheurs en Sic doivent-ils aller planter leur tente ailleurs ? Pierre DELCAMBRE GERICO Université Lille 3 [email protected] *Des réactions pour l’ouverture d’un travail et de discussions… Mon intervention est issue d’une réaction, que le titre assume, à l’appel à communication de ce colloque. Ce sont certes les réactions d’un homme réactif, mais aussi d’un chercheur d’Org&Co qui a toujours critiqué la centration NTIC de notre communauté scientifique, comme le risque d’une impasse majeure. Impasse collective, non faute de bons travaux sur la question –les journées, les thèses en voient régulièrementmais faute d’un cadre épistémologique suffisamment commun donc objet de vraies discussions critiques, faute d’un cadre épistémologique qui discute d’une position « communicationnelle » sur les pratiques dans les organisations, sur le travail informationnel et communicationnel, dans des environnements assistés ou non. L’appel à communication parle tantôt de « dispositifs ou technologie (mobiles, Internet, progiciels, didacticiels, etc. )» invitant à observer et penser les « usages », tantôt de « dispositif de régulation organisationnelle » invitant à penser les stratégies managériales.. Le terme de « TIC » est-il pertinent pour le travail de recherche ? L’analyse que faisait il y a près de 20 ans B.Miège pour distinguer, dans la mise en œuvre des « TIC » (qui n’étaient pas chez lui réduites aux dispositifs informatisés) 3 mouvements : « forger une identité forte », « accompagner l’émergence d’un nouveau modèle d’organisation du travail », « participer à la modernisation de la production » … doit-elle être revue ? Doit-elle être revue et déplacée en affirmant « l’évidence » d’un triple rôle (voir l’appel à contribution) : 1 les TIC affectent à l’évidence la délimitation antérieure des frontières entre entreprise et environnements sociétaux… 2 les TIC semblent accompagner une administration des firmes par les instruments et les normes techniques qui proposent des logiques d’efficacité susceptibles de remplacer des normes de droit »… 3 les TIC jouent un rôle majeur dans les dynamiques de changement organisationnels qu accompagnent la mondialisation des réseaux et des flux ? 15 16 Depuis 20 ans nos travaux ont-ils contribué à légitimer une croyance dans le caractère « structurant » des TIC dans les aventures des systèmes productifs et des organisations de services ? Autre réaction, autre doute : devons-nous, pouvons-nous, dans l’analyse des communications en contexte de travail, nous appuyer sur le concept d’usage sans revenir sur Laulan, Perriaut, Jouët, en assimilant leurs avancées pour mieux penser le décalage nécessaire entre le contexte de grande consommation et les contextes de travail. Dans l’ensemble de notre communauté (sciences de l’information et de la communication) nous avons cherché à développer un courant critique qui ne soit pas simplement dans les valises des discours enchantés des marchants et du marketing. Nous sommes néanmoins sans cesse à devoir penser l’enrichissement des dispositifs, des machines tant hard que soft que l’industrie reconfigure pour mieux intégrer des fonctionnalités supplémentaires dans de nouveaux modules de travail assisté. Nous passons derrière eux, commandités ou non pour des études d’ »usage », nous passons derrière une littérature explicitant et valorisant certains « usages ». Pour partie notre tâche consiste à vérifier la pertinence des discours, à anticiper de manière critique les réappropriations par les salariés, -les usagers ?- sur les terrains de recherche auxquels nous avons accès. Mais, en faisant cela, c’est au risque de quel enfermement scientifique ? Qui use quoi dans les contextes de travail ? Pourquoi analyser les communications de travail, le jeu de la structuration organisationnelle, les coopérations, la disponibilité, le travail sans assistance, l’emploi et la transformation des outils du travail… en termes d’usage ? Qu’est-ce que cela nous coûte théoriquement ? Ces réactions sont d’autant plus réactives que, pour ma part, je n’en suis pas encore à avoir fait ce travail que je souhaite, de relecture, d’interrogation critique. Je voudrai ouvrir l’espace de discussion, demander des collaborations sur un tel programme, et montrer avec le travail mené avec mes étudiants pourquoi nous sommes insatisfaits des cadres actuellement proposés. *le travail mené Pour instruire cette discussion nous proposons de travailler non sur les « Tic » en général, mais sur « l’usage d’un logiciel », en l’occurrence des logiciels de billetterie informatisée utilisés dans le secteur culturel, et sur les « recompositions organisationnelles » qui accompagneraient la mise en œuvre d’une billetterie informatisée. Plutôt que de travailler contrastivement sur des structures de même nature disposant ou non d’une billetterie informatisée, nous avons enquêté sur un ensemble de structures disposant d’un tel système, en enquêtant sur les « usages » (donc les « usagers ») et les changements organisationnels que la mise en œuvre d’un tel système pourrait induire, notamment sur les « places » des différents « services », potentiellement « usagers » ou « utilisateurs », composant ordinairement un établissement culturel. Le travail d’enquête a été mené dans le cadre d’un séminaire de recherche de 11 Master2 Métiers de la culture. Nous avons pu ainsi développer un protocole d’enquête sur l’ensemble des établissements culturels de la métropole lilloise dotés d’un système de billetterie informatisée (9 établissements de type Théâtre National en Région, Opéra, Scène nationale, Scène conventionnée, qui sont autant de structures de création et/ou de diffusion du « spectacle vivant » -théâtre, danse, musique, opéra, cirque, théâtre pour la jeunesse-). Ce sont aussi des structures pérennes, même si elles sont régulièrement déstabilisées dans leurs financements, leur direction, leur organisation. Et relativement anciennes dans leur existence. Il existe bien d’autres équipements culturels, mais leur envergure et leur stabilité est moindre… et l’équipement en billetterie informatisée n’est pas encore à l’ordre du jour des investissements. L’existence de logiciels de billetterie est bien connue de la profession. La revue La Scène, revue professionnelle du spectacle vivant, fait régulièrement des articles sur les billetteries informatisées ; elle a même publié un comparatif (dans le N°36, mars 2005) entre les 10 logiciels présents sur le marché –chacun indiquant chez qui il est installé… L’idée courante dans la profession, énoncée dans la présentation de ce comparatif « consommateur » est la suivante « L’évolution notable de la dernière décennie reflète l’une des préoccupations majeures des lieux : élargir leur public et le fidéliser. La mise en œuvre de fonctions liées aux relations publiques (bases de données, états statistiques sur le profil des spectateurs…) s’est ainsi généralisée ». Avant d’indiquer les hypothèses de l’enquête, il faut indiquer quelques éléments sur les organisations que sont ces établissements culturels. On convient généralement que depuis la première décentralisation dramatique, il y a eu une poussée forte du nombre et de la variété des établissements culturels, en France, dans les années des ministères Lang. On convient aussi que ces structures, une fois passée la phase des premières installations de structures dirigées par de « grands » créateurs (directeurs de ce premier cercle de « lieux »), -phase qui ne se développe pas aux mêmes moments pour le théâtre, la danse, le cirque, les arts de la rue…- se sont installées dans une seconde phase des structures de « diffusion », qui finalement formeront un « maillage » de structures aidées par les pouvoirs publics. Leur stabilité économique, quand elle existe, est celle de conventionnements entre plusieurs puissances publiques. Mais leur justification est la « démocratisation culturelle », le développement des publics. On convient encore que cette installation a été un moment de « professionnalisation » du secteur culturel, du « spectacle vivant » comme on dit. Professionnalisation de directions (programmateursresponsables des structures en rapport direct avec les administrations des tutelles, aidés d’administrateurs) d’abord ; professionnalisation du pôle « relations publiques » (relations avec les médias, développement du travail de contact avec les publics potentiels ou publics souhaités par les puissances publiques, postes que l’on appelle de « médiateur culturel » parfois et plus souvent de « relations avec les publics » ensuite ; mais aussi, enfin, professionnalisation de l’accueilbilletterie. On peut dire enfin que dans l’organisation coutumière que montrent nombre d’organigrammes, la « direction » est bicéphale (directeur+administrateur) voire tricéphale lorsque le responsable de la « communication » ou des « Relations publiques », doté parfois du statut de « secrétaire général », y est intégré. Le service « billetterie » est parfois intégré au service « communication », mais parfois il est en lien hiérarchique direct avec l’administrateur. C’est rarement un poste avec responsable au statut de cadre. En effet, pour finir, il faut dire que, même si la billetterie ne représente qu’un chiffre souvent faible des recettes (majoritairement les « recettes », ce sont des subventions d’équilibre), elle est une pièce d’un ensemble juridique et fiscal : le billet est une valeur dès qu’il est émis, les recettes de caisse sont liées aux tarifs de ces billets, les recettes de billetterie renvoient à des opérations fiscales. Toute erreur de billetterie, erreur de caisse, induit un travail de vérification sous la responsabilité de l’administrateur. Le logiciel de billetterie, on ne le dit plus dans les arguments de vente, évite l’édition fort complexe de billets imprimés en début de saison, avec les contingents selon les tarifs, tout billet étant numéroté et lié à la souche. Avec le logiciel, on édite au fur et à mesure de la vente, les opérations de mémoire des numéros vendus et de comptage sont automatisées. Tout le monde s’accorde à dire 16 17 que, dès lors, les relations entre « accueil » et « administration » ne sont plus tendues par la culpabilité, le sentiment de ne jamais faire « nickel », par la charge cognitive de la gestion d’un nombre invraisemblable de carnets de billets stockés dans une armoire forte. Mémoire et calcul simplifieraient la charge du poste « accueil » et changerait ses tâches ; cela rendrait moins tendus les rapports hiérarchiques entre le gestionnaire vérificateur et le chargé des ventes. Pourtant le logiciel a d’autres dimensions qui nous ont amené à poser des hypothèses sur changements organisationnels. Nous avions été alerté par une enquête diligentée par le Ministère de la culture et dont les résultats étaient publiées par « Développement culturel » (oct 2004) bulletin du Département des études, de la prospective et des statistiques du Ministère intitulée « L’économie de la billetterie du spectacle vivant ». On pouvait à partir de cette enquête et d’autres observations noter ce que les vendeurs bien sûr, mais aussi certains professionnels du secteur (des administrateurs surtout) pouvaient trouver comme avantage à se doter d’un tel système, à le mettre en œuvre, à former le personnel à son usage : les avantages que nous venons de citer -réduction des risques d’erreurs comptables, souplesse de l’édition des billets- mais aussi, meilleure connaissance des acheteurs, possibilité de développer automatiquement des « relances » auprès du public connu qui n’a pas acheté, production de statistiques utiles à la direction dans ses rapports avec les « tutelles financières ». On pouvait aussi, c’est un des objectifs de recherche en communication organisationnelle, vouloir enquêter sur le « jeu » que la mise en œuvre d’un tel équipement a produit dans les relations entre services. Une hypothèse pouvait être celle-ci : le service accueil-billetterie, jusqu’ici le moins « noble » de l’organisation pouvait vivre une série de modifications de sa place. D’une part c’est lui qui, au contact du public, procède à la constitution des données ; d’autre part utilisant couramment la billetterie informatisée, il peut devenir le personnel le mieux à même de naviguer dans le logiciel, audelà du placement des clients. Il pouvait devenir un lieu d’alerte en cas de faiblesse de remplissage, il pouvait développer une politique de relance. Et dans ce cadre, il pouvait à la fois faire des relances en termes d’exploitation du public connu et préconiser des relances média plus précisément ajustées au spectacle. Des spécialistes du géomarketing, s’il y en a dans la salle, imaginent aussi comment une politique de com dotée d’une connaissance géographique d’un public fidélisé peut « économiser » en termes de frais de campagne publicitaire. C’est pourquoi nous nous sommes intéressés dans notre enquête aux relations entre deux services en particulier : d’une part au service « accueil-billetterie » qui est en quelque sorte le service « front-office » de contact-vente avec le « public (entendu comme acheteur de billet ou demandeur d’exo pour les VIP) ; d’autre part au service « relations avec le public » qui est traditionnellement chargé de la « conquête » de différents publics, répondant à une politique de l’établissement. Des rapports symboliques structurent profondément les « places » de ces deux services et leurs relations. Ces places « bougent »-elles ? On pouvait faire l’hypothèse (si l’on estime que la présence des TIC « a une influence sur les processus organisationnels ») que la présence de ce logiciel, sa « localisation », son implémentation par le personnel de billetterie, la connaissance on line qu’il permettait sur le remplissage de la salle, sur le « public » et précisément sur la partie du « public » connu et non consommateur pour chaque spectacle… pouvait modifier les places symboliques des deux services considérés, pouvait déplacer le pilotage de l’activité des « relations avec le public » en le rendant plus sensible à la temporalité du remplissage de chaque spectacle, de chaque représentation et en imposant à son agenda une autre logique d’activité que celle du « développement des publics ». Cette hypothèse pouvait aussi se nourrir d’un conflit professionnel autour de la catégorie de « public » : le terme de « public » dans son usage dans le domaine culturel est susceptible d’être entendu comme l’ensemble des acheteurs pour une saison, comme l’ensemble des acheteurs pour une représentation ; dès lors, le public est zone de chalandise, bassin de public, cible du travail commercial : acheteurs connus à mieux exploiter… Mais le « public » c’est aussi, pour bien des professionnels du secteur culturel, des populations sans pratique de consommation, et plus fondamentalement sans pratique de jugement, vis-à-vis de qui la politique de démocratisation culturelle donne des obligations. Un établissement de diffusion culturelle est nécessairement pris entre plusieurs logiques : une logique de programmation, une logique de remplissage et une logique de développement des publics, données à lire et à évaluer conjointement et concurrentiellement. La modernisation d’un instrument de « bonne gestion » de la vente pouvait modifier le sens de l’activité ordinaire et la réorienter par une tension vers de meilleurs résultats de remplissage, redéfinissant le jeu des services dédiés à ces objectifs (programmation, tâche de direction ; remplissage, tâche de vente-marketing ; conquête de nouveaux publics, tâche de médiation, de « pédagogie »). *Quels sont les résultats de l’étude ? Une extraordinaire variation ou variété de situation. En termes « d’usage » d’abord . On pourrait dire que l’on trouve un usage « minimal » pour les pôles fonctionnels que sont l’accueil billetterie et l’administration. Il y a bien sûr l’usage par un personnel d’accueil faisant de la vente d’abonnements ou de billets, lequel est conforté par rapport aux risques d’erreurs. Pour le personnel qui avait vécu la billetterie manuelle, il y a là un vrai mieux, une relation pacifiée avec l’administrateur. Si le chargé de la billetterie est un personnel jeune, il peut aussi, s’il n’y a pas de demande spécifique, « utiliser » la billetterie informatisée seulement de cette manière : en documentant de manière minimale sur le public. Sur ce point (l’usage pour ce poste, mais aussi le travail coopératif à ce poste s’il s’agissait de réaliser pour l’équipe de l’établissement une base de donnée « bien faite », pour l’usage d’autres) il faut noter que les conditions du travail d’accueil structurent largement l’activité du chargé de billetterie : dans certains cas plus de 50% des billets est vendu sur place le soir du spectacle ; dans d’autres cas l’abonnement est la pratique majeure de telle sorte que moins de 2% des ventes se font avant le spectacle. L’accueil est alors, en soirée, plutôt occupé à accueillir les VIP et leur donner les « exos », et marche comme une « borne de retrait de billets ». On imagine que si la moitié de la jauge (dans l’exemple concret une salle de concerts de musique actuelle de 600 places) doit acheter et retirer ses billets dans l’heure et demie avant l’ouverture des portes après laquelle aucun retardataire n’entre, ce n’est pas le moment de retarder la file en procédant à un questionnement sur l’acheteur : dans ces cas là malgré la pression des autres services, on simplifiera la procédure de « connaissance et gestion du public par la base de donnée. Quant à l’administrateur, il utilise les statistiques, soit comme argument interne lors de réunions, soit comme argument à l’adresse des tutelles. Types de public (individuels avec la sous catégorie étudiants parfois, avec la sous catégorie « relais » parfois ; groupes avec les scolaires, les personnes venues par le biais d’associations notamment du secteur social…) localisation des spectateurs sont les informations les plus sollicitées. 17 18 Il est donc très fréquent que les « relations publiques » se désintéressent du logiciel et de la « connaissance du public » qu’il est censé permettre. Certains estiment explicitement qu’ils « connaissent leur public ». L’usage « relations publiques » du logiciel est donc rare et pensé dans ces cas là comme stratégique, nous y reviendrons. Cela veut dire que l’argument de vente du magasine La Scène (et des concepteurs de logiciels) est pour les établissements concernés (il faudrait voir si les Festivals sont en situation différente) « sans effet » : le travail des relations publiques est, sauf exception, déconnecté de l’accueil billetterie. Mais est-ce à dire que le service accueil ne peut pas se servir de la proximité d’usage de cet outil et de sa connaissance pour modifier sa place ? Parfois, mais pas systématiquement. Parfois des responsables de billetterie trouvent l’occasion d’enrichir leur tâche en préconisant des relances d’abonnement ciblés pour le public connu mais non fidélisé, mais la situation ne se rencontre que dans les établissements où le service « relation avec le public » est faible, comme, par exemple, dans la situation de l’opéra qui, ayant dès septembre octobre sa jauge remplie par les abonnements peut se contenter d’attribuer au service « médiation » un quota de place pour un travail sur des publics spécifiques que les tutelles (le conseil général pour les Chômeurs, Rmistes, collégiens parfois ; la région pour les lycéens) souhaitent, au titre de la démocratisation culturelle, voir se déplacer dans ces établissements. La relance pour meilleure exploitation du public déjà identifié n’est pas, en fait systématique. Dans les établissements concernés (qui sont, je le rappelle les seules structures culturelles dotées de logiciel de billetterie sur le territoire de la métropole lilloise, l’étude sur les festivals restant à faire, en prenant garde que l’organisation du travail et le jeu de la structure des personnels dans les festivals est fort différente) la structure organisationnelle n’est guère déstabilisée. La connaissance du public, le contact avec le public se font sous des formes différentes pour les services « accueil-billetterie » et « relations avec le public ». Les conceptions sur le « développement du public » coexistent entre le service de « conquête du public », les « relations avec le public, entraîné à parler de la saison, de chaque spectacle, à aller rencontrer des groupes pour sensibiliser à l’art et le service de gestion de la salle et des ventes, qui fait rarement partie de l’équipe de direction conceptrice de la « stratégie de développement » de la « maison ». Et c’est le directeur, par sa programmation et au vu de son budget alloué, qui pense le développement de son établissement, le développement du public n’étant qu’un des aspects de sa « mission », du conventionnement avec ses tutelles-financeurs. Nous n’avons rencontré qu’un cas où précisément le responsable des relations avec le public a unifié les deux services, organise des réunions, et se sert du logiciel lui aussi. Nous reviendrons sur ce cas. *Discussion : Dès lors comme le disait notre titre : c’était qu’on était sur un mauvais terrain, allons planter la tente ailleurs ? Que faire de tout cela, simplement dire « soyons prudents », il n’y a pas de structuration, pas de régulation à tout coup… Ou je n’aurais pas dû prendre un logiciel mais un « dispositif ». Je n’ai rien trouvé je ne viens pas au colloque ! Dans ma proposition de communication je disais programmatiquement en mars : « Si l’on ne fait pas la traque à l’hypothèse la plus forte (que les TIC, partout, affectent à l’évidence…..), et si l’on cherche à observer ce qu’un environnement informatisé modifie dans les rapports de travail, alors il faudra être plus précis à la fois dans notre description de la catégorie de TIC, dans notre maniement du concept d’ « usage », et dans notre observation des « dispositifs ». Au lieu de traquer la « toute-puissance des Tic » dans les reconfigurations organisationnelles, il faudra nous doter de catégories plus précises (peut-on dire les TIC sans se condamner à l’impasse épistémologique ?) de concepts ajustés (peut-on dire « usage de » sans dire, pour chaque « technologie » qui use et comment ?) d’épistémologies clarifiées (peut-on dire « dispositif » en donnant de temps à autre ce terme comme un simple équivalent de « technologie » (-« mobiles, Internet, progiciels, didacticiels, etc. »-), et en espérant qu’il ouvre à d’autres moments l’analyse de modifications de frontières (-« entre entreprise et environnements sociétaux, entre travail et hors travail, entre sphères professionnelle, publique, privée, etc. »-). Comment cumuler les résultats de travaux que nous menons tous sur des terrains que de tels catégories et concepts subsument ? Ma proposition d’intervention ne vise pas à nier les résultats souvent probants d’autres chercheurs (par exemple, sur le nouveau dispositif que serait « la société de disponibilité » fondamentalement liée à la généralisation des TIC selon S.Pène, 2005, ou sur la mise en place de nouvelles normes organisationnelles sous l’effet du PMSI comme le montrait Durampart, 2000). Il tente de poser la question d’une conception théorique intégratrice de ces différents résultats, et pose la question : quand les TIC sont la simple modernisation de technicités anciennes et n’accompagnent pas (contre toute attente) des recompositions organisationnelles, comment intégrer ces résultats à nos recherches collectives ? ». *Puis-je aller plus loin dans l’analyse des résultats ? Je reprendrai pour terminer le cas étonnant dans notre panel de la structure où le responsable du service relations publiques, comme tel membre de l’équipe de direction, avec titre de secrétaire général, estime devoir utiliser le logiciel. Dans ce cas il y a plusieurs choses à dire. D’abord il refuse de s’en servir pour exploiter le public déjà identifié par une pratique de relance. Ensuite il s’en sert dit-il pour vérifier après coup si le public de la saison n’est pas trop en décalage social avec la population de sa zone de travail. Mais, dans le même temps, il s’est refusé à demander dans les critères à faire renseigner au moment de l’accueil celui de la CSP. On pourrait dire que c’est inconséquent. Ca l’est vraisemblablement. Sauf que ce refus est intéressant à deux niveaux d’analyse. D’une part parce que c’est l’analyse du « public » qu’il développe qui lui fait refuser de considérer la CSP comme un renseignement pertinent : l’évolution des gens et de leur travail, à laquelle il est politiquement sensible, l’amène précisément à vouloir décrocher la relation et la fidélisation du public… de la mémoire, fixée dans la base de donnée, de son statut professionnel. Appelons cela une positon politiquement conséquente avec une conception dynamique du sens de l’art dans les trajectoires des gens. D’autre part, et j’en viens à mon questionnement sur l’impasse produite par le concept d’usage, nous voyons ici que c’est lui qui a défini pour chaque catégorie de « public » les renseignements à demander : à cause de lui le logiciel ne demande pas les mêmes choses aux gens venus avec un crédit-loisir, amené par une association d’aide aux chômeurs, aux étudiants, etc… Il a travaillé le logiciel et les paramètres pour que la « connaissance » du public, et la « gestion de la connaissance » soit donc affinée ; c’est un usage quantifié, une mémoire des situations, ce ne sont pas seulement des stats pour le discours de justification, ce n’est pas une base pour faire une analyse sociologique des publics. Dans ces cas là il y a « ajustement » de l’outil et c’est le sens de l’activité qui amène à penser ce qu’on peut faire de l’outil. Dans les systèmes aussi fins que ces logiciels complexes (18 heures de formation ne m’ont pas suffi à « maîtriser les 18 19 potentialités » pour envisager faire un module de formation pour mes étudiants), peut-on penser avec le concept « d’usage » qui écrase le travail (non systématique) d’ajustement (soit un développement spécifique demandé à une entreprise, soit un ajustement des opérations intégrées) et celui de navigation et travail dans la configuration. Dans ce cas-ci il y a co-conception. Ainsi, il y a bien des usages différentiés dans chaque type de poste/fonction (administrateur ; accueil-billetterie). Des facteurs structurants peuvent réduire l’usage collectif : les publics n’arrivent pas de la même manière, leurs flux ne s’étale pas selon les mêmes jeux horaires ; il est parfois peu utile d’avoir une « politique de développement du public» ; certains vont à la conquête de publics avec une connaissance de l’environnement qui est leur qualité reconnue et ils peuvent se défier de la « gestion informatisée des publics », et ne pas se battre sur ce qu’est la « connaissance des publics » qu’il s’agirait de « gérer ». Le fait de travailler comme nous l’avons fait pour cette enquête sur des établissements de la même nature rend encore plus lisible leurs conditions très différentes de fonctionnement. Les professionnels des différents services pensent leur activité (administration-gestion/ accueil-vente/ médiation-relation avec le public) ; cette activité commande l’usage de ces outils faits pour les assister. Et la place des uns et des autres dans le sens de l’activité a une stabilité en termes de métiers que la modernisation des équipements partageables n’affecte guère en définitive. L’activité et son sens « commandent ». Et pourtant d’autres collègues de leur côté peuvent logiquement penser d’autres dispositifs informatiques comme « de régulation », « déstructurant-restructurant ». Avec quels concepts descriptifs moins soumis à variations saisonnières que « dispositif », « TIC », « NTIC » penser les divergences de nos résultats ? Avec quel concept moins attrape-tout et moins centrés « outil » que « usage de » penser les salariés au travail, dotés souvent d’une panoplie d’outils et de rituels (réunions, rencontres, pots, causeries d’après spectacle) de communication ? Avec quels concepts moins grossiers que « régulation », « structuration » penser les rapports de force et de coopération entre des acteurs sociaux engagés dans des activités de production, de service… dans les périodes où de nouveaux outils les assistent ? Cela reste ma question. Internet, intercrise ? Winni JOHANSEN et Finn FRANDSEN, Aarhus Business School, Centre for Business Communication, [email protected] et [email protected] Le but de cette présentation est de discuter comment et à quel degré les TIC, de l'Internet au téléphone mobile, ont fait naître de nouvelles pratiques organisationnelles et ont changé les pratiques existantes liées à la gestion et à la communication de crise des organisations. La discussion sera divisée en deux parties : Dans la première partie, nous allons montrer et discuter comment l'introduction des TIC dans la société en tant que telle a transformé la soi-disante « société de risque », et comment cela en même temps a entrainé un changement important de la « topographie de crise » dans laquelle les organisations, aujourd'hui, sont forcées de naviguer et d'agir (Rochlin 1997). Nous allons nous concentrer sur les aspects suivants : a) les nouveaux types de crises qui sont le résultat du changement en question (des cyber crises au sens restreint, c'est-à-dire purement technique, du mot aux crises plus complexes et plus embrassantes comme les « e-crimes » ou les « e-wars »), b) les nouveaux acteurs (des « hacktivistes » aux e-fluentials), et c) les nouveaux contextes (la nouvelle « économie de l'attention » (Goldhaber 1997), et la nouvelle sphère publique qui sera beaucoup plus dynamique, complexe et imprévisible qu'avant). Dans la deuxième partie, nous allons montrer et discuter comment les organisations font elles-mêmes usage des TIC dans leur communication de crise. Dans quelle mesure de nouvelles pratiques organisationnelles ont-elles vu le jour, ou les pratiques déjà existantes ont-elles été changées ? Nous allons focaliser sur les trois macro phases caractérisant la plupart des approches stratégiques, proactives et processuelles à la gestion de crise (Coombs 1999, Roux-Dufort 2000) : a) avant la crise (de l'évaluation des risques au « issues management » et au « stakeholder management »), b) pendant la crise (du diagnostic au redémarrage), et c) après la crise (de l'évaluation à l'apprentissage postcrise). La discussion sera menée à la lumière du fait que dans les organisations, un grand nombre de directeurs de communication conçoivent les TIC plus comme un obstacle que comme un avantage professionnel. Notre hypothèse de travail est que l'introduction des TIC et l'émergence de nouvelles pratiques managériales et communicatives liées à la gestion et à la communication de crise vont obliger à la fois les chercheurs et les practiciens à repenser : • • • • ce qu'il faut comprendre par « crise » (les crises, cesserons-elles dorénavant d’être définies par un « contenu » spécifique (causalité, type de crise, conséquences) à la faveur des TIC dont font usage les organisations ? (Moore & Seymour 2005) comment le travail de préparation en gestion de crise doit se dérouler afin d’être à la hauteur de la situation des nouveaux acteurs et des nouveaux contextes comment les messages individuels seront formulés, et à qui ils seront transmis et comment un « sensemaking » rétrospectif (Weick) peut se réaliser par suite de la nouvelle « topographie de crise ». Notre hypothèse de travail doit être vue à la lumière des nouvelles recherches en communication organisationnelle en général, et en gestion et communication de crise en particulier, qui ont maintenant tendance à quitter la perspective fonctionnaliste moderne en faveur d'une perspective postmoderne combinant différentes approches nouvelles (théorie des jeux, théorie du chaos, théorie de la complexité, une approche critique) et qui se concentrent sur des champs d'investigation passé inaperçus jusqu'ici (complexité, 19 20 dynamique, narrativité) (Murphy 2000, Seeger, Sellnow & Ulmer 2003, Tyler 2005). Notre présentation se base sur une étude empirique de la gestion de crise des entreprises privées et des autorités publiques au Danemark (Frandsen & Johansen 2004) et sur un livre intitulé Krisekommunikation : Når virksomhedens image og omdømme er truet qui part d’une approche multi-vocale à la communication de crise (Johansen & Frandsen 2006). Les antinomies entre la modélisation numérique des activités professionnelles et le caractère indécidable des pratiques. Gino GRAMACCIA, Epistémé, Université Bordeaux 1, [email protected] Voilà un changement organisationnel avéré : découragés par la rigidité des organisations traditionnelles, les gestionnaires de systèmes complexes, les responsables d’activités à risques, les dirigeants d’organisations par projet ont maintenant renoncé aux modes de contrôle a priori des activités au profit d’un management de petites structures pilotées par les objectifs et les résultats. Ce sont deux types de modélisation des activités qui maintenant s’opposent : le premier a fait la preuve de son efficacité dans les organisations fonctionnelles et s’applique à des collectifs de travail contrôlés par des schémas d’activité répétitifs (des routines) ; le second vise à contrôler des activités de plus en plus personnalisées principalement évaluées à l’aune de leurs résultats. Au management classique, qui privilégie une méthodologie de contrôle centralisée et standardisée, se substitue la démarche qui consiste à responsabiliser sur le résultat les acteurs situés au plus près du terrain des opérations. Ce changement a été largement accompagné – mais en même temps induit – par les technologies du réseau et de la numérisation. Dans ces situations nouvelles, l’outil informatique a pour utilité fonctionnelle de régler l’ordonnancement des activités selon le principe du « one shot ». Telle est, par exemple, la fonction du planning comme paradigme technique de la synchronisation des temporalités : les PDA organiseurs, les logiciels de planification, tous les systèmes informatiques de gestion de flux de données en sont des déclinaisons. De tels outils ont pour fonction principale de maintenir les individus en état de vigilance et de coopération sur des chaînes d’activités critiques (en termes de qualité, de temps et de coûts). Le compromis est toujours difficile à établir entre ce qui, des activités critiques, doit être codifié et ce qui relève de l’autonomie individuelle pour le traitement et le contrôle de l’incertain et de l’indécidable. On sait que le déclenchement d’une activité critique à partir de sa description [Girin, 1995] présente un coût d’accès élevé : coût de conception et coût d’accès à la description au moyen des outils disponibles, coût de coordination sur le terrain des opérations à partir de la modélisation d’ensemble. C’est la raison pour laquelle la description se limite le plus souvent à une procédure ou une directive générale (la métarègle de François Jolivet) dont l’application est contrôlée par divers dispositifs ad hoc (comité de pilotage, équipes de projet…), laissant aux individus le soin de se mettre d’accord, à l’oral, sur le choix et sur la validité de règles d’ajustement. Autrement dit, et parce que la complexité des activités critiques le contraint, la description des activités doit prévoir suffisamment de variantes d’usage pour laisser un « peu de jeu » aux acteurs. C’est dans ce jeu possible que se loge la parole inventive, celle qui détourne ou contourne les usages au moyen d’actes de langage coopératifs. Pour preuve, ce propos si fréquent chez les chefs de projet : « On a fait exploser le planning : il faut mettre le paquet sur ce chantier ! ». A la codification et à l'explicitation des connaissances pour l'action s'ajouterait l'inventivité pragmatique et stratégique des acteurs. Dans un contexte critique, l’acte de langage institue la solidarité en même temps qu’il statue sur la validité (peu instruite, peu interprétée) de l’activité critique à conduire. Le fait nouveau est que le procès dialogique (jeux de langage, interactes de langage), en assurant les ajustements des pratiques, compense les déficits de la modélisation et participe en même temps à sa reconception permanente pour un meilleur usage. Cette réintégration dans la « bibliothèque » des routines des avancées illocutoires se paie aux prix d’une très grande vigilance communicationnelle contrariant les gains, pourtant bien faibles, de la solidarité et de la confiance acquises au moyen des actes de langage. 20 21 Intégration de technologies de l’information et de la communication en milieu de travail : Penser l’arrimage des médiations sociales et matérielles avec la théorie de l’activité. Carole GROLEAU Département de communication, Université de Montréal, [email protected] Depuis plus d’une décennie, les chercheurs intéressés à conceptualiser le processus d’intégration de nouvelles technologies en milieu de travail se questionnent sur la manière dont s’articulent les dimensions matérielles et sociales de la réalité organisationnelle dans ce contexte. Alors que différents cadres théoriques, comme la structuration, la cognition distribuée et l’action située, ont été mobilisés pour explorer cette piste de recherche, nous proposons d’examiner cette problématique à la lumière de la théorie de l’activité. La théorie de l’activité permet d’appréhender l’organisation dans l’actualisation de médiations sociales et matérielles initiées par les membres d’un collectif engagés dans une activité commune. À partir d’études de cas effectuées auprès d’un cabinet d’architectes et d’un groupe de graphistes, nous étudions comment l’initiative d’intégrer une TIC résulte d’une série de médiations sociales où plusieurs points de vue se confrontent. C’est cette confrontation des points de vue divergents et leurs tentatives de résolution que nous voulons comparer au sein des deux sites pour mieux comprendre le contexte dans lequel s’inscrit l’arrivée de la TIC. Plus particulièrement, nous examinons comment la confrontation et résolution des tensions associées aux activités sont au cœur des différents patterns d’activités qui émergent suite à l’intégration de ces nouvelles technologies au sein des deux équipes de travail. Cette analyse nous permettra d’explorer l’interdépendance entre les dimensions sociales et matérielles de l’activité dans un cadre spatio-temporel qui s’étend au-delà de la situation locale afin de dépasser les logiques d’acteurs individuels pour tenir compte de la dynamique organisationnelle dans la construction d’activités collectives dans un univers matériel en transformation. Studies on computerization have raised important questions over the last few decades regarding the nature and evolution of work in organizations. Researchers share a desire to gain a better understanding of the problematic and issues linking work practices, organization and technology. In 1991, George and King wrote: As with many aspects of computing in organization, the most interesting "impacts" of the technology have been to alter our views of what we are studying in the process, we have learned that the real mysteries is in the nature of organizations themselves... computing technology has become an important instrument in our efforts to learn more about organizations, but the quest for knowledge on that front is far from over. (70) A decade latter similar preoccupations can still be noted in the organizational literature. More specifically, Barley and Kunda (2001) argue that while the shifts in work from craft and agricultural work to factory and office work have been well documented, the conceptualizations of work in our 21 22 changing times are in desperate need of revision, they assert. Our objective is to contribute to a better understanding of the evolution of work practices in computerization contexts by means of activity theory. This theoretical framework offers concepts that will allow us to grasp the social and material interactions contributing to the transformation of work. Before we describe our approach, we will review the literature pertaining to work practices. We assess their contribution to provide a clear presentation of the unanswered issue that we explore using activity theory. 1. Studies of work practices in the computerization literature. In their quest to redefine work in computerization settings, numerous researchers were confronted with the difficulty of integrating the material and social dimensions of work (Orlikowski 1991; Bowker, Gasser, Star & Turner 1993). The implementation of a new technology questioned the place of materiality in organizations, which had been little theorized up until them. The conceptual explanation of how interactions with material entities mesh with interactions among humans became a challenge addressed by researchers from different traditions. Suchman (1993;1996), Hughes (Harper & Hughes 1993; Hughes et al. 1993) and Huchtins (1995) which Barley and Kunda (2001) had identified as promising scholars in the elaboration of new conceptualizations of work, have produced numerous studies on work practices in computerized context addressing in different ways this broad problematic. Suchman, Hughes and Hutchins are associated with a group of their colleagues in a movement labeled ‘workplace studies’ (Heath, Knoblauch et Luff 2000). They propose that a naturalistic approach be adopted to explore what people actually do when they work collectively, in order to better apprehend work in a technological context. These researchers portray work activities as a collective process in which people use their experience and intuition as well as information drawn from various artifacts in their immediate environment to make sense of reality. The conceptual frameworks used in these studies are diverse, and include approaches such as situated action (Suchman 1987) and distributed cognition (Hutchins 1995, Rogers and Ellis 1994). These two different theoretical approaches have proposed conceptualization of work integrating social and material dimensions of everyday activities. participating to the quest to overcome this duality. Over the years, their numerous studies have contributed to provide a better understanding of collaboration and coordination within work contexts composed of multiple material artifacts. Most of their research has examined immediate circumstances in which daily actions take place, focusing on work performed over a short period of time in a very circumscribed environment. This small unit of analysis is preferred by authors using situated action because of its ethomethodological roots (Garfinkel 1967). For researchers using distributed cognition, the choice of spatially restricted areas is methodological since it allows them to the study of interdependencies among the various sources of information related to a specific set of tasks1. These very focused analyses have greatly helped computer designers in their apprehension of work practices. But, as noted by Kling (1991), an early critic of their work, the use of limited spatial and temporal frames renders difficult within these approach to grasp larger phenomenon, like power relationships which are constituted and manifest themselves beyond very circumscribed situations. We propose to overcome these limitations by using activity theory to capture the social and material dimensions of 1 Hutchins (1995) studied the work on a boat but his actual empirical material is taken from very clearly delimited work areas within the boat. changing work practices in organizations. Like situated action and distributed cognition, activity theory is associated with the workplace study movement. Using a different unit of analysis than situated action and distributed cognition, activity theory links the immediate circumstances of action to broader social dynamics to see how activities evolve over time. Activity theory, like structuration, recognizes the mutual influence between social context and action, it attempts to link individual to collective actions but most importantly it examines human interactions in the constitution of knowledge, norms, rules and power relationship. Both frameworks offer a multidimensional frame for the study of social interaction and its potential to grasp organizational dynamics. Still, activity theory differentiates itself on various levels. We feel that activity theory is conceptually better equipped to apprehend materiality, which, to us, remains a challenge for researchers using structuration (Groleau 2000). Furthermore, activity theory offers, with the concept of contradiction, the possibility to analyze the particular dynamics under which decisions to change and acquire a new artifact is made, which we feel constitutes an important aspect related to change traditionally overlooked by researchers using structuration 2. Because activity theory examines activities as they transform themselves through social and material mediations, it offers a notable opportunity to study facets of computerization in a new light. 2. Activity theory as an alternative framework. The cultural historical theory of activity was originally developed by the Russian psychologist Vygotsky and his student Leont’ev. In this study we will use the revisited version of this framework proposed by Engeström (1987)3. Activity systems are the unit of analysis and are defined as: ‘systems of collaborative human practice… the generator of a constantly and continuously emerging context’ (Artemeva and Freeman 2001: 168). Activities take form through a series of mediations described in the following way: Figure 1 here The object depicts the orientation of collective action towards an outcome. Like a project under construction, it unfolds as individuals interact with tools and other human beings: ”the object is both something given and something anticipated, projected transformed and achieved” (Engeström 1990: 181). Activities distinguished themselves from one another by their objects. Subjects are individuals or groups striving to attain or achieve the object. To achieve their object, subjects use mediating tools. Tool is used as the label of a wide category grouping together elements of various natures. It refers not only to what we traditionally understand as ‘tools’ that is material entities which we manipulate, transform and create, but also includes signs, language and symbols which rest more on inward oriented mediations. Both provide the foundation of human action and intervene in the subject-object relationship. To this top part of the figure inspired by Vygotsky’s work (1978), Engeström added community, rules and division of labor following Leont’ev initiative to link individual to collectives (1978). 2 Inspired by structuration, Orlikowski investigated computerization using improvisation (1996; 2000) while Walsham (2002) based his analysis of computerization on Giddens’ concept of contradiction (1984). Theses studies offer different ways to apprehend change using structuration, but both of them focus on change from the moment the technology enters the organization underplaying the social interactions leading to the decision to computerize, which we feel influences how work practices are redefined. 3 For a more thorough explanation of this framework, we invite the reader to consult one of the numerous analysis of this framework contrasting it with other approaches such as symbolic interactionism (Star 1996), actor-network (Miettinen 1999)) and coorientation (Groleau 2006). 22 23 The community comprises multiple individuals and groups striving to attain a common object. It brings together individuals with different points of view and interests. As such, activity theory describes a multivoiced system. The division of labor describes how the community comes together to meet the desired object. It refers more explicitly to the allocation of tasks and responsibilities as they have been negotiated and distributed by the members of the community. Moreover, the rules, be they explicit or not, offer a frame in which members of a community and subjects decode what is acceptable for them. Consequently, the model frames the accomplishment of activities as resting on interactions among humans as well as with material entities. More specifically, tools encompass material entities used by subjects to act upon and transform the context. Following Vygotsky, Engestrom argues that tools favor the transmission of social-historical means and methods. They allow the internalization of cultural forms of behavior that are socially rooted in activities that have developed over time. Apart from offering a rich conceptualization of material entities, the theory extends the study of social interactions beyond the local context, as we mentioned earlier. Engeström recognizes formally both the fact that activities unfold in a situated context with a variety of actors who are co-present, as well as individuals who, although perhaps spatially distant from the immediate context, contribute to its accomplishment. Finally, activity theory distinguishes itself by explaining the evolution of activities through social interactions using the concept of contradiction. Changes are triggered by contradictions that individuals attempt to alleviate by transforming their activity systems. Contradictions surface among the connections within and between activity systems, bringing together partially autonomous contexts to constitute larger wholes. Each of the contexts constituting the totality has its own logic and its own social arrangements, which may or may not be compatible with others’ or with the whole system. The autonomy of these contexts creates discontinuities, which lead to contradictions whenever they become imbricated in a single endeavor. This fundamental tension conceptualized as a primary contradiction surfaces in everyday contexts under various forms as secondary contradictions. This second type of contradictions takes place, for example, when two elements of the activity system conflict with one another. Secondary contradiction leads the latent primary contradiction in the activity system to arise and take the form of a concrete problem as tension builds between different parts of an activity. Reorganizing the activity system to relieve the tension can resolve some secondary contradictions. The resolution may take different forms such as organizational change or the implementation of a new tool, as we will show later in our case studies. While these secondary contradictions might be resolved, the primary contradiction remains and will surface again in another set of secondary contradictions, displacing the locus of the contradiction by resolving one set of secondary contradictions and producing another. The concepts of activity theory will allows us to analyze the patterns of social interactions behind the change process involving the implementation of a new technological tool as well as the evolution of the work practices as they unfold in their daily context through their configuration of tools, division of labor and rules. 3. The empirical exploration of activity theory in two case studies Our empirical work rests on the analysis of two organizations faced with computerization. Two work contexts were chosen in order to compare, contrast and better grasp the different patterns of interactions sustaining work and its evolution. To avoid difficulties coming from the comparative analysis of organizations that differ along a series of dimensions, we have selected organizations confronted with a similar primary contradiction as well as a similar strategy to resolve contradictions through the implementation of a new technology. In this context, we chose to conduct case study research. This choice of research strategy seemed justified, given our goal of studying a contemporary phenomenon in its natural context without intervening. To this effect, we used multiple sources of evidence such as observations, interviews and document analysis which also characterize case studies. First, observation was used to immerse the researcher in the organizational setting in order to obtain a better understanding of work practices of the studied units. Through observation, we identified the social and material interactions through which activities. Second, semi-structured interviews were conducted to obtain data on the computerization process from its development to its use by different organizational members. Interviews were semi-directive, and addressed the following themes: the computerization history, the perceived motivations for technological change, the technological change process, the perceptions of the collective activity, its function, participants and evolution, as well as the relationship between the subjects and the different members of the community. Finally, in each setting, the data collection included the analysis of documents ranging from office forms, software manuals, computerization projects, reports, and printed documents describing the organization. Regarding the quality of our data, we assessed the confidence and the openness of the relationship we entertained with organizational members through the analysis of field notes pertaining to the recurrence of events illustrating the integration of the researcher in the field. In addition, we verified the construct validity of our data (Yin 1994) by having the monographs constituted from our different data sources read by organizational members in each site. We will now describe the studied organization in short vignettes before we move on to a comparative analysis of the two cases. Computerization of the graphic design activity The first case is that of the graphic design unit of an advertising company founded by three friends in 1979 hiring 70 employees at the time of our visit. The managers initiated computerization, in the graphic design unit composed of three workers, out of the need to have a team of workers that would be better equipped to perform a wider variety of tasks without having to depend on outside firms. This was coherent with the philosophy of the firm to depend as little as possible on outside firms to conduct their business. Managers were very frustrated because they often could not get the desired result or change existing visuals because they had limited means and refused to resort on outside help. The graphic designers also felt they were constrained in the kind of visual they could create and frustrated by the limits imposed by the existing resources. According to the managers, new tools would make the firm more autonomous and flexible in its production of visuals. Consequently, the agency's graphic artists were given computers with three different software packages: an editing package used to create and manipulate text or pictorial units; an illustration package used to create more sophisticated pictorial units; and a multi-media package used to import visuals from other media and prepare films for printing. Still, managers were worried about the effect technology would have on the creativity of their designers, something they 23 24 greatly valued. Of the three graphic artists, the managers viewed one of them, Samuel, as the most creative. Prior to computerization, each graphic designer received mandates that would span the entire process. To preserve the creativity of each of their graphic designers, managers believed all three of them should keep their drawing tables and continue to perform creative and technical tasks after computerization. The graphic designers discovered that computerization multiplied the number of possibilities offered to them and were excited about moving from the old tools to the new ones, which greatly expanded their capacity to transform and produce interesting visuals. Among them, graphic designers had redistributed tasks so that Samuel would do most of the design tasks while Brenda would perform more technical work. The third graphic designer, Frank, would do a little of both. Their enthusiasm was then shattered by the imposition of a division of labor requiring all three of them to do technical and creative work. Managers were greatly dissatisfied with the computerization experience. They tolerated Samuel’s lack of technical skills because of his exceptional artistic flair. As for Brenda and Frank, the managers could not understand why their use of technology did not yield the expected results. They were especially disappointed with Brenda, who seemed to have invested some time in learning how to use the new tools, but still had problems mastering the new tasks. Computerization context in the architectural design activity The second case describes the computerization experience of a firm of architects. Founded in 1976 by Raymond, an architect, the firm grew rapidly. Four senior architects run the firm. Raymond, the owner, deals with existing and future clients. He prospects to find new contracts to bid on and makes sure the clients of the firms are satisfied with their work. Raymond is also an artist. He always has a sketchpad in his briefcase. He designs buildings and prepares the drawings for clients. The work of architects consists of designing, preparing drawings as well as overlooking the construction process associated with their building projects. Their work is obtained through the preparation of bids earning them contracts. Raymond believes the more tenders they respond to, the more chances they have of obtaining work. Consequently, they produce as many bids as they can and try to be as competitive as possible by following the trends and developments of the industry. The preparation of bids is an important part of their work. The artistic talent of senior partners is important in the preparation of these documents. A three dimensional design software package was introduced in the firm. While clients had not formally requested it, Raymond believed the new technology would allow the firm to be more competitive. He though the industry norm would be to increase the number of drawings submitted with bids, so the firm invested in the necessary tool to produce them to remain competitive. Raymond expressed mixed feelings about computerization. It was costly and produced visuals which he thought were of poor aesthetic quality compared to hand drawings. Still, he acquired this new technology. To work with this new tool, he hired a young intern who had just finished his university degree in architecture. Since the arrival of the 3D design software package, the way work was performed had been altered. Senior architects still perform the drawing of the initial design with paper and pencil but had them transfer on the computer to evaluate the result and experiment with the design with the help of the intern. The senior architects as well as the intern appreciated this unexpected new form of collaboration. The goal of producing more drawings had been met. They were proud to have the software package because the trend they had foreseen was actually occurring. The senior architects still expressed their dislike regarding the new aesthetic of the drawing which one of them associated with video game visuals. 4. Contrasting the evolution of work in the two visited organizations. We will contrast the work practices in both organizations using more detailed description of our cases along different units of analysis to illustrate how interactions and the work context evolve during computerization. Changes in the immediate circumstances of work In the immediate circumstances under which work practices are conducted, we note differences in the way daily actions are performed in both research sites. Workers within the graphic design unit integrated the tool following different paths. Samuel, the graphic designers most respected for his creative talents, was often unable to finish his work because of his lack of technical skills and rarely remembered the steps he had followed to obtain the visual on his screen. Among the three graphic designers, only Brenda took the time to experiment with the software packages. Since she had not performed well as a designer, she felt her technical contribution could be valuable. A new division of labor emerged among the graphic designers. Prior to computerization, each graphic designers did the whole set of tasks to produce their own visuals, while now Brenda performed the last technically complex tasks leaving the creative and initial steps to her two other colleagues. Following the introduction of the new software package a different pattern of interactions also emerged in the second research site. The perspectives previously drawn by the senior architects were now the result of a process in which initial drawings were digitalized and reworked on screen until a satisfactory visual was produced. When the tool was first implemented, senior architects were tempted to experiment with it. They asked the intern to try different options such as having brick walls, or changing the location of windows. Through trial and errors they learned to try out various possibilities that would have been to lengthy to explore using hand drawings. During the trial and error process now rendered possible through the new tool, the intern proposed his own alternatives and expressed his point of view fully participating to the production of the computerized perspectives. These examples illustrate two different types of arrangements that emerged in the immediate circumstances of work but also new interactional patterns within each unit. In the first case, individual appropriation led to a new way of distributing tasks among graphic designers, which required new forms of coordination and collaboration. In the second case, architects now sharing their physical work environment with the intern led spontaneously to new exchanges on the visual being produced by technology and consequently to a new work configuration. In the two situations, the manipulation of new tools meant workers had a different capacity to commonly act upon their environment. This new ability to act collectively became the occasion to redistribute tasks among workers who had to develop new types of interactions among themselves in order to produce visuals. Extending the study of change from the situation to the activity system. One of activity theory’s distinctions is to integrate, in its 24 25 analysis of work, individuals who are physically distant from the actual circumstances under which activities unfold. By extending the unit of analysis beyond the limits of the work unit, we note changes in the interactional dynamics within the graphic design case study. Prior to computerization, the guidelines accompanying the layout sent to the print shop explained the desired output. The graphic designers did not know the details pertaining to the needed procedures. They had to experiment extensively with the software package to learn the value attributed to variables and the sequence of operations required for the desired result. Even though Brenda invested considerable time in learning the software, she lacked the knowledge of many computer variables. Normally, the visual appearing on the screen should be the same as the printed result, but many factors leaving no visible traces had an impact on the final product. This led to considerable insecurity. When the information was sent to a print shop, she felt obliged to call the printers to make sure that there was no misunderstanding. This created a whole new set of interactions with printers. They discussed the visual, its color, the software packages used, the sequence of operations performed and the document's specification. Even so, errors were frequent. The numerous conversation between graphic designers and printers raises a question regarding the culturally and historically constructed knowledge of the printing industry mediated through the new software package and its difficulty to be understood by users who needed to keep a constant exchange with the printers to make sense of the tool. In the case study involving architects, interactions with clients became the motor of technological change. To better understand the role of clients in computerization we will now extend our analysis to include the identification of primary and secondary contradictions. The two visited organizations share a common primary contradiction. It comes form the tension between the artistic production of graphic designers as well as architects, and the organizational constrains pertaining to resource allocation linked to profitability. In the two firms, graphic designers and senior architects design and draw visuals according to artistic conventions. 4 These two groups of workers are each imbricated in larger organizational contexts that limits the resources allocated to design even if it represents a competitive advantage for each one of the firms. This tension can be translated in activity theory concepts as design, constituting a local context with its own artistic logic, is integrated in a larger context functioning with an economic logic creating discontinuities between the two levels of the activity To further observe the role played by members of the community in the transformation process, we will now examine the specifics of each context by shifting to the analysis of secondary contradictions resulting from this common primary contradiction. In the case of the graphic designers, the tension surfaced when it became very difficult to meet the requirements of visual production with the internal policy limiting outsourcing. The secondary contradiction opposed tool to rule. Consequently, the contradiction is endogenous. More concretely, the internal policy of reducing the outsourcing rendered the graphic designers work difficult to accomplish due to the lack of tools. The change came as an attempt to resolve this tension. FIGURE 2 HERE In the case of the architects, the change is exogenous. The architects experienced a different tension that lead to a similar solution. In their situation, the manager of the firm felt that 4 At this point, it is interesting to note that both graphic designers and architects had received recognition from their peers for the artistic quality of their work. the industry was operating a shift leading to the production of more visuals in the bids competing to obtain contracts. The potential to meet the object became problematical with the pressures of the industry, producing a secondary contradiction between object and community. FIGURE 3 HERE By integrating within our analysis of social and material interactions, members of other organizations and by framing it in an extended temporal frame to capture the conditions under which the technological change took place, we get a different reading then the one we have obtained in more circumscribed analysis of the working environment. The contradictions are useful, not only to grasp the motivation of change, but also, to understand the reconfiguration of the activity system as part of an attempt to resolve secondary contradictions. Contradiction to understand the interactional dynamics of change We will now examine how activities were reconfigured after the arrival of tools in the two work environment. Even if the solution to implement a new artifact was adopted by managers of both firms to resolve the tensions, the results were quite different in the two studied contexts. In the advertising agency, managers induced change to overcome their frustration with the lack of control they had over graphic designers and to increase the flexibility, autonomy and productivity of graphic designers. Interestingly enough, the graphic designers though a new medium would offer new ways of expressing their talent, and since they also experienced the secondary contradiction because of the pressure put on them by managers, they saw the arrival of the new tool as an opportunity to gain some relief from this tension. Although they expressed concerns regarding the creative skills of the designers after computerization, managers of the advertising agency did not realize that the imposition of performing design as well as technical tasks within that context was extremely difficult. Even if the graphic designers attempted to solve the problem by creating among themselves a new division of labor dividing creative and technical tasks, as we described in the introduction of this section, managers imposed their point of view by requiring both set of tasks from all three of them The primary contradiction was exacerbated and led to a new form of secondary contradiction opposing division of labor and object. Within the architecture firm, the managers also initiated computerization, to alleviate the tension coming from the secondary contradiction. They had hoped to be able to produce more drawings with their new software package to remain competitive with their bids. Regarding the attribution of tasks after computerization, the emergent pattern we described earlier became the usual of way of preparing perspectives. The technical tasks were attributed to a specialist in the domain who eventually got familiar with the design dimension of the tasks. Unlike in the advertising agency, managers of the architecture firm are architects which means they have themselves experienced the work performed by their employees. They know the complex dynamics between creativity and productivity giving them better means to decide how resources, human and material, can be allocated to respect the specificity of every member of the organization. Furthermore, the senior architects were the group most affected by the change they themselves had initiated. This differentiates them form organizational members of the advertising agency who confronted one another as the primary contradiction took form in the opposition between two different groups within the organization. In the two cases, the transformation of activity systems with the arrival of the new tool was driven by negotiation 25 26 engaging organizational members each having their own view on how activity should be conducted. To some, like the managers of the graphic design firm, the work was invisible (Suchman 1995). More specifically, their representation of tasks performed by graphic designers was distorted by their lack of knowledge regarding the real nature of the work actually done. The gap between the representations of work of managers and those of graphic designers led to different attempts to reconfigure the activity systems, accentuating the tension the arrival of technology was trying to dissolve. Furthermore, management’s willingness to gain control over their employees through computerization also blinded the management team of the advertising agency. Tensions are present in the two work environments after computerization. In both contexts the primary contradiction persisted. In the graphic design unit, a new secondary contradiction surfaced opposing division of labor to object while for the architects the visual quality of their computerized perspective was a great source of disappointment, fueling again the primary contradiction between creativity and productivity. 5. The contributions of activity theory to explain the evolution of work practices. Activity theory offers a reading of evolving work practices in a context of technological change that highlights particular aspects of the phenomenon. As we have seen in our analysis organized along different levels of analysis, the conceptual framework of activity theory can capture the interactional dynamics of work at a very local level. But, activity theory sees the local circumstances as an intricate part of a larger context. This extended unit of analysis provides an alternative frame to make sense of these particular situations. For example, the work arrangement emerging among graphic designers separating creative and technical tasks can be understand as a local arrangement accommodating their immediate needs as well as, in a broader context, a strategy attempted by graphic designers’ to transform the activity system and dissolve its tensions. Like the activity system itself, its transformation is a social construction involving various participants playing different roles In the case of graphic designers, the productive and creative opposing logics constituting the primary contradiction are experienced by two different groups. The graphic designers on one side and the managers on the other. The two groups clashed as they tried to reconfigure the activity system according to their own understanding of the activity and its tension. In the other case, senior architects, as designers and managers of the firm, simultaneously experienced the creative and productive dimensions of the activity, giving them a privileged point of view to dissolve the tension in their attempt to redefine the activity system. The material entities take part in the activity system and its evolution in various ways. First, the link between tools and rules constitutes the secondary contradiction in the first case study. Rules regarding how subject and community come together around material artifacts became problematical and urged the members of the collective to undergo changes. Second, in the two cases, attempts to resolve the secondary contradictions involved the integration of a new tool. Third, in the two cases, the use of computer software packages had important repercussions on the division of labor. Since, conceptually, tools are defined through their potential to act upon the environment, it is not surprising to observe that a new tool requires to rethink how participants collectively contribute to the activity. Finally, the manipulation of the software assisting graphic designers in the preparation of visuals for printers, led to new interactions to make sense of the culturally mediated knowledge which needed to be contextualized. This last contribution of tools to activity systems is at the center of Vygotsky’s work and remains important in the actual version of the framework. We feel apart from occupational know-how, tool mediation could also bring forward new rules and division of labor through which, for example technology users can be confronted in the transformation of activity systems. Beyond that, the way in which material artifacts intervene in the relationship between subject, community and object in Engeström’s revised version of activity theory remains little explored in the literature. Although tools, the only concept apprehending materiality, are analytically separated from the social dimension in the activity theory framework proposed by Engeström (1987), we observed, from our data, that how subjects and community or community and object come together is also constituted through interactions with material entities. As noted in our case studies, material artifacts have the potential to change how we collectivity act upon our environment but also how we relate to one another, how we define each other’s role and even the power relationship uniting subjects and members of the community consequently influencing the formulation of rules among them. Furthermore, secondary contradictions as they actualize themselves through the articulation of local and global contexts, bring the material conditions of activities at the forefront of the analysis of change. The two conflicting logics constituting contradictions take form in concrete settings through human interactions as well as individual and collective connections to artifacts. For example, in the graphic design case study, the lack of material resources at the disposal of graphic designers is at the center of the social dynamics with managers as well as other workers in the industry. In a similar way, the secondary contradiction of architects materialized itself as clients and architects developed contrasting views regarding the use and value of perspectives. Material entities in these examples take the form of tool in the case of graphic designers while it is associated with the output resulting from the object in the case of the architects. It is difficult to study the social construction of activity system and its transformation without examining how interactions with material entities are intertwined with interactions among humans. For this reason, we feel tools, as a concept apprehending material artifacts should not be isolated at the top of the activity theory triangle but be part of the analysis through which, not only the object, but rules and division of labor are constituted. As we act and manipulate material entities we not only produce an output, we also organize ourselves and determine how we do things and behave collectively. Regarding the arrival of a new tool in an activity system where productivity and creativity are opposed, we noted that both transformation processes were undertaken by managers who opted to favor productivity. Interestingly enough, these decisions were not necessarily perceived as unfavorable to designers in both firms. More specifically, the graphic designers were initially enthusiastic towards computerization. They felt the arrival of the new tool could lead to new possibilities. Their perception changed with the imposition of a division of labor which felt did not respect the different abilities of each one in the unit. If the senior architects were not initially as enthusiastic as the graphic designers, the new division of labor that emerged favored a greater participation by other members of the organization to the creative process5. Other types of primary contradiction would probably be of interest to further explore the dynamic transformation of 5 We are thankful to Christiane Demers for this part of this analysis. 26 27 activity systems. Finally, we feel, it would be pertinent to extend the analysis of system transformation initiated by attempts to resolve secondary contradiction other than the introduction of a new tool to assess in other contexts this interdependent dynamic between artifacts and social interaction. Bibliograhie: Artemava, N., & Freedman, A. (2001). Just the Boys Playing on Computers: An Activity Theory Analysis of Differences. Journal of Business and Technical Communication, 15(2), 164-194. Barley, S. R., & Kunda, G. (2001). Bringing Work Back In. Organization Science, 12(1), 76-95. Bowker, G., L.Gasser, L. Star and W. Turner. (1993). Social Science Research, Technical Systems and Cooperative Work. Paris: CNRS. Engeström, Y. (1987). Learning by Expanding: An ActivityTheoretical Approach to Developmental Research. Helsinki: OrientaKonsultit Oy. Engeström, Y. (1990). Learning Working and Imagining: Twelve Studies in Activity Theory. Helsinki: Orienta-Konsultit Oy. Garfinkel, H. (1967). Studies in Ethnomethodology. Englewood Cliffs, N. J.: Prentice Hall. George, J. K., & King, J. L. (1991). Examining the Computing and Centralization Debate. Communications of the ACM, 34(7), 63-72. Giddens, A. (1984). The Constitution of Society. Cambridge, MA:: The Polity Press. Groleau, C. (2000). La théorie de la structuration appliquée aux organisations: le cas des études sur les technologies. In D. Autissier, et F. Wacheux (Ed.), Structuration et management des organisations: Gestion de l'action et du changement dans les entreprises. (pp. 155179). Paris: L'Harmattan. Groleau, C. (2006). One Phenomenon, Two Lenses: Apprehending Collective Action From the Perspectives of Coorientation and Activity Theories. In F. Cooren, J. R. Taylor & E. J. Van Every (Eds.), Communication as Organizing : Empirical and Theoretical Explorations in the Dynamic of Text and Conversation. Mahwah, NJ: Laurence Earlbaum. Harper, R., & Hughes, J. (1993). What a f-ing system! Send'em all to the same place and then expect us to stop'em htting. In G. Button (Ed.), Technology in Working Order: Studies of Work, Interaction and Technology (pp. 127-143). London: Routledge. Heath, C., Hubert Knoblauch and Paul Luff. (2000). Technology and Social Interaction: The Emergence of 'Workplace Studies'. British Journal of Sociology, 51(2), 299-320. Hughes, J., Randall, D., & Shapiro, D. (1993). From ethnographic record to system design: Some experiences from the field. Computer Supported Cooperative Work, 1, 123-141. Hutchins, E. (1995). Cognition in the Wild. Cambridge, MA: MIT Press. Kling, R. (1991). Computerization and Social Transformation. Science, Technology and Human Values, 16(3), 342-367. Leont'ev, A. N. (1978). Activity, Consciousness and Personality. Prentice Hall: Englewood Cliffs, NJ. Miettinen, R. (1999). The Riddle of Things: Activity Theory and Actor-Network Theory as Approaches to Studying Innovations. Mind, Culture and Activity, 6(3), 170-195. Orlikowski, W. J. (1991). Integrated Information Environment or Matrix of Control? The Contradictory Implications of Information Technology. Accounting Management and Information Technologies, 1(1), 9-42. Orlikowski, W. J. (2000). Using Technology and Constituting Structures; A Practical lens for Studying Technology in Organizations. Organization Science, 11(4), 404-428. Orlikowski, W. J., Geoff Walshman, Mattehm R. Jones, and Janice I. DeGross. (1996). Information Technology and Changes in Organizational Work. London: Chapman & Hall. Rogers, Y., and Janet Ellis. (1994). Distributed Cognition: an Alternative Framework for Analysing and Explaining Collaborative Working. Journal of Information Technology, 9, 119-124. Star, S. L. (1996). Working Together: Symbolic Interactionism, Activity Theory and Information Systems. In Y. a. D. M. Engeström (Ed.), Cognition and Communication at Work (pp. 296-318). Cambridge, MA: Cambridge University Press. Suchman, L. (1987). Plans and Situated Action: The Problem of Human-machine Communication. Cambridge MA: Cambridge University Press. Suchman, L. (1993). Technologies of Accountability: On Lizards and Airplanes. In G. Button (Ed.), Technology in Working Order (pp. 113126). London: Routledge. Suchman, L. (1995). Making Work Visible. Communications of the ACM, 38(9), 56-65. Suchman, L. (1996). Constituting Shared Workplaces. In Y. a. D. M. Engeström (Ed.), Cognition and Communication at Work (pp. 35-50). Cambridge, MA: Cambridge University Press. Walshman, G. (2002). Cross-Cultural Software Production and Use: A Structurational Analysis. MIS Quarterly, 26(4). 27 28 Figure 1: The activity system (Engeström 1987). Figure 2: The graphic designers’ activity system before computerization6. Figure 3: The architect’s activity system before computerization. 6 The lightning-shaped lines refer to contradictions. 28 29 Comment articuler pratiques et organisation : document dans l’activité, management de l’information Brigitte GUYOT CNAM, Paris [email protected] Les 14 communications de cet axe montrent, sous la diversité des objets (outil, logiciel, plate-formes ou plus génériquement TIC), au moins deux notions récurrentes : celle de dispositifs et celle d’organisation, sans qu soit toujours distingué ce qui relève d’une organisation raisonnée et d’un acteur collectif doté d’une autorité. Mes travaux sur la relation entre information et action, sur la diversité des modes de gestion de l’information, essaient d’articulation individuel / collectif, ou local / global, en prenant un objet concret qui donne à voir aussi bien des pratiques que des agencements et des modes d’organisation. a) le document est pris comme un observable circulant, produit et utilisé pour l’avancée de la tâche et la coordination : un équipement et un repère pour l’action a. une forme conventionnelle dotée d’une intention et d’un statut (une validité), une portée (extension) qui guide, saisit ou rend compte d’une action, qui porte, délègue à distance des intentions, des règles : à la fois repère et trace. b. tisse un réseau d’acteurs et des séries d’interventions autour de lui/engagements pour le produire, l’utiliser, le faire circuler (processus éditorial,) c. donne à voir des processus pour organiser les activités autour de lui d. objet circulant dans et à travers des collectifs (dessinant une géographie selon des modes de proximité et de formalisation) e. signale une organisation c'est-à-dire des règles et de procédures : sous forme de dispositifs (de production, de circulation, d’usage) peu ou très formalisés, auto-produits ou imposés. Apports de cette approche par le document à partir de trois figures en présence : système d'information personnel / système d'information collectif autogéré / service d’information prestataire. Le système d'information personnel auto-centré et auto-géré rend compte des façons dont chacun s’organise pour trouver et gérer l’information dont il a besoin pour travailler (mode pragmatique). Il entre en complémentarité / concurrence avec des systèmes d'information collectifs (tels les dispositifs documentaires) qui fonctionnent sur une logique de prestation et une modélisation des usages possibles et des formats d’information censés y répondre au mieux (mode prévisionnel). Entre ces deux extrêmes, la mise en place récente de plate-formes de documents à des fins de coordination (travailler ensemble au sein d’un collectif de travail plus ou moins vaste) entraîne une dynamique de transfert / recouvrement des systèmes personnels au profit d’un système localement fermé ou ouvert à d’autres collectifs général ; s’y confrontent des intérêts singuliers et d’un intérêt collectif, avec des négociations pour bâtir un dispositif conventionnel, généraliser des documents préformatés valables pour soi et pour les autres et établir une confiance pour que chacun accepte de livrer ses propres documents ou à tout le moins de les transformer suffisamment pour qu’ils deviennent intelligibles à d’autres. Les acteurs se trouvent à devoir se livrer à des opérations d’évaluation, à choisir les modes opératoires les plus adaptés à leur action selon la situation. 3 - L’analyse de ces « investissements de forme » (Thévenot) en situation oblige à repenser : les critères utilisés pour définir et distinguer des collectifs la place des dispositifs dans un collectif, en lien avec l’idée même d’organisation les notions de producteur, d’utilisateur, de gestionnaire d’information, fonction actuellement redistribuées, réagencées. Chaque acteur endosse des rôles de façon temporaire ou permanente, et se trouve devoir acquérir les compétences et les règles qui les sous-tendent. la part de management d’information qui affecte désormais l’activité de chaque acteur Ce management de l’information concerne également les pratiques de travail avec les TIC et les façons de travailler ensemble par le biais de formatages croissants : réduction des pratiques singulières à des archétypes (modélisation / profilage), formalisation des écritures… Se pose alors la question de l’irréductibilité des systèmes personnels (ne serait-ce que cognitive), et les limites de leur déversement dans des système collectif, des modes et des organes de définition d’un bien commun en matière d’information, et de son articulation avec l’action. 29 30 « Apport des recherches en communications organisationnelles aux nouvelles problématisations en Sciences de l’Information et de la Communication. » Christian LE MOËNNE CERSIC/ERELLIF – Université Rennes 2 [email protected] Il s’agira de tenter une synthèse des travaux du colloque en alimentant un certain nombre d’hypothèses concernant les objets de recherches en communications organisationnelles et les apports de ces travaux à la définition d’un objet des sciences d l’information et de la communication dans leur ensemble. Les études « d’usages » des technologies de l’information et de la communication menées en France depuis une trentaine d’années, souvent commanditées par des opérateurs publics ou privés des telecoms, se sont situées pour l’essentiel dans les problématiques ouvertes par les travaux anglo-saxons sur les « uses and gratifications ». De là le terme d’ « usages » dont il fallait interroger les significations implicites, et notamment la réduction fréquente des usages aux interactions « individuelles » dans différents contextes. De là également la réduction fréquente des usages organisationnels aux interactions « homme-machine » en situation, et la propention à penser les adaptations mutuelles en termes d’ergonomie. Les présupposés épistémologiques de nombreuses approches sont ainsi implicitement individualistes méthodologiques et dualistes. Ils séparent l’individuel et le social, le technique et l’anthropologique, les différents niveaux de structuration des formes organisationnelles, le dedans et le dehors… Il faut au contraire partir du social et de l’anthropologique comme état de fait, littéralement « état de nature » : l’humanité a été sociale avant d’être humaine, on ne peut séparer « cortex et silex », et les formes sociales et anthropologiques, dont les organisations et institutions, les objets et technologies, les idées et discours, se donnent à chaque moment comme le fond hérité sur lequel s’inscrivent les projets et actions humains. Les tehnologies de l’intelligence sont, pour ceux qui sont « nés avec », le cadre anthropologique donné, hérité, au même titre que la langue et les autres institutions sociales avec lesquels ils ne peuvent pas ne pas agir. Il s’en suit que les formes sociales sont perpétuellement altérées et instituées, décadentes et émergentes, et qu’elles résultent des aptitudes anthropologiques de l’humanité à produire des formes organisationnelles, objectales (ou instrumentales) et sémiotiques. Là où de nombreuses disciplines se penchent sur tel ou tel aspect des usages et des pratiques liées à ces différentes formes, les sciences de l’information et de la communication devraient revendiquer, plutôt que la « transdisciplinarité », d’être les sciences qui se donnent pour obet les phénomènes d’émergences et de propagation de formes sociales. L’analyse des processus organisationnels dans le contexte de développement massif des technologies de l’intelligence montre en effet que ces différentes dimensions – organisationnelle, objectale et sémiotique - sont profondément intriquées et ne peuvent être séparées que par une convention épistémologique implicite ou explicite. On ne peut réduire les pratiques et les formes sociales à des formes sémiotiques même si elle sont évidemment symboliques : les objets et les organisations renferment mémoire et routines, intelligence et imaginaires, et les propagent avant même que ces formes soient énoncées ou désignées par ceux qui les adoptent et les propagent. De même, les formes organisationnelles résultent d’une aptitude sociale à la coordination, au dessein intelligent, à la communication et à l’institutionnalisation qui n’est pas réductible aux discours et vraisemblablement les précèdent. Les phénomèns d’information et de communication organisationnelle sont donc des phénomènes d’invention et de propagation de formes, d’in-formation. Ceci appelle à reprendre à nouveaux frais la conceptualisation des catégories d’information, de communication, d’organisation afin, par les conceptualisations, observations et recherches, de prendre la mesure de la polysémie de ces notions qui fonctionnent comme des mot-pavillons. 30 31 Repenser les TIC : Pour un cadre d’analyse des évolutions des dispositifs d’information – communication et des pratiques professionnelles. Anne MAYERE LERASS, Université Paul Sabatier Toulouse 3 [email protected] Les travaux de recherches concernant les usages des technologies de l’information et de la communication dans les différents contextes organisationnels présentent un clivage, relevé dans l’appel à communication, entre une approche par les usages privilégiant les interaction individuelles, et une dimension organisationnelle et institutionnelle. Cette dernière est souvent négligée, avec une articulation parfois très partielle, en ‘toile de fond’, sur des évolutions sociétales et économiques globales. Notre communication vise à explorer quelques contributions-clé, dans le champ de la recherche en SIC et de la recherche sur la technique, susceptibles de contribuer au dépassement de telles limites7. Repenser la technique pour reconsidérer les TIC dans les organisations L’approche de la technique développée par E. Feenberg nous semble particulièrement importante dans cette perspective (Feenberg, 2004). Pour E. Feenberg, de nombreuses contributions, y compris celles d’Heidegger ou Habermas, sont caractérisées par une vue ‘essentialiste’, au sens où « elle interprète un phénomène historiquement spécifique dans les termes d’une construction conceptuelle transhistorique » (ibid, p 39). Ce que l’essentialisme conçoit comme une distinction ontologique entre la technique et le sens, E. Feenberg propose de l’étudier comme « un terrain de lutte entre différents types d’acteurs entretenant des relations différentes à la technique et au sens » (p 17). « Les technologies ne sont pas seulement des dispositifs efficaces ou des pratiques visant à l’efficacité ; elles comprennent également leur contexte dans la mesure où celui-ci est internalisé dans leur conception même et dans leur mode d’insertion sociale » (p18). Il fait en cela écho à L. Sfez, pour qui la technologie est faite de technique et de discours sur la technique, et est en cela fortement ancrée dans un contexte agissant (Sfez, 1990). Aller plus avant dans la compréhension de la technologie comme construit social, articulant étroitement des techniques, des discours, des pratiques et des représentations, et participant à construire le social et les processus d’individuation, apparaît d’autant plus nécessaire aujourd’hui qu’il s’agit de penser des TIC qui jouent un rôle croissant dans les organisations. E. Feenberg préconise la prise en compte de l’expérience et de sa temporalité, en ce qu’elles influencent l’évolution de l’approche qu’ont les gens des dispositifs. Il rejoint en cela la sociologie constructiviste et l’histoire sociale de la technique. Mais il critique l’empirisme étroit de la plupart des recherches constructivistes qui se sont limitées à l’étude des stratégies permettant de construire et d’emporter l’adhésion aux 7 Cette communication s’inscrit dans le cadre d’un programme de recherche associant le LERASS et le CERTOP pour le compte de la MiRe-DREES, ‘Pilotage, coopération, cognition, dispositions : le cas de la gestion des événements indésirables (PCCD/GEI)’. nouveaux dispositifs et systèmes techniques. De même peut-on pointer cette limite s’agissant de la sociologie des usages des TIC (Jouët, 2000). Montrer les résistances et contournements au regard des usages prescrits est certes utile, mais ne constitue jamais que la face inversée du paradigme essentialiste centré sur la technologie ; celle-ci est appréhendée comme une ‘boite noire’, et étudiée dans la contingence de ses formes d’appropriation. Feenberg propose ‘une conception historique de l’essence de la technique’ à travers un cadre d’analyse que nous proposons de mobiliser pour spécifier le développement contemporain des TIC. Nous nous proposons notamment de montrer comment les recherches sur le travail éditorial de l’information en organisation (Guyot, 2004), ou sur l’approche par le document (Pédauque, 2003 ; Kolmayer, Peyrelong, 1999a) peuvent être prolongées et reconsidérées en prenant en compte ce que Feenberg spécifie comme un double processus d’instrumentalisation primaire et secondaire, par lequel prennent forme la constitution fonctionnelle des objets et des sujets techniques, et leur actualisation dans des résultats et des dispositifs concrets. La technique construit social dans un processus historique Feenberg identifie l’instrumentalisation primaire comme étant faite de quatre moments qui contribuent à la réification de la pratique technique, à savoir, la décontextualisation, le réductionnisme, l’autonomisation, et le positionnement. a) La décontextualisation renvoie au processus qui constitue des objets naturels en objets techniques en les ‘démondanisant’, c’est-à-dire en les séparant du contexte dans lequel ils apparaissent initialement pour les intégrer dans un système technique (Feenberg, ibid, p 194). C’est ce qui en est jeu avec la rationalisation des productions d’information, par exemple à travers la formalisation des méthodes de travail qui sont désignées comme ‘meilleures pratiques’, et formalisées de façon distincte des contextes concrets de leur première conception et de leur mise en œuvre. Une ‘meilleure pratique’ est une pratique ‘tout terrain’, qui dans un groupe internationalisé peut être projetée au niveau global d’une même fonction au sein de l’ensemble du groupe (Bazet, Mayère, 2004). b) Le réductionnisme « se réfère au processus par lequel les choses dé-mondanisées sont simplifiées, dépouillées de qualités techniquement inutiles et réduites aux seuls aspects qui permettent de les enrôler dans un réseau technique » (ibid, p 194). Ceci rejoint les travaux sur la production de documents en organisation, dont l’élaboration passe par un traitement de sélection, déterminant de façon imbriquée les auteurs habilités et ce qui peut donner matière à document (Kolmayer, Peyrelong, 1999b). Un enjeu-clé à ce stade concerne ce qui va différencier des qualités ‘primaires’, considérées comme indispensables, et des qualités ‘secondaires’, qui vont être 31 32 réduites par la logique de normalisation et de quantification. Cette désignation n’a rien de naturelle, elle s’inscrit dans des rapports de pouvoir, elle est l’objet de confrontations explicites ou larvées entre les acteurs concernés, et lorsqu’il y a contestation des outils mis en place, elle porte souvent, notamment, sur cette dimension. Ceci interroge directement sur les représentations qui vont participer à spécifier cette différenciation. Ainsi, à l’occasion du paramétrage des progiciels de gestion intégrée, la sélection des informations considérées comme utiles, les choix de leur format, les ‘vues’ attribuées aux différents intervenants sont fondées sur autant de décisions qui établissent ce qui serait de l’ordre de l’utile et de l’inutile, dans un système d’acteurs et des rapports de pouvoir qui contraignent fortement ce processus de décision (Bazet, Mayère, 2005). De même, les démarches de capitalisation des connaissances reposent-elles sur ce même moment de simplification, en centrant l’effort de formalisation sur les savoirs validés par la hiérarchie comme étant susceptibles d’être ré - utilisés ultérieurement. c) L’autonomisation correspond au processus par lequel « l’action technique ‘autonomise’ le sujet », en interrompant la rétroaction de l’objet vers l’acteur. L’identification de ce moment est importante en cela qu’elle pointe le fait que la posture et l’implication des futurs utilisateurs sont projetées, préfigurées dans le processus même de la conception. Pour Feenberg, la formalisation par la technique introduit une distance entre les acteurs et les effets de leur action, développant ainsi des relations fonctionnelles distanciées. Ainsi dans la Gestion électronique de documents, l’intervention d’un opérateur à un moment du processus peut avoir des incidences à d’autres moments du processus de traitement sans qu’elles soient connues de ceux qui les mettent en œuvre, et sans que leurs auteurs soient identifiables, ne serait-ce que du fait de la montée en puissance du caractère collectif de l’écriture et de la production de documents ou de systèmes de documents (Fauré, 2006). Les enjeux associés portent notamment sur la responsabilisation dans la production d’information ‘pour d’autres que soi’ (Mayère, Vacher, 2005), et sur la question de la maîtrise du sens dans des processus de plus en plus parcellisés (Bazet, 2006). d) Le positionnement tient à ce que « l’action du sujet par la technique ne consiste pas à modifier les lois qui régissent les objets, mais à les utiliser à son avantage… En se positionnant stratégiquement par rapport aux objets, le sujet utilise à son profit leurs propriétés intrinsèques» (ibid, p195). Au plan de ce qui règle le traitement de l’information, la quantification de l’information s’inscrit dans la logique des propriétés des machines numériques, en même temps qu’elle les conforte, et qu’elle participe à l’évolution des représentations et des pratiques des acteurs. En matière de communication organisationnelle et de mobilisation des TIC, au plan des ‘lois qui régissent les organisations’, ceci concerne notamment les dispositifs socio-techniques contemporains qui mobilisent des valeurs auxquelles il est difficile d’être opposé a priori (comme la qualité) pour organiser l’enrôlement des acteurs. Ce moment est inscrit dans une évolution historique, que certains auteurs dans la lignée des travaux de Foucault désignent comme relevant d’une transformation centrale dans la conception de l’exercice du pouvoir, à travers des pratiques complexes et multiples de ‘gouvernementalité’ qui prennent appui sur un double mouvement de rationalisation et de technicisation (Lascoumes, Le Galès, 2004). Cette exploration des moments de ce que Feenberg appelle l’instrumentalisation primaire participe à l’explicitation d’une conception historique de l’évolution technique qui réintroduit radicalement la question des enjeux de pouvoir et des interactions entre conception et utilisation. C’est en effet considérer l’évolution des TIC non pas du seul point de vue des filières techniques, mais de leur participation à la transformation des formes de production et d’échange, en même temps que des processus d’individuation et de l’évolution du lien social. L’intégration de la technique, ou les moments et enjeux d’une ‘re-territorialisation’ L’instrumentalisation primaire s’articule sur une instrumentalisation secondaire qui contribue à l’intégration de la technique dans son environnement naturel, technique et social, et en assure le fonctionnement. Elle repose sur quatre autres moments que sont la systématisation, la médiation, la vocation et l’initiative. Pour rejoindre les catégories de Giddens, elle s’inscrit dans une dynamique de reterritorialisation, au regard de la dé-territorialisation à laquelle contribue l’instrumentalisation primaire. a) « Pour fonctionner comme un dispositif concret, les objets techniques isolés et décontextualisés doivent se combiner et se réinscrire dans l’environnement naturel. La systématisation est le processus qui consiste à produire ces combinaisons et ces liens – dans les termes de Latour : à ‘enrôler’ des objets dans un réseau… Le processus de systématisation technique est fondamental pour la constitution des réseaux extrêmement complexes et étroitement associés des sociétés technologiques modernes » (ibid, p 197). Feenberg pointe le rôle prépondérant de la systématisation dans les sociétés modernes qui prend appui sur le triomphe de ce qu’il appelle les médias de coordination, à savoir, l’argent, le pouvoir et la technique. Concernant les productions d’information et activités de communication, la numérisation d’un nombre croissant d’informations multimédia participe de cette systématisation, en incluant dans des process de traitement proches voire combinés ce qui relevait de métiers et filières différenciés. Cette systématisation concerne également une acculturation à la production de documents numérisés, et des méthodes d’élaboration, de traitement, de classement de l’information. Elle relève d’une rationalisation cognitive, dont les travaux en communication organisationnelle ont commencé à explorer les dimensions et implications (Bouillon, 2005 ; Loneux, Bourdin, Bouillon, 2005). Au plan des modalités d’appropriation des outils techniques, il est possible de rattacher ce moment au processus de banalisation et d’hybridation identifié par Mallein et Toussaint dans ce qu’ils appellent la rationalité de la cohérence socio-technique (1994). b) « Les médiations morales et esthétiques confèrent à l’objet technique simplifié de nouvelles qualités secondaires qui l’intègrent durablement dans son nouveau contexte social » (ibid, p 197). En matière de TIC, les travaux de V. Scardigli ou de Ph. Breton ont exploré l’attribution de valeurs génériques associées aux NTIC (Scardigli, 1992, 2001 ; Breton, 1992). L. Sfez a relevé combien « toute technique spécifique délivre un schéma plus ou moins complexe où, pour une société donnée, se lisent, comme à livre ouvert, les craintes, les désirs, les projets et la hiérarchie des buts poursuivis » (Sfez, 1990, p 31). S. Pène, étudiant le cas des TICE, interroge la façon dont les sciences humaines et sociales, et plus spécifiquement les SIC, sont convoquées pour produire ce qui dans les termes de Feenberg relève de ces médiations, sans que puissent être mis en cause les choix antérieurs intervenus en conception (Pène, 2006). c) Pour Feenberg, « le contrôle stratégique de l’ouvrier et du consommateur exercé par le processus de positionnement est dans une certaine mesure compensé par diverses formes d’initiative tactique de la part des individus soumis à ce contrôle technique » (Feenberg, ibid, p 198). La sociologie des usages s’est en bonne part centrée sur ce moment, mais de façon en bonne part a-historique. Or, pour Feenberg, « c’est le 32 33 capitalisme qui a conduit à la séparation tranchée entre le positionnement et l’initiative, la stratégie et la tactique » (ibid). Il importe d’interroger la fabrique de cette séparation, son évolution dans le temps, dans les lieux, formes et moments de production de ces marges de manœuvre, dans les acteurs concernés, les activités en cause. L’évolution des TIC, en élargissant le domaine du paramétrable et de l’adaptable, déplace les limites d’intervention potentielle des acteurs. En même temps, l’acculturation de plus en plus diffuse aux discours et pratiques de la technique contribue à mettre en forme l’initiative des utilisateurs. Réarticuler ce moment de l’initiative aux autres moments permet d’aller plus loin dans la compréhension du changement social, organisationnel et des pratiques, en se dégageant de la seule perspective du rapport singulier d’un utilisateur ou groupe d’utilisateurs avec une technique particulière. d) A travers le moment dit de ‘vocation’, Feenberg veut désigner « la rétroaction des outils sur leur utilisateur » (ibid, p 198). Dans son travail avec l’objet technique, le sujet est engagé tout aussi profondément que l’objet. L’acteur est transformé par ses actes : le tireur « deviendra chasseur, avec les attitudes et les dispositions correspondantes… de la même façon que l’ouvrier qui travaille le bois devient un charpentier, la dactylo à son clavier une rédactrice » (ibid). Feenberg rejoint en cela la pensée de Simondon sur le rôle de la technique comme intrinsèquement partie prenante du processus d’individuation (Simondon, 2005). Avec Simondon, il n’y a pas d’individus tout faits, indivisibles, mais des processus d’individuation, qui mettent à l’œuvre un principe d’inséparabilité : « aucun ‘individu’ n’est isolable comme tel, il doit être compris comme emporté dans un processus permanent d’individuation qui se joue toujours à la limite entre lui-même et son milieu » (Citton, 2005, p2). Pour Simondon, le régime d’information participe à définir le degré d’individualité. Le renouveau de l’intérêt porté à ses travaux est en relation directe avec les enjeux concernant les mutations sociales contemporaines et le rôle des TIC dans les organisations et plus largement dans la société. Une mise en dialogue plus approfondie entre le cadre d’analyse proposé par Feenberg et les travaux de Simondon nous semble constituer une orientation heuristique pour une intelligence renouvelée de ce que nous faisons aux TIC et de ce qu’elles nous font. En cela, cette contribution est encore partielle, mais elle se situe en convergence avec des orientations en émergence, et de nombreuses réflexions et débats, comme ceux intervenus lors du Congrès de la SFSIC à Bordeaux en Mai 2006. Une urgence à penser des mutations actuelles profondes Le dépassement des limites des cadres d’analyse prédominants nous semble particulièrement requis actuellement. En effet, la conception et les formes de mobilisation actuelles des TIC contribuent à ce que nous proposons de désigner comme la fabrique d’une interchangeabilité organisationnelle, à travers celle des dispositifs d’information – communication (Mayère, 2006). Le principe de commutation, repris par S. Craipeau (2001), conçu comme capacité à établir des interactions efficaces entre composantes organisationnelles, peut être envisagé comme constituant une étape-clé de cette fabrique de l’interchangeabilité. Cette évolution est en phase avec la maturation du modèle économique contemporain, et plus particulièrement avec ce qu’il mobilise comme formes renouvelées de pilotage et de contrôle, comme exigences de flexibilité organisationnelle et de compétitivité transversale. De tels enjeux sont liés à la dynamique globale de globalisation des rapports de production et d’échange et de financiarisation des économies. En cela cette question articule étroitement évolutions sociétales et organisationnelles. Ce n’est évidemment p as dénier que sa mise en œuvre dans telle ou telle organisation présente des formes spécifiques, liées à l’histoire de cette organisation et des groupes professionnels qui y travaillent, à son activité, à son rapport au marché, à ses formes d’insertion dans son environnement, etc. Mais la nécessaire prise en compte de la contingence tant au plan des organisations que des pratiques des acteurs ne peut justifier de renoncer à spécifier des évolutions convergentes à un niveau plus global. L’identification d’un idéal-type ou d’une orientation structurante n’a jamais prétendu annihiler la diversité du social. Le questionnement ici proposé concerne également la dimension des pratiques de travail de l’information et de communication. Mais, comme suggéré précédemment, la question-clé n’est pas celle de l’appropriation des TIC, ou pas seulement en soi. Elle est celle de l’acculturation aux formes de relations professionnelles et de construction identitaire promues, soutenues, favorisées par la configuration contemporaine des organisations et dispositifs d’information – communication, dans une société en forte évolution (Aubert, 2003 ; 2004). Feenberg parle de ce processus qui consiste à ‘démondaniser’ les objets naturels pour en faire des objets techniques. Comme relevé précédemment, cette conception est, par bien des aspects, proche de celle que formule A. Giddens en termes de déterritorialisation – reterritorialisation, et qu’il identifie comme caractéristique de la modernité (1994). Il s’agit à travers ce cadre d’analyse des TIC de spécifier les modalités par lesquelles se construit dans les organisations la prédominance de l’intégration systémique, fondée sur des relations médiatisées, sur l’intégration sociale, basée sur des relations de co-présence. Dans le cadre de cette mutation à la fois sociale et organisationnelle, la question posée est celle d’une mutation anthropologique, question vers laquelle convergent plusieurs travaux (de Saint-Laurent, 2004 ; Dubey, 2001). Ce qui nous semble pouvoir être identifié comme une mutation anthropologique repose notamment sur l’acculturation à l’élaboration de relations avec des autrui absents, sur la production de confiance dans des systèmes experts, et sur la construction de disponibilité (Pène, 2005). Il importe d’aller plus avant dans l’explicitation des modalités par lesquelles l’instrumentation primaire et secondaire des TIC participe à ces transformations, en même temps que la conception des TIC est travaillée par ces évolutions des rapports de production et d’échange. Nous avons tenté dans cette communication de poser des premiers jalons permettant de situer en quoi le cadre d’analyse ici esquissé peut aider à spécifier certains des éléments - clé des dynamiques à l’œuvre. Bibliographie : Aubert N.(dir), 2004, L’individu hypermoderne, éd. érès, 316p. Aubert N., 2003, Le culte de l’urgence, la société malade du temps, éd. Flammarion, 375p. Bazet I., 2006, « De l’informatisation des processus au travail informationnel en miettes », Colloque International Pratiques et usages organisationnels des sciences et technologies de l’information et de la communication, Rennes. Bazet I., Mayère A., 2004, « Entre performance gestionnaire et performance industrielle, le déploiement d’un VRP », Sciences de la Société, n°61, pp 107-121 Bazet I., Mayère A., 2005, ERP and the capitalization of information production process and kills, 1rst Bi-annual European Conference ICT, the Knowledge Society and Changes in Work, The Netherlands, Den Haag, juin http://www.nwo.nl/nwohome.nsf/pages/NWOP_6CSCL9/$file/ICT_M ayere.pdf 33 34 Bouillon J.L., 2005, « Autonomie professionnelle et rationalisation cognitive : les paradoxes dissimulés des organisations postdisciplinaires », Etudes de communication, n°28, pp 91-105 Breton Ph., L’utopie de la communication, éd La découverte, 1992. Citton Y., 2005, « Sept résonances de Simondon », consulté le 30.05.06, http://multitudes.samizdat.net/Sept-resonances-deSimondon.html Craipeau S., 2001, L’entreprise commutante. Travailler ensemble séparément, éd. Lavoisier. Feenberg A., 2004, (Re)penser la technique, éd. La Découverte, MAUSS, 230p Dubey G., 2001, Le lien social à l’ère du virtuel, PUF, 2001 Fauré B., 2006, Les activités de production de l’information budgétaire : Communications organisationnelles et régulations dans une entreprise de BTP, thèse soutenue à l’Université Toulouse 2, Juin Giddens, A.,1994, Les conséquences de la modernité, éd. L’Harmattan Jouët J., 2000, Retour critique sur la sociologie des usages, Réseaux, n°100, pp 399 – 521 Kolmayer E., Peyrelong M.F., 1999a, Partage de connaissances ou partage de documents ?, consulté le 13.02.06, http://archivesic.ccsd.cnrs.fr/sic-00000100.html Kolmayer E., Peyrelong M.F., 1999b, « L’émergence du document dans un processus de capitalisation des connaissances », communication aux journées Org&Co de la SFSIC, Aix-en-Provence, juin, http://archivesic.ccsd.cnrs.fr/sic_00000108.htm, consulté le 28.2.06 Lascoumes P. Le Galès P.(dir), 2004, Gouverner par les instruments, Presses de la Fondation Nationale des Sciences Politiques. Loneux C., Bourdin S., Bouillon J.L., « Building the field of organizational communication in France: concepts, methods, institutions », First European Communication Conference, Nov, Amsterdam, pp 24-26. Mallein P., Toussaint Y., 1994, « L’intégration sociale des technologies d’information et de communication : une sociologie des usages », TIS, n°6 (4), p315-335 Mayère A., 2006, Les activités de communication et de production d’information dans les organisations. Apports et enjeux de la recherche en SIC Actes du XVème Congrès des SIC, SFSIC, Bordeaux, pp 431 - 445. Mayère A., Vacher B., 2005, « Le slack, la litote et le sacré », Revue Française de Gestion, hors série Dialogues avec James March, pp 63 - 86 Pédauque, 2003, Document : forme, signe et médium, les reformulations du numérique, consulté le 13.02.06, http://archivesic.ccsd.cnrs.fr/sic-00000511.html Pène S., "Vers une société de disponibilité ?". Immageson.org, 15 avril 2005 [En ligne] consulté le 13.02.06, http://www.imageson.org/document621.html Pène S., 2006, « Les SIC et les TIC. Demandes institutionnelles ou besoins sociaux ? », Actes du XVème Congrès des SIC, Bordeaux, pp 503 – 510. Scardigli V., 1992, Les sens de la technique, PUF Scardigli V., 2001, Un anthropologue chez les automates, PUF, 244p. Sciences de la Société, 2004, dossier : Systèmes d’information organisationnels, n°63 Sciences de la Société, 2004, dossier : Le mythe de l’organisation intégrée, n°61 Sfez L., 1990, Critique de la communication, éd.du Seuil Simondon G., 2005, L'individuation à la lumière des notions de formes et d'information, éd. Jérôme Million. De l’extension illimitée des études d’usages. Quelques remarques. Jean-Max Noyer, Université de Paris 7 [email protected] Le milieu. 1 - La création continuée du monde a pris aujourd’hui un caractère plus dramatique. La Performation du monde, des mondes, est une affaire complexe et incertaine et l’exploration des processus de différenciation de la sphère bio-politique, des agencements techno-politiques, des couplages hommes-machines fait venir au devant de nous des problèmes d’une ampleur sans précédent. Cette Performation est, en tous cas, consommatrice insatiable d’énergies, d’écritures, de récits, de narrations, de normes, d’objets techniques semblent nous contraindre à penser et agir sous les contraintes de la créativité. Finalité sans fin ? Peut-être. A grands frais, nous n’avons de cesse de produire des niches écologiques, éco-cognitives, des nouveaux modes de propagations des puissances psychiques, nous n’avons de cesse de produire des processus contraignants d’équilibration, maintenant les passions et les relations structurales d’hostilité dans des limites acceptables. Nos états métastables sont menacés en permanence d’autodestruction. De nouvelles subjectivités viennent troubler les modes de régulation politiques et organisationnels. Des agencement inédits d’ affects et de percepts peuplent peu à peu le monde et ouvrent vers des explorations des dimensions intensives du temps, des devenirs bio-politiques. Le développement des sémio-politiques et des biopolitiques en cours, parce qu’elles frayent la voie à une « expérimentation qui fait règle, qui est à soi-même sa propre règle, expérimentation généralisée qui a pour objet les pouvoirs agençant la vie plutôt que des propriétés globales ou spécifiques du vivant, (...) qui engendre de manière immanente ses propres critère », à une expérimentation généralisée qui a pour objet les pouvoirs agençant l’écriture, la mémoire, les formes organisationnelles, le développement de ces sémiopolitiques…tend donc à masquer la différenciation des forces politiques mises en mouvement, la redistribution, encore souterraine, des rapports de production. Et ce d’autant que les réseaux d’actants qui en sont les maîtres d’œuvre dominent les représentations technoidéologiques qui en donnent ou sont susceptibles d’en donner les lisibilités générales. « Une politique devient réellement expérimentale et l’expérimentation relaie enfin le concept marxiste de la “pratique”, lorsque la distinction des objets, des moyens, des matières premières et des produits s’efface dans celle différentielle, des méthodes, dans la généralisation et le triomphe des moyens, lorsqu’on a compris qu’il n’y a plus de contradictions dans les choses. Une stratégie généralisée met en rapport différentiel et détermine l’un par l’autre dans une “chaîne machinique continue”, mais en dehors de toute fin éthique ou scientifique les procédés théoriques ou non du 34 35 pouvoir ». Sous les conditions de cet horizon, qui serait selon certains indépassable, mais qui selon nous rate la différenciation anthropologique, politique en cours et qui, en contrepoint, ne peut penser à son tour la question des fins, c’est-à-dire la question du politique que sous les conditions de la transcendance et d’un universel totalisant et totalitaire, les uns pleurent la disparition des schèmes et dispositifs de régulation hérités du marxisme, les autres célèbrent l’avènement du libéralisme auto-organisationnel héritier d’A. Smith. Plus que jamais, l’ensemble des réseaux capitalistes aujourd’hui est au coeur d’un vaste système de couplages hétérogènes et hiérarchiquement enchevêtrés entre « les divers types de machinismes : machines techniques, machines d’écriture économiques, mais aussi machines conceptuelles, machines religieuses, machines esthétiques, machines perceptives, machines désirantes... » 2 - Dans ce contexte, Étudier des usages, des pratiques peut avoir plusieurs motifs. 1- 2- Accroître les visibilités des co-déterminations , des co-différenciations des systèmes hommes-techniques, afin de produire et d’améliorer sans cesse les moyens de pilotage sémiotique nécessaires à l’orientation des productions, des besoins, des innovations. Rendre plus « maîtrisable » les mises en acceptabilité des innovations et des créations, loin des équilibres. (Ici se loge, au passage, la question centrale du désir / des besoins/ du manque, de leur rapport.) Du fantasme de contrôle continu de la Réalité, comme problème. 3- Accroître les visibilités concernant les différentes pragmatiques participant de l’auto-constitution ontologique du sujet à partir de ses objets, des médiations, des couplages structurels « cerveaux / corps / médiations / techniques / mondes ». 4- Accroître les visibilités concernant les processus d’altération-création qui affectent et explorent les couplages dans leurs devenirs. 5- Dans le cadre des approches qui s’efforcent de penser les phénomènes socio-cognitifs, les intelligences collectives, améliorer les descriptions d’agencements complexes et des dynamiques dont ils sont l’expression et l’exprimé. Pour mieux comprendre les conditions de production /circulation des avoirs. Nous ne prétendons pas ici, être exhaustifs. 3 - Les études sur les usages et les pratiques (il faudrait voir quelles sont les différences portées par ces deux termes) se différencient par les modes description, par les motifs de « contrôle du contexte », par les problèmes que portent les descriptions. Pour reprendre rapidement Jean-François Lyotard. « Le contrôle du contexte… pourrait valoir comme une sorte de légitimation. Ce serait une légitimation par le fait. L’horizon de cette procédure est celui-ci : la « réalité » étant ce qui fournit des preuves pour l’argumentation scientifique et les résultats pour les prescriptions et les promesses d’ordre juridique, éthique, politique, on se rend maître des unes et des autres, en se rendant maître de la « réalité », ce que permettent les techniques. En renforçant celles-ci on renforce la réalité, donc les chances d’être juste et d’avoir raison. Et réciproquement on renforce d’autant mieux les techniques que l’on peut disposer du savoir scientifique et de l’autorité décisionnelle » Les études d’usages se trouveraient ainsi au coeur de la transformation des modes de légitimation, au cœur de « la légitimation par la puissance. « Celle-ci n’est pas seulement la bonne performativité, mais aussi la bonne vérification et le bon verdict. Elle légitime la science et le droit par leur efficience, et celle-ci par ceux là. Elle s’autolégitime comme semble le faire un système réglé sur l’optimisation de ses performances. Or c’est précisément ce contrôle sur le contexte que doit fournir l’informatisation généralisée. La performativité d’un énoncé, qu’il soit dénotatif ou prescriptif, s’accroît à proportion des informations dont on dispose concernant son référent. Ainsi l’accroissement de la puissance et son autolégitimation, passe à présent par la production, la mise en mémoire, l’accessibilité et l’opérationnalité des informations ». Ceci pose un certain nombre de problèmes. D’une manière générale, les études d’usages, se font dans cet horizon où la performativité des procédures, et la maîtrise du contexte (du milieu associé ? de ce qui est perçu comme milieu associé, au sens de Simondon), semblent l’emporter. Et pourtant les usages forment le socle « contre, tout contre lequel » les questions de la métastabilité, de la création de la durée ainsi que des devenirs, ne cessent de s’actualiser. Car tout usage est événement. De cela il faudrait tenter de tirer les conséquences. Or il y a un après-coup radical des études d’usages qui en général viennent toujours trop tard, en tous cas après la création et au milieu des devenirs. Comme s’il s’agissait de « refroidir » les mouvements de désir, de création et d’altération, singuliers / collectifs, qui parcourent ce que l’on pourrait appeler le « plan d’immanence doxique » des usages. Les usages constituant un plan d’immanence politique où le « sens commun » ne cesse de résister et de créer, de faire monter des devenirs minoritaires au milieu des puissances qui performent. 4 - De quelques problèmes spécifiques Les débats sont nombreux, les affrontements théoriques sévères qui constituent cet pratique de recherche. S’il est bien un domaine où, parme d’autres la question de la transdisciplinarité se pose, c’est bien celui des usages. L’objet, ou plutôt les objets de recherche sont nombreux, parfois mal définis, toujours complexes. Les actants impliqués sont très hétérogènes. Ce sont toujours des mixtes, des hybrides, des composites qui sont en jeu, des agencements collectifs d’énonciation couplés avec des « équipements collectifs de subjectivation » . Des systèmes hommes-machines couplés avec des discours…“ Il nous faut donc en revenir à cette évidence simple, mais combien lourde de conséquences, pour la mise en œuvre et la légitimation de dispositifs d’analyse, à savoir que « les agencements sociaux concrets, (…) mettent en cause bien d’autres choses que des performances linguistiques : des dimensions éthologiques et écologiques, des composantes sémiotiques économiques, esthétiques, corporelles, fantasmatiques, irréductibles à la sémiologie de la langue, une multitude d’univers incorporels de référence, qui ne s’insèrent pas volontiers dans les coordonnées de l’empiricité dominante… » . 4.1 - Il est toujours difficile délimiter les objets d’études et de légitimer cette fermeture. Les types de causalité sont souvent enchevêtrés, et les médiations multiples. Plus encore, 35 36 suivant les niveaux d’échelle où l’on examine ces phénomènes, les régimes de fonctionnement, les couplages entre les différents actants (au sens de Latour) ne sont pas de même nature. À tel niveau, les modes propagation des puissances psychiques relèvent de logiques probabilistiques, à tel autre, de type symbolique, les logiques relèvent de modes causaux différents. Tout au long des chaînes d’acteurs-réseaux, en acte, les processus de traduction et d’altération sont compliqués. Enfin, au cours des actions engagées, chaque mouvement, procédure, pratique, au niveau où ils opèrent, non seulement produisent des effets sur leur propre milieu associé, mais affectent, le plu souvent de manière “ aveugle ”, les autres niveaux où opèrent d’autres acteurs-réseaux… Ce sont des multiplicités hétérogènes qui sont à l’oeuvre, chaque action faisant évoluer, de manière plus ou moins forte, les règles de fonctionnement qu’elles se sont données ou qu’on leur a donné, proposé, imposé, et où parfois les actions changent pour tel ou tel contexte, les règles de fonctionnement d’interprétation, à un autre niveau. Dans le cas de la disruption des nouvelles technologies de l’information, communication, des technologies éducatives numériques, les usages impliquent donc des actants de plus en plus en plus hétérogènes. La construction des objets d’analyse, là plus qu’ailleurs, pose problème. Usage de tel ou tel logiciel, de tel ou tel tutoriel, de tel ou tel moteur de recherche, de tel ou tel outil de simulation, de tel ou tel objet, ce sont bien des mondes, fussent-ils “ micro ”, qui se mettent en branle, parlent et se parlent, produisent des effets et se transforment en se mettant en mouvement. Ces co-déterminations, ces couplages structurels, ces autopoïèses enlacées, aux autonomies relatives et parfois incertaines, entre des systèmes hommes-techniques plus ou moins complexes, voilà ce dont il y a usages, voilà ce qui travaille, désire, agit. Et les individus de ne cesser de faire l’expérience d’eux-mêmes sous des conditions métastables ou bien instables. Ce qu’il faut savoir observer, décrire, analyser, interpréter, ce sont des fragments de ces dynamiques, des parties de ces imaginaires, des éléments de ces désirs, de ces vies. C’est la raison pour laquelle, nous ne devons avoir aucun préjugé ontologique sur l’importance des actants qui sont en jeu . Ou en tout cas, nous devons être capables de justifier les hiérarchies de ces actants que nous prétendons observer, analyser, quantifier, dont nous prétendons observer, analyser le devenir ontologique, à travers leur auto-constitution, plus ou moins précaire, à partir d’autres objets, d’autres médiations, d’autres actants, qu’ils utilisent… De ce point de vue, les débats théoriques ou autres, concernant notre devenir bio-techno-politique, sont essentiels. Ils déterminent pour partie, mais une part essentielle, ce qui va être observé, pris en compte, les manières dont allons traiter et analyser les ensembles de traces laissées par les actants au cours de leur activité, leurs modes d’interaction, de circulation, de propagation, de trans-formation… Selon ce point de vue, on pourrait dire qu’il n’y a pas de société de l’information mais, des séries plus ou moins hétérogènes de transformations, expression et exprimé des actants, des dispositifs qui les portent et les font vivre. Cela signifie qu’en ce qui concerne les couplages hommesmédiations, il nous faut sans cesse relever les traces laissées au cours de leurs pratiques, par les actants couplés structurellement, c’est-à-dire en co-déterminations réciproques, tout en leur laissant une autonomie relative. Ces couplages sont très nombreux et hétérogènes et la question des niveaux d’échelle est ici essentielle. Qu’il s’agisse de pratiques collectives distribuées, de pratiques individuelles, nous avons donc affaire, toujours, à des multiplicités, des collectifs, à des différenciations ouvertes des logiques associatives, analogiques, à ce qui constitue les actes élémentaires tels : assembler, relier, trier, classer, inscrire, jouer, fabriquer… Pour mieux définir les protocoles d’observation des usages, nous avons donc besoin d’un concept qui nous permette d’appréhender la richesse des couplages évoqués plus haut. Ce concept, c’est celui de machine. « Le principe de toute technologie est de montrer qu’un élément technique reste abstrait, tout à fait indéterminé, tant qu’on ne le rapporte pas à un agencement qui le suppose. Ce qui est premier par rapport à l’élément technique c’est la machine : non pas la machine technique qui est elle-même un ensemble d’éléments, mais la machine sociale ou collective, l’agencement machinique qui va déterminer ce qui est élément technique à tel moment, quels en sont l’usage, l’extension, la compréhension… » . Nous suivons ici Pierre Lévy dans son commentaire. « Une machine organise la topologie de flux divers, dessine les méandres de circuits rhizomatiques. Elle est une sorte d’attracteur qui recourbe le monde autour d’elle. En tant que pli pliant activement d’autres plis, la machine est au plus vif du retour de l’empirique sur le transcendantal. Une machine peut être considérée, en première approximation comme appartenant à telle strate physique, biologique, sociale, technique, sémiotique, psychique, etc, mais elle est généralement trans-stratique, hétérogène et cosmopolite ”. (…) “ Une machine est un agencement agençant, elle tend à se retourner, à revenir sur ces propres conditions d’existence pour les reproduire ”. (…) “ On ne se représentera donc pas des machines (biologiques, sociales, techniques, etc) “objectives” ou “réelles”, et plusieurs “points de vue subjectifs” sur cette réalité. En effet, une machine purement objective qui ne serait portée par aucun désir, aucun projet, qui ne serait pas infiltrée, animée, alimentée de subjectivité, ne tiendrait pas une seconde, cette carcasse vide et sèche s’effriterait immédiatement. La subjectivité ne peut donc être cantonné au “point de vue” ou à la “représentation”, elle est instituante et réalisante ». À cet égard, les discours sur les usages, quels qu’ils soient, doivent être pris dans leur entière et pleine positivité, non pas comme discours d’accompagnement, mais comme élément constitutif de la « machine collective » qui donne sens à l’élément technique. Ils « performent » le monde et participent de notre auto-expérimentation, symbolique, imaginaire, réelle. « … Les machines ne sont ni purement objectives ni purement subjectives. La notion d’élément ou d’individu ne leur convient pas non plus, ni celle de collectif, puisque la collection suppose l’élémentarité et fait système avec elle. Comment alors penser la composition des machines ? Chaque machine possède une qualité d’affect différente, une consistance et un horizon fabulatoire particulier, projette un univers singulier. Et pourtant elle entre en composition, elle s’associe avec d’autres machines. Mais sur quels modes ? ». (…) “ Nous faisons l’hypothèse qu’il n’existe aucun principe général de composition, mais qu’au contraire, chaque agencement machinique invente localement son propre mode de communication, de correspondance, de compossibilité ou d’entrelacement de l’autopoïèse (pôle identitaire) et de 36 37 l’hétéropoïèse mutuelle (pôle associatif). Distinguons cinq dimensions de la machine : une machine est directement (comme dans le cas de l’organisme) ou indirectement (dans la plupart des cas) autopoïétique (Varela), ou autoréalisatrice (comme on parle d’une prophétie autoréalisatrice) c’est-àdire qu’elle contribue à faire durer l’événement du pli qui la fait être. Une machine est exopoïétique : elle contribue à produire un monde, des univers de significations. Une machine est hétéropoïétique, ou fabriquée et maintenue par des forces du dehors, car elle se constitue d’un pli. L’extérieur y est toujours déjà présent, à la fois génétiquement et actuellement. Une machine est non seulement constituée par l’ extérieur (c’est le repli du pli), mais également ouverte sur le dehors (ce sont les bords ou la béance du pli). La machine s’alimente, elle reçoit des messages, elle est traversée de flux divers. En somme la machine est désirante. À cet égard, tous les agencements, tous les branchements sont possibles d’une machine à l’autre. Une machine est interfaçante et interfacée. Elle traduit, trahit, déplie et replie pour une machine aval, les flux produit par une machine amont. Elle est elle-même composée de machines traductrices qui la divisent, la multiplient et l’hétérogénéisent. L’interface est la dimension de “politique étrangère” de la machine, ce qui peut la faire entrer dans de nouveaux réseaux, lui faire traduire de nouveaux flux. Toute machine possède les cinq dimensions, mais à des degrés et dans des proportions variables ». 4.2 - Ceci nous donne des indications fortes quant à l’ampleur des traces, des indices que nous devons relever, traiter, penser, lorsque nous sommes conduits à observer les usages de tel ou tel individu, de telle ou telle entité. La détermination du ou des corpus est alors, déterminante. Il ne s’agit pas seulement d’une affaire quantitative. Il convient de se mettre en situation de pouvoir décrire, penser, les actions, les usages comme des processus et donc impliquant la “traversée” de plusieurs mondes, niveaux, échelles. C’est-à-dire, la traversée d’un plus ou moins grand nombre d’acteurs-réseaux, d’actants, (au sens encore une fois de Bruno Latour, Michel Callon). Chaque entité, acteur se trouvant toujours, au terme de processus d’indentification et de différenciation plus ou moins complexes, « à la traversée” de ces chaînes, de ces flux. “ Il faut donc se lancer dans la lecture fiévreuse de tous ces intermédiaires, qui passe dans nos mains, dans celles des artefacts, des textes… des corps disciplinés … » . De ce point de vue, nous ne devons donc accorder aucun privilège (a priori) à tel ou tel actant, à tel ou tel mode d’association, de traduction. Il convient donc de partir « de ce qui circule (afin d’être) conduit … à ce qui est décrit par ce qui circule. Le verbe décrire est à prendre dans son double sens : “description ” littéraire du réseau inscrit dans l’intermédiaire considéré, qu’il s’agisse de textes, de dispositifs, de compétences incorporées ; descriptioncirculation de l’intermédiaire (dans le sens où l’on dit qu’un missile décrit une trajectoire) qui n’est possible… que si le réseau inscrit coïncide avec le réseau rencontré, éprouvé…) ». . Étudier les usages suppose donc de pas se laisser enfermer, sans conscience ni raison, dans une sémiotique spécifique, un niveau d’échelle particulier . Les usages sont des événements où convergent des lignées temporelles hétérogènes, des forces, portées par des chaînes d’actants, humains et non-humains, des sémiotiques qui opèrent tantôt au niveau symbolique, tantôt au niveau infralinguistique, tantôt encore à même des corps disciplinés ou indisciplinés, tantôt au niveau de tel ou tel élément technique. Ces convergences peuvent se stabiliser, mais elles peuvent aussitôt se dissoudre, imploser en de souterraines vibrations volcaniques ou bien exploser vers d nouvelles connexions et attractions… en des tactiques, stratégies parfois, qui sont l’expression et l’exprimé des processus d’adoption et de rejet, de transformation et d’invention, de tel ou tel dispositif. D’une manière générale, les usages qui impliquent Internet, (pour prendre un exemple) certaines de ses fonctionnalités, sont de plus en plus marquées par la singularité, la proximité, e voisinage. Ils sont de plus en plus intégrés, au milieu des autres dispositifs d’écriture et de lecture, et se différencient à partir du creusement des pratiques interprétatives toujours singulières et convoquant des univers de référence spécifiques. Certes les dimensions des collectifs convoqués, à l’occasion des ses pratiques ont changé. Toutefois, l’histoire des pratiques intellectuelles, des pratiques cognitives, montrent que la tendance est, après le saut quantitatif, au sur mesure, à la personnalisation… Si le réseau Internet a, d’un certain point de vue, une prétention universelle, cette prétention est tout à fait théorique. Pour le dire autrement, personne n’ a besoin de la totalité des informations et savoirs qui sont là, proposés. Ce qui se joue, en réalité, c’est à partir de nos micro-mondes, de nos subjectivités, la possibilité de creusement intensif de capacités cognitives, perceptives et affectives, par “ multiplication plus ou moins maîtrisée des points de contacts internes et externes ”, des processus de traduction, altération, des systèmes de propagation . Les corpus doivent donc prendre en compte les traces qui expriment à la fois l’hétérogénéité des actants, des intermédiaires, des forces, des associations, des temporalités ( et des rapports de vitesse et de lenteur), des modes de causalité, d’interaction, de traduction-création-invention au coeur même des hiérarchies enchevêtrées, dynamiques plus ou moins stables, constitutives des conditions d’actualisation des pratiques. Une fois constitués de tels corpus, vient le problème de leurs traitements. Et là surviennent d’autres débats. Débats théoriques, on l’a déjà souligné, débats sur les méthodes aussi. Comment éviter, autant que faire se peut, d’importer des schèmes normatifs, figeant des processualités pourtant toujours ouvertes et créatrices, des événements, dont la pleine et entière positivité doit être conservée, préservée à tout prix ? Bien évidemment, les études sur les usages n’ont pas la plupart du temps cette visée, à savoir, être au milieu du champ d’immanence. C’est plutôt du côté des études et recherches menées au sein des sciences de la cognition et de la cognition distribuée, de l’éthnométhodologie, de l’anthropologie, de la sociologie critique… que l’on trouve un intérêt majeur à affronter ces incomplétudes, à se doter de systèmes d’observation et d’écriture, de dispositifs expérimentaux et de simulationmodélisation, adéquats. Il serait de ce point de vue particulièrement instructif, de pouvoir discuter d’un certain nombre de critères, qui permettraient de différencier parmi les études d’usages celles qui ont, traditionnellement tendance à occuper un espace qui les situe, au coeur même de la performation, politique et économique du monde en produisant des cartes et des classifications sous et pour les conditions structurales de visibilité d’organisations « amont », et celles qui tentent de se situer au milieu des hyperpragmatiques, des usages entre routines et création / altération, entre répétition et devenir. Sans s’interdire d’en penser les hybridations et les résonnances. 37 38 Notes et Bibliographie M. Callon, La dynamique des réseaux techno-économiques, CSI, Paris M. Callon “Éléments pour une sociologie de la traduction. La domestication des coquille Saint-Jacques et des marins pêcheurs en baie de Saint-Brieuc“, L’Année sociologique, Vol 36 1986. Michel de Certeau, L'Invention du quotidien, t.I. Arts de faire, Paris 1980 ; L'Invention du quotidien, t.II. Habiter, cuisiner, Paris 1980. Luce Giard, Paris , Gallimard, Folio Essais, 1990. Gilles Deleuze, Felix Guattari, Mille plateaux, Paris, Éditions de Minuit, 1981. François Dagognet, Les outils de la réflexion, Institut Synthélabo, paris 1999 Felix Guattari, et Eric Alliez (1983), “ Le capital en fin de compte : systèmes, structures et processus capitalistiques ”, Change International, n° 1. Félix Guattari, Cartographies schizoanalytiques, Paris, Éditions Galilée, 1989. Michael Hardt, Antonio Negri, Empire, Exils Éditeur, Paris 2000 François Laruelle, (1981), “ Homo ex Machina ”, Revue de Métaphysique. Bruno Latour, Les microbes, Guerre et Paix, suivi de Irréductions, Paris, Éditions Métailié, 1984. Jean François Lyotard, La Condition Postmoderne, Éditions de minuit, Paris 1979 Bernard Stiegler, La Technique et le Temps, (Tomes 1, 2, 3), Éditions Galilée, Paris, 1994, 1996, 2000 Revue « Traverses » N° 26, Rhétoriques de la technologie, Éditions de Minuit, Paris 1982 L’Outre-Lecture, Manipuler, (s’) appropier, Interpréter le Web, in Études et Recherches, Centre Pompidou, Paris, 2003 COMMUNICATIONS POUR LES ATELIERS Individus et usages des TIC à l’articulation du privé et du professionnel ANCA BOBOC et Laurence DALHEINE L'entreprise fait face, depuis plusieurs années, à une intensification des contraintes qu'elle doit gérer pour rester compétitive sur son marché. Cela se traduit autant au niveau organisationnel, qu'économique et social. "Les frontières de l'entreprise sont devenues beaucoup plus floues et changeantes dans le but de s'adapter et se reconfigurer en permanence au gré des évolutions de la demande."8 On parle ainsi d'entreprise éclatée, notamment pour caractériser la généralisation des situations de travail sur lieux multiples. Le salarié devant être au plus près des clients, il est de plus en plus sollicité par l'entreprise pour se déplacer dans le cadre de son activité professionnelle. On assiste ainsi à une décorrélation croissante entre l'activité de travail et le lieu de réalisation de cette activité. P. Vendramin et G. Valenduc parlent ainsi de repères qui s'estompent : "La règle littéraire de l'unité de lieu et de l'unité de temps, bien connue de ceux qui ont étudié la tragédie classique, est aussi celle qui régit l'organisation du travail depuis le début de la révolution industrielle. Le travail se déroule dans un lieu unique, par exemple l'atelier ou le bureau, et dans un temps bien défini, concrétisé par une démarcation entre le temps de travail et les autres temps sociaux : éducation, loisirs, famille, etc. (…) Aujourd'hui, ces repères s'estompent."9 Des zones de brouillage entre les différents lieux et temps sociaux de la personne redéfinissent fortement les anciennes frontières entre le professionnel et le privé10. Parallèlement, dans l'univers du travail comme dans l'univers domestique, les Technologies de l'Information et de la Communication se sont fortement généralisées jusqu'à devenir omniprésentes : téléphone fixe, mobile et mail sont le support de pratiques quotidiennes d'un grand nombre de personnes. L'évolution des techniques est donc quantitative, 8 Isaac Henri, Kalika Michel, "Organisation, nouvelles technologies de l'information et de la communication et vie privée", Revue Française de Gestion, n°134, Juillet 2001. mais elle est également qualitative du fait de l'augmentation forte des capacités offertes par ces outils. Cette généralisation des outils et des services de communication redéfinit ainsi complètement la gestion des espaces et du temps, ouvrant des possibilités d'articulation de plus en plus fortes entre les différents univers de vie des individus. Comme le constate H. Isaac et M. Kalika11, les TIC ne font ainsi qu'accompagner un mouvement plus général de transformation de la notion d'entreprise et de travail et de changement dans notre rapport au temps. J.-Y. Boulin fait référence à l'aspect de plus en plus immatériel du travail, associé à un double processus d'intensification/densification qui "induit un processus de mobilisation des capacités cognitives des individus qui tend à instaurer un continuum entre le travail et le hors-travail". Il y a donc, selon lui, un premier niveau de brouillage entre les sphères privée et professionnelle qui n'est pas en lien avec le développement des TIC. Mais parallèlement, il constate aussi que "l'utilisation croissante des outils nomades instrumente cette hystérésis alimentant ainsi un brouillage des frontières entre le travail et le hors-travail"12. Il y a donc désynchronisation des temps sociaux d'une manière générale, l'objectif pour les individus étant alors de trouver les meilleurs compromis pour agencer au mieux ces temps. L'une des questions que nous soulevons dans cet article est donc celle du réagencement des temps sociaux via les TIC. Comment les individus mobilisent-ils les TIC pour s'organiser dans un univers qui est de plus en plus flou et dans lequel les espaces-temps sont de plus en plus imbriqués ? C'est à partir d'une étude quantitative réalisée en 2005 auprès de 2000 actifs occupés en France et en GrandeBretagne que nous nous proposons d'analyser ces pratiques qui se situent au croisement des sphères privée et professionnelle13. 11 Isaac Henri, Kalika Michel (2001), op. cit. 12 Vendramin Patricia, Valenduc Gérard, Les tensions du temps, Dossier éducation permanente, Association pour une fondation travail – université, juin 2005, p.16. Boulin Jean-Yves, "Dynamique des temps sociaux et politiques temporelles locales", International symposium on working time, 9th meeting Paris, février 2004 10 13 9 La dimension publique est bien évidemment également impactée par ces évolutions mais nous ne l'aborderons pas dans cette présentation. Cette étude a été réalisée au laboratoire Sociologie des Usages et traitement Statistique de l'Information à la Division Recherche et développement de France 38 39 La fin de l'unité de lieux, de temps, d'action Les TIC sont fréquemment mises en avant comme éléments explicatifs d'une plus grande perméabilité des sphères privée et professionnelle. Mais, en même temps, "une technologie nouvelle se développe et s'applique dans une société qui lui pré-existe."14. Ainsi, ce n'est pas tant l'impact des TIC sur la redéfinition des frontières entre le privé et le professionnel qui nous intéresse ici que de comprendre la place occupée par ces technologies dans ces évolutions. Pour cela, nous posons quelques hypothèses de travail qui mettent en évidence plusieurs niveaux d'entrelacement entre le privé et le professionnel cristallisés autour de l'usage des TIC. 1. Le premier niveau renvoie à "l'unité de lieux". Dans un contexte où les situations de travail sont de plus variées et mobiles (comme nous le verrons plus loin) pour répondre à un besoin fort de réactivité face au marché, les TIC permettent de faciliter la décorrélation entre le lieu de l'action et l'action ellemême. Les individus peuvent accéder plus facilement et plus rapidement de partout aux données professionnelles dans des conditions quasi-identiques à celles de leur bureau. 2. Le deuxième niveau d'entrelacement, très directement lié au précédent est "l'unité de temps". Parce que les individus sont amenés à travailler depuis des lieux multiples, et notamment depuis leur domicile, ils travaillent également à des moments qui ne sont pas toujours contractuellement des temps professionnels. Les TIC participent à ce mouvement dans le sens où elles vont permettre de décorréler l'action et le temps de cette action: être là mais faire autre chose ! On peut, grâce aux TIC, mener en parallèle des actions en lien ou pas avec le lieu dans lequel on se place (je suis à mon bureau et je travaille, mais en même temps que je travaille, je téléphone à mes enfants). La sphère privée est envahie par le travail, mais le travail à sont tour est traversé par le privé. 3. Ces deux premiers niveaux d'entrelacement des espaces et des temps entraînent (en même temps qu'ils en sont la conséquence) un troisième niveau d'entrelacement du privé et du professionnel au niveau des équipements. Les individus sont de plus en plus souvent équipés à leur domicile et, par ailleurs, les équipements de la mobilité se développent aussi au niveau de l'entreprise. De ce fait, les outils tendent à devenir des outils à usage mixte : l'ordinateur familial est utilisé pour travailler le soir au domicile, le répertoire du mobile regroupe souvent la totalité des contacts de la personne et son numéro est communiqué à l'ensemble de ces contacts, etc... De ces pratiques d'entrelacement des usages découlent un brouillage croissant des frontières entre le privé et le professionnel (ex. comment éviter qu'un contact professionnel n'appelle durant les temps non travaillés (vacances, soirée, etc…) alors que l'on souhaite rester joignable par ses contacts personnels ?). L'étude réalisée en 2005 sur laquelle nous nous appuyons a été menée sur la cible des actifs occupés de 18 ans et plus. Cette étude s'est construite autour de deux enquêtes télécom. Plusieurs chercheurs ont collaboré au travail d'analyse des données : Anca Boboc, Thomas de Bailliencourt, Laurence Dhaleine, Fabienne Gire, Kaïs Hebiri et Alexandre Mallard. successives dans chacun des pays. Une première enquête quantitative de cadrage, basée sur un questionnaire en face à face passé auprès d'un millier de personnes, a permis de réaliser un inventaire des outils de communication utilisés dans le cadre de l'activité professionnelle et de connaître les caractéristiques socio-démographiques et professionnelles de leurs utilisateurs. La deuxième enquête est aussi une enquête quantitative, mais elle est centrée sur une sous-population plus spécifique, celle des "multi-équipés" que nous définissons comme les personnes utilisant dans le cadre de leur activité professionnelle au moins deux outils parmi le mail, le téléphone fixe et le téléphone mobile. Cette phase a permis de quantifier les usages combinés de ces équipements, et d'aller plus loin dans le détail des comportements et attitudes en matière de communication o Caractéristiques d'équipement de l'échantillon Deux axes majeurs discriminants: le niveau hiérarchique et la mobilité Niveau hiérarchique + 3 outils Fixe et Mobile - Fixe et Internet Mobile et Internet Mobilité+ Fixe Mobile Aucun outil - Parmi les personnes utilisant les trois outils pour travailler, on trouve essentiellement des professions libérales, des artisans, des commerçants et des cadres occupant des fonctions de direction. Les ouvriers sont quant à eux sur-représentés parmi les utilisateurs de "fixe + mobile" et les employés parmi les "fixe + mail". La configuration "mail + mobile" est rare. Sans entrer dans le détail, on peut dire que les pratiques en termes de communication sont fortement corrélées à la fonction, l'activité et la taille de l'entreprise. Ce graphique montre également que l'équipement est en grande partie corrélé avec le niveau hiérarchique et le niveau de mobilité des individus. Les TIC à l'articulation du privé et du professionnel o Une analyse des situations de travail, à l'articulation entre l'entreprise, le domicile et le déplacement Comme nous l'avons signalé, les individus travaillent de plus en plus souvent sur des lieux multiples. Travailler dans un lieu fixe et unique est donc une configuration qui semble moins partagée aujourd'hui. G. Crague constate que "le travail fixé dans les locaux de l'entreprise ferait place au travail hors les murs."15 Dans l'étude, nous nous sommes intéressés à la répartition du temps de travail des actifs occupés entre l'entreprise, le domicile et les déplacements. En fonction de la répartition du temps de travail sur ces lieux, on peut distinguer 7 configurations qui sont schématisées ci-dessous. Il apparaît ainsi que la situation de travail dans un lieu fixe et unique ne concerne finalement que 56% des actifs interrogés : "les 14 Rey Claudie, Stinikoff Françoise, "Les technologies de l'information et de la communication. Les nouveaux espaces-temps de la ville et du travail", Esprit critique, 2004, vol.06, N°03 15 Crague Gilles, le travail industriel hors les murs. Enquête sur les nouvelles figures de l'entreprise", Réseaux n°134, 2005, p.67-89. 39 40 sédentaires" qui passent la totalité de leur temps de travail dans l'entreprise (52%) et "les domiciliaires" qui travaillent intégralement à domicile (4%). Les 44% restants cumulent ainsi deux, voire trois types de lieux de travail différents : ceux que nous avons appelé "les voyageurs" partagent leur temps entre leur bureau dans l'entreprise et les déplacements ; "les télétravailleurs" alternent travail en entreprise et au domicile ; "les mixtes" cumulent les trois lieux. Comprendre l'articulation entre trois situations Les "télétravailleurs" Entrepris Les "sédentaires" de Les Domicile "domiciliaires Les "mixtes" Les "voyageurs" Les "domiciliaires mobiles" Déplacem Les "sans lieu fixe" D'une manière générale, donc, on assiste bien à une diversification des lieux de réalisation de l'activité professionnelle pour près de la moitié des actifs occupés. Cette évolution n'est bien sûr pas sans conséquence sur les usages des TIC. En effet, on remarque un lien assez net entre le fait de travailler sur des lieux multiples (mobilité) et l'usage des TIC. o De l'éclatement des temps sociaux La corrélation entre l'usage des TIC et les temps sociaux est également forte pour les lieux de travail. Alors que les temps étaient auparavant fortement corrélés avec les différentes activités de l'individu, on assiste à un éclatement de cette relation, favorisé par le développement des TIC. Les données recueillies tant en France qu'au Royaume-Uni mettent en avant par exemple une imbrication assez forte des activités personnelles et des temps professionnels. Si 36% des personnes de notre échantillon16 réalisent des activités professionnelles depuis leur domicile, une part plus importante encore d'entre eux réalise des activités personnelles sur son lieu de travail (seuls 14% d'entre eux déclarent ne jamais réaliser d'activités personnelles au bureau). Parmi les activités proposées, la gestion d'imprévus personnels est mentionnée par 52% des répondants. On constate également le maintien très fréquent du lien de communication entre le domicile et les autres lieux de travail. Ainsi, 90% des individus consultent leurs mails professionnels depuis leur domicile, dont 40% laissent ouverte leur messagerie en permanence. Parmi les personnes qui travaillent à domicile, seuls 25% le font parce qu'ils n'ont pas d'autres lieux de travail. 26% le font pour faire face à un débordement d'activité, ce qui renvoie à une notion de contrainte même si effectivement pour eux la capacité à pouvoir réaliser cela depuis leur domicile rend peut-être la contrainte moins contraignante puisqu'elle leur permet d'articuler ce surplus de travail avec les temps de la famille (travail après le coucher des enfants). A côté de cette explication, on en trouve trois autres qui renvoient plus directement à une volonté de meilleure harmonisation entre les temps de travail et les temps privés : 18,7% travaillent ainsi au domicile pour mieux concilier le privé et le professionnel ; 13,5% le font pour se mettre au calme et 3,3% pour faire l'économie du temps de trajet. A partir des données de l'étude, la superposition des espaces et des temps du travail et du horstravail apparaît donc nettement au niveau des activités réalisées ainsi qu'au niveau de l'usage des TIC. Liens entre équipement au travail et équipement au domicile L'étude quantitative met en avant un lien fort entre le fait d'être équipé et d'utiliser les TIC au bureau et au domicile. On constate tout d'abord un lien assez marqué entre l'équipement à disposition sur le lieu de travail et celui du domicile. Ainsi, le taux d'équipement en ordinateur à domicile, par exemple, est plus élevé parmi les personnes utilisant un ordinateur sur leur lieu de travail. De même, les ¾ des individus utilisant l'ordinateur sur leur lieu de travail hors domicile l'utilisent également lorsqu'ils travaillent depuis leur domicile. Plus on l'utilise sur son lieu de travail et plus on s'équipe à domicile. Ainsi, 59% des personnes qui utilisent internet sur leur lieu de travail ont une connexion à leur domicile, contre 30% des personnes qui ne l'utilisent pas au bureau. Plus on est utilisateur sur son lieu de travail, plus on l'est également à son domicile et vice versa, ce qui nous a amenés dans cette étude à nous interroger sur les apprentissages croisés qui se mettent en place dans l'usage de ces outils. Par ailleurs, les équipements ont, de plus en plus, une utilisation autre que celle initialement prévue. Ainsi, le téléphone fixe du foyer, par exemple, est fréquemment utilisé par les personnes qui travaillent à domicile (57% utilisent pour cela la ligne du foyer, alors que seuls 13% d'entre eux ont une ligne dédiée payée par l'entreprise). Il en va de même pour l'usage de l'ordinateur familial qui est utilisé par 47% des personnes qui travaillent à domicile. Enfin, le téléphone mobile est pour un tiers des personnes interrogées un outil mixte qu'ils utilisent à la fois pour des usages privés et des usages professionnels. La séparation physique entre les équipements, les lieux et les usages est donc de plus en plus floue. o Des pratiques privées au travail spécifiques selon les profils Après avoir vu globalement la manière dont l'usage des TIC interagissait avec les phénomènes d'entrelacement des sphères privée et professionnelle, nous souhaitons, à partir d'une typologie d'actifs construite sur la base des activités privées au travail, mettre en avant des comportements assez spécifiques à certains profils d'utilisateurs. Ces tendances générales sont finalement assez différemment réparties en fonction des groupes d'individus et de leur profil. 16 Ces données sont calculées sur une base qui comprend uniquement les individus multi-équipés de notre échantillon global, soit 9 millions de personnes. 40 41 Caractériser la pratique d'activités privées Le tableau ci-dessus permet de de la manière suivante : durant le temps de travail dégager des profils Les actifs qui ont le représentatifs de par le type moins d'usages d'activités personnelles réalisé privés sur les temps sur le temps et le lieu de travail. et lieux de travail Les couleurs représentent le sont les plus âgés, pourcentage de personnes dans ceux qui ont le la catégorie qui déclare moins d'outils à pratiquer ce type d'activité disposition et qui durant le temps de travail. Il ne ont les enfants les met ainsi pas en avant une plus grands. Ce sont intensité de pratiques parallèlement les individuelles, mais une intensité moins diplômés et de pratiques collectives. Nous ceux qui travaillent Absence de pratique Pratiques fortes observons des caractéristiques le moins. assez fortes pour chacun de ces Les actifs qui ont le groupes : d'un côté, ceux qui ne plus recours aux Base: ensemble de la population active en emploi de 18 ans et + multifont rien et ceux qui font de tout activités privées sur équipée (soit 9 millions de personnes) beaucoup ; de l'autre, ceux qui les temps et lieux de consultent des sites, qui organisent leur temps et ceux qui travail sont les plus jeunes. Ils sont bien équipés en TIC communiquent (par écrit ou à l'oral). Les séparateurs sont dans le cadre de leur activité professionnelle, disposent caractérisés par le fait qu'ils ne réalisent pas d'activités d'une autonomie dans leur organisation assez importante. personnelles au bureau. Les internautes, les bavards et les Ils ont de jeunes enfants, sont diplômés et travaillent le urgentistes ont un niveau assez moyen d'activités privées au plus. bureau. S'ils ne se différencient pas par leur intensité d'usage, Ce type de pratiques d'entrelacement dans la réalisation des ils le font par le type de médias qu'ils mobilisent pour réaliser activités est donc lié de manière combinée à plusieurs facteurs ces activités. Les internautes utilisent essentiellement que sont la structure familiale (plus la personne a des enfants l'informatique et internet ; les bavards sont quant à eux des jeunes et plus elle a de besoins de coordination qui l'amènent à utilisateurs intensifs du téléphone et les urgentistes se gérer les imprévus, prendre des RV, etc sur son temps de caractérisent par le fait qu'ils réalisent essentiellement des travail) ; l'équipement (plus la personne a d'outils à activités liées à la gestion du temps. La catégorie des "poreux" disposition et plus elle aura d'opportunités de réaliser des est caractérisée par une pénétration assez forte des activités activités personnelles sur son temps de travail) ; les privées dans le temps de travail et enfin, les intensifs ont un dispositions personnelles à l'usage (plus on est habitué et nombre important d'activités privées au bureau qui sont de tout formé à l'usage des TIC, mieux on s'en sert pour articuler ses ordre. différents usages). Il faut ajouter à cela le type d'emploi dans la Si l'on va plus en détail dans la description de ces groupes, mesure où certains n'offrent pas la possibilité d'articulation et plusieurs éléments nous apportent des réponses sur les peuvent donc contraindre la personne à segmenter sphère caractéristiques qui ont une influence sur la pratique d'activités privée et sphère professionnelle sans possibilité de compromis. privées au travail. Le secteur d'activité, tout d'abord, a une faible influence sur les comportements. En revanche, on Conclusion constate que ce sont les actifs les moins diplômés qui font le Les notions même d'entreprise et de travail sont aujourd'hui en plus de vocal ou qui ne font aucune activité privée au travail. complète redéfinition. Les TIC viennent accompagner un Le niveau de diplôme est donc un élément de différenciation mouvement déjà fortement engagé d'un point de vue sociétal et assez fort sur cette question. Bien évidemment, le lien de qui renvoie à des dimensions qui ont peu à voir avec la causalité entre ces deux variables n'est pas aussi binaire technique. Elles favorisent l'établissement de compromis entre puisque par exemple, ces deux catégories sont aussi celles qui l'entreprise et l'individu qui vont dans le sens d'une plus regroupent le plus d'ouvriers. De la même manière, on constate grande imbrication des sphères privée et professionnelle, que les usages sont plus faibles si l'équipement à disposition principalement due au fait que les TIC permettent aujourd'hui est moins important ou s'il est partagé. Ainsi, si les internautes de s'affranchir des contraintes de temps et de lieux. Ces usages font surtout de l'internet c'est peut-être parce qu'ils sont 40% à croisés posent la question des apprentissages : comment une partager leur téléphone fixe avec d'autres collègues. Cela pratique individuelle et privée peut-elle se transformer en une renvoie à l'aspect plus ou moins "discret" des outils qui, en pratique professionnelle et collective ? fonction de l'environnement de la personne, favorise les usages ou les freinent. A l'inverse du téléphone, le mail et internet permettent la réalisation d'activités privées en toute discrétion et ce, quelque soit l'environnement de travail. "La promiscuité agit dans cet espace comme un frein à la sphère privée. A cet égard, le courrier électronique permet aux salariés d'échapper à cette contrainte car il est silencieux et non détectable par les collègues."17 Il ressort également de notre typologie que les "intensifs" sont ceux qui semblent avoir le plus d'autonomie dans le travail, ce qui peut expliquer la forte interpénétration du privé dans le cadre professionnel. Pour conclure sur cette question, nous avons dans notre échantillon, deux profils extrêmes que nous pourrions décrire 17 Isaac Henri, Kalika Michel (2001), op.cit. 41 42 Internet dans les centres de recherche algériens : l’absence d’une stratégie interne d’appropriation. AIT OUARAB BOUAOULI Souad Doctorante Paris X Nanterre - Laboratoire Cris Ceries [email protected] Introduction et méthodologie Les NTIC sont devenue un élément moteur de la recherche scientifique et un facteur principal de l’évolution du savoir; ainsi, dans le domaine des technologies avancées, les TNCI ont permis une évolution remarquable de ces sciences dans le monde. Mais qu’en est-il de l ‘Algérie ? Le domaine des technologies avancées est considéré en Algérie comme l’un des premiers domaines à avoir pris 42 43 conscience de cette technologie et l’un des premiers à l’avoir introduite dans son organe de recherche. En effet, l’utilisation de l’Internet est répandue dans ce secteur; bon nombre de chercheurs utilisent ce réseau dans leurs travaux de recherche et bénéficient de ses services; cela nous a amenés à réfléchir sur un sujet traitant de l’apport de l’Internet à l’organisation de la recherche dans le domaine des technologies avancées et par conséquent, du rôle et de la part que prend ce réseau dans le développement de ce domaine en Algérie. Pouvoir accéder à l’information en temps réduit et avec le moindre effort, constitue l’un des objectifs stratégiques qu’entreprend un organisme pour assurer sa survie dans un contexte de concurrence accrue créée suite aux changements installés depuis l’évolution de l’économie classique en une autre basée sur les connaissances. Toutefois, la gestion de ce volume exponentiel d’informations reste peu maîtrisable. Cependant, l’introduction de ces technologies de l’information et notamment, l’arrivée de l’Internet dans ces organismes de recherche a procréé d’autres soucis plus accrus en relation avec les usages que se font les utilisateurs de cette technologie. Afin d’étudier cette problématique, notre modèle d’analyse se réfère aux travaux de Jacques Pérriault sur les logiques d’usages dans l’appropriation d’une technique en tant que règles qui structurent les pratiques d’utilisation de cet artefact. Nous nous référons aussi aux travaux sur les modalités d’appropriation des technologie nouvelles par l’utilisateur final ainsi que les stratégies mises en place par les organismes acquéreurs ( Leroi Gourhan18, Canguilhem19, Schwartz20, Wisner21.) Dans ce sens, Christian Licoppe22, insiste sur l’importance de prendre en considération dans l’étude des usages, la place des technologies, non pas seulement dans des pratiques précises, mais dans les échanges entre les individus. Cela justifie notre démarche. La présente étude est une enquête élaborée au sein de deux centres de recherche et de développement à savoir, le Centre de Recherche pour l’Information Scientifique et Technique (CERIST) et le Centre de Développement des Technologies Avancées (CDTA). Le choix de ces deux centres n’était pas aléatoire. Il s’agit en fait, de deux centres renommés dans le domaine de la recherche scientifique et du développement technologique. Aussi, sont-ils considérés en Algérie comme étant les premiers à avoir pris conscience de cette technologie et les premiers à l’avoir introduite dans leurs organes de recherche; le CERIST étant d’ailleurs, le premier serveur national de l’Internet, ce qui explique notre choix. Nous avions étudié en premier lieu, les usages des chercheurs sur Internet au sein de ces centres et l’exploitation de ses ressources. Nous avions ensuite traité de l’impact du réseau sur l’organisation interne des centres et sur leurs relations extérieures. Les obstacles et les difficultés survenus au cours de l’utilisation de cette technologie, seront traités en dernier lieu. Tout au début, les directeurs des deux centres, les secrétaires généraux, les responsables des systèmes 18 Leroi-Gourhan, André.- Milieu et technique.- Paris : Ed.Michel, 1992. 19 Canguilem, G.- Connaissance de la vie.- Paris : Vrin, 1992.p.127 20 Schwartz, Y.- Ergonomie, philosophie et exterritorialité. 1996, p147 21 Abdallah, Nouroudine.- Techniques et cultures : comment s’approprie-t-on des technologies transférées ?- Toulouse : Ed. Octares, 2001. 22 « On peut a minima définir l'usage comme la rencontre entre un certain type de technologie et un certain type d'usager, dans un certain contexte. Les trois termes sont importants – or la plupart des études se focalise, soit sur la technologie ou le service (l'offre et sa réception), soit sur l'appropriation (l'usager face à une technologie donnée), négligeant la complexité de ces interactions ». d’information et de la communication ainsi que les responsables des réseaux, c’est-à-dire les responsables du corps de logistique (de soutien à la recherche), nous avaient accordé un entretien (semi- directif) et ce, en vue de collecter le maximum d’informations en relation avec le sujet; cela allait nous faciliter par la suite, la distribution des questionnaires. L’entretient portait sur les points suivants : L’objectif de l’introduction du net et de son exploitation ; Le rôle du système d’informations classique par rapport à cette introduction ; L’impact et les changements apportés par le net ; Les thèmes traités dans le questionnaire sont : l’utilisation et l’exploitation du réseau par les chercheurs ; les objectifs de cette utilisation ; les besoins des chercheurs sur le net ; - l’impact de l’Internet sur les systèmes d’information classiques, sur l’organisation interne des centres et sur leurs relations externes ; - les inconvénients et obstacles qui entravent le bon fonctionnement du net. Le questionnaire utilisé comme outil principal de collecte des données, a été consacré aux chercheurs travaillant dans les deux centres .Quant à l’entretien, elle nous a servi d’outil secondaire. D’autres outils aussi ont été utilisés pour nous aider à réunir le maximum de données à savoir : l’observation participative des comportements des chercheurs et la visite des sites web des deux centres. La population ciblée est l’ensemble des chercheurs des deux (02) organismes (CDTA et CERIST). Nous n’avions pas fait de sélection de l’échantillon, étant donné que le nombre total de ces chercheurs était maîtrisable n’excédant pas les cent (100) chercheurs. Toutefois, nous n’avions questionné au CERIST que les chercheurs chargés de la recherche et du développement technologique et qui sont au nombre de quarante (40). Néanmoins, nous n’avions récupéré que trentehuit (38) questionnaires uniquement, soit un taux de 99 %. Quant au CDTA, le nombre de chercheurs consultés atteignait les quatre-vingt-quinze (95) chercheurs (c’est-à-dire tous ceux du centre) ; nous avions récupéré dans ce cas, quatre-vingtcinq (85) questionnaires, soit un pourcentage de 89,47 %. A noter que cette étude n’est, en aucun cas, une étude comparative entre les deux centres, ni une étude technique de l’architecture de l’Internet. A signaler enfin qu’en raison de son caractère confidentiel, nous avions été obligés de renoncer à l’étude d’un aspect du travail qui avait trait au coût de l’Internet et son financement. Organisation classique pour un artefact « réseau » : Absence d’une stratégie Internet Gérer le « capital savoir » dans un organisme, ne se limite pas uniquement à la diffusion d’informations par la mise en place de nouvelles technologies (Internet). L’introduction d’une nouvelle technologie doit être accompagnée d’un programme à long terme qui part d'une volonté stratégique, qui passe par une bonne analyse de la nature des connaissances de l’organisme, de son environnement, et qui aboutit à la mise en place d'outils variés et adaptés. Les résultats obtenus au cours de cette recherche démontrent qu’Internet ne répond pas d’une manière pertinente aux besoins des chercheurs et ce, malgré le volume exponentiel d’informations qu’il offre, non pas uniquement à cause de la nature de l’information offerte et qui, souvent, ne répond pas aux conditions de pertinence et de précision qui caractérise ce domaine pointu de la recherche, ou à cause des lacunes repérées concernant l’utilisation de cette technologie 43 44 par les chercheurs, et qui a besoin d’être améliorée. Mais, le principal problème réside en fait, dans l’absence d’une stratégie qui prend en considération l’environnement de recherche et ses spécificités, ainsi que les besoins des chercheurs ; nous avons donc constaté que le réseau Internet a été installé comme simple outil classique de communication dont le principal objectif était de remplacer la bibliothèque ou du moins, la soutenir. Cette étude nous a permis de démontrer que l’impact d’Internet sur l’organisation interne des centres de recherches étudiés et leurs relations extérieures est infime; en fait, nous n’avons pas constaté d’importants changements. En d’autres termes, la nature des communications au sein de ces centres est restée la même, orientée notamment, vers le bas, avec peu de transactions. L’utilisation du net s’oriente beaucoup plus pour des fins personnelles, hors travail dans la majorité des cas et peu sont les contacts visant le travail en commun. Les chercheurs communiquent beaucoup plus avec leurs homologues étrangers qu’entre eux en Algérie soit un pourcentage de 69,41% au CDTA et de 84,21% au CERIST. Dans ce sens, nous n’avons recensé qu’un faible pourcentage de chercheurs algériens qui communiquent avec leurs homologues algériens résidant à l’étranger, soit respectivement 31,03% et 21,05 % des chercheurs du CERIST et du CDTA. Cependant, on voit que les chiffres augmentent quand il s’agit des communications personnelles, le chiffre s’élevait à 49,41% au CDTA et à 65,78% au CERIST. Quant à la participation des chercheurs aux manifestations scientifiques et technologiques sur le Net, nous avons trouvé qu’un nombre très important se renseigne via Internet sur ces manifestations soit 82,35% au CDTA et 78,94 % au CERIST, mais il n’y a que environs 2% seulement des chercheurs au CDTA qui y participent. Le cas cependant, diffère au CERIST où le chiffre atteint les 34% mais reste tout de même faible. En outre, les relations scientifiques et technologiques avec les autres institutions de recherche et universités n’ont pas beaucoup évolué depuis l’introduction d’Internet dans ces centres. Les responsables des deux centres affirment que le Net est peu utilisé dans ce sens. Néanmoins, l’on remarque que les résultats du questionnaire ont enregistré une légère augmentation dans les contacts des chercheurs avec les institutions de recherches étrangères. Toutefois, au même moment leurs contacts avec les institutions algériennes ont diminué. Les responsables interviewés expliquent cela par le fait que ces dernières années ont connu l’apparition d’une concurrence qui s’est installée entre les différents organismes de recherche. Nos observations confirment cette déclaration. En effet, nous avons constaté une concurrence visible entre les divers laboratoires de recherche des deux centres mais aussi dans le même centre. Quelquefois, cette concurrence est présente au sein, même d’un même laboratoire. Les chercheurs préfèrent travailler individuellement et peu d’entre eux sont ceux qui travaillent en groupe. Ceci n’a pas aidé à générer l’esprit de réseau sur lequel est basée la logique de l’Internet. En ce qui concerne l’adaptation des modes de communication traditionnels à ce nouvel artefact, l’enquête démontre que, l’introduction du réseau électronique n’a pas apporté de grands changements. En effet, peu de chercheurs, à titre d’exemple, utilisent leur e-mail pour contacter leurs collègues administratifs, soit un pourcentage de 34,11% au CDTA et 10,52% au CERIST. Ce chiffre reste minime aussi lorsqu’ il s’agit de contacter un responsable ( 12,94% au CDTA et 15,52% au CERIST ). Par contre, les responsables envoient des e-mails à leurs administrés. En effet, 75,29% des chercheurs au CDTA et 42,10% au CERIST ont au moins une fois, reçu un message parvenu d’un responsable sur leur boîte, affirment les sujets questionnés. L’information dans ces centres reste donc, descendante, respectant les voies hiérarchiques dans leur complexité. Les chercheurs appréhendent la réaction de leurs responsables face à un message envoyé par e-mail ; aussi préfèrent- ils se présenter chez le responsable pour exprimer leurs besoins. Ils estiment qu’il y a des habitudes et des comportements administratifs et officiels qu’il faut respecter dont par exemple, la demande d’audience auprès du chef, le respect de la voie hiérarchique, etc. Cette situation est due notamment, à un manque de confiance dans cette technologie, affirment les chercheurs interviewés. D’autres expliquent cela par le fait de ne pas avoir été familiarisé avec cette technologie dès le niveau de scolarité élémentaire, ce qui ne leur donne pas, en l’occurrence une culture importante dans l’utilisation des nouvelles technologies de l’information. C’est pourquoi ce point permet d’ouvrir d’autres horizons d’études dans les sciences de l’information et de la communication pour lesquels nous invitons nos aimables chercheurs à étudier. Les chercheurs désertent les bibliothèques Chacun des deux centres se dote d’un système d’information propre à lui dont le rôle est la collecte, le traitement et la diffusion de l’information scientifique et technique. En plus d’un service technique qui s’occupe de la gestion du réseau Internet. La bibliothèque dans ce contexte, est un élément du réseau géré par ce service. Le bibliothécaire n’utilise Internet que pour des raisons personnelles, ses contactes avec les chercheurs se limitent leur procurer les documents « papiers » dont ils ont besoin. Les chercheurs préfèrent, en fait, utiliser cet outil sans avoir recours au bibliothécaire même lorsqu’il s’agit de recherches documentaires. Au niveau du CERIST les choses sont différentes car la bibliothèque a pu comme même, prendre place dans ce nouveau système et utilise Internet pour valoriser ses produits documentaires. Les résultas de nos entretiens, dans les deux centres, démontrent que l’introduction d’Internet est la principale cause qui laisse les chercheurs déserter la bibliothèque. Le chercheur ne fait recourt à la bibliothèque que dans les cas où le document est introuvable sur le net, tels les textes réglementaires, les rapports techniques…etc. En fin, Nous avons essayé d’étudier la fréquence d’utilisation de la bibliothèque avant et après l’introduction de l’Internet mais les bibliothèques ne gardaient pas les fiches de prêt des utilisateurs. C’est pourquoi nous n’avons pu confirmer cela que de par les réponses des sujets interviewés et les résultats du questionnaire. Ces derniers ont montré que 17.64% des chercheurs du CDTA et 26.31% au CERIST ont complètement arrêté de se rendre aux bibliothèques de leurs centres, et presque la moitié d’entre eux, s’y rend rarement. Ce chiffre parait minimes mais en fait, il constitue le quart des chercheurs des deux centres. Aussi, nous tenons à signaler que même le rôle classique du bibliothécaire est menacé si toute fois, les centres de recherche ne décident pas d’une politique d’information qui permet à la bibliothèque d’être au centre des évolutions technologiques de leurs organismes. Productivité des chercheurs et Internet Afin d’étudier la productivité des chercheurs dans ces centres, nous avons délimiter quatre critères, à savoir: le temps consacré à l’utilisation du net, la fréquence de cette utilisation, le nombre de documents publiés et le nombre de produit innovés. Concernant le temps que passent les chercheurs sur le net, nous avons trouvé que 42.35% des chercheur du CDTA et 55.26% du CERIST passent de deux (02) à quatre (04) heures par jour sur le net soit, une demi journée. Et nous avons trouvé 44 45 que respectivement, 32.94% et 13.15% des chercheurs des deux centres utilisent Internet presque une demi journée de façon continue (quotidiennement). De 1997 à l’an 2001 aucun brevet n’a été déposé par les deux centres. Cependant, Nous avons recensé neuf(09) produits innovés au CERIST et 15 au CDTA. Quant aux publications le chiffre à atteint 125 documents au CDTA et 145 au CERIST. Afin de connaître l’évolution de la productivité des chercheurs, nous avons calculé la moyenne de la productivité d’un seul chercheur. Au niveau du CDTA, les résultats obtenus montrent une augmentation de cette productivité qui a atteint 0.74 en 1997 alors qu’elle était à 0.01en 1991. Nous avons calculé dans le même centre la moyenne de la productivité d’une heure de travail et le constat était le même. En effet, les résultats ont enregistré un accroissement de cette productivité qui a augmenté de 0.020 en 1991 à 0.033 en 1997. Soit la durée nécessaire pour la production d’un écrit a diminuée de la moitié. Nous n’avons pas pu obtenir ces informations au CERIST faute de quoi nous n’avons pu étudier ce point. En effet, le centre avait perdu le registre qui recense les travaux des chercheurs, nous a indiqué un responsable. Cependant, l’ensemble des interviewés affirment l’accroissement des travaux produits et ce depuis l’introduction de l’Internet. Diminution du nombre de chercheurs dans les centres de recherche Concernant ces constatations, l’enquête a enregistré le départ d’environ 25 chercheurs du CDTA (selon les témoignages). En revanche, au CRIST, l’état du personnel a montré qu’il y a eu une légère augmentation du corps des chercheurs de 1994 à 2002 et cela grâce à la politique de recrutement adoptée. Ainsi, bien que cette politique arrive à comblé le vide laissé par le départ des scientifiques, elle ne peut cependant pas, remplacer le capital intellectuel de connaissances qui prend des années à se construire. Devant ces faits, nous avons questionné les chercheurs sur leurs contactes pour des demandes d’emploi : 20% d’entre eux au CDTA et environ 30% au CERIST affirment avoir tenté leur chance via Internet pour un emploi à l’étranger. Ils affirment en outre, qu’un nombre important de chercheurs s’y trouve maintenant à l’étranger grâce à des contactes qu’ils avaient établis sur le net. Les chercheurs trouvent que le net est le meilleur moyen pour se tourner vers l’étranger par ce qu’il offre comme possibilités de contacts rapides et gratuites avec les homologues au niveau mondial. Conclusion Cette enquête a démontré qu’il ne suffisait pas d’importer une nouvelle technologie pour espérer réaliser le développement escompté. L’introduction d’un artefact étranger dans un environnement traditionnel sans tenir compte de ses spécificités : des logiques d’usages existantes, des conditions socioprofessionnelles et culturelles tant des individus que des organisations, peut emmener à son échec. Sans stratégie claire et étudiée au moment de l’introduction d’une nouvelle technologie les chances d’une appropriation authentique sont faibles, ouvrant les portes pour un détournement de l’artefact à des fins personnels qui malheureusement, ne vont pas toujours, dans l’intérêt de l’organisation. Bibliographie: Ait ouarab Souad.- Apport de l’Internet pour la recherche scientifique et le développement technologique en Algérie : Cas du Centre de Recherche pour l’Information Scientifique et Technique (CERIST) et le Centre de développement des Technologies Avancées (CDTA). Bibliothéconomie et sciences documentaire, 2003, 270p.-Mémoire de magister : Instit. de Bibliothéconomie : Alger. Abdallah, Nouroudine.- Techniques et cultures : comment s’approprie-t-on des technologies transférées ?- Toulouse : Ed. Octares, 2001. Bakelli Y.- Contribution à l’étude de la problématique de l’édition électronique :cas du secteur de l’enseignement supérieur et de la recherche scientifique,2000, 260p.-these de magister: Instit.de Bibliothéconomie:Alger Bares, Michel.- Recherche documentaire dans le contexte télématique.- Paris : Technique et documentation,1984 Bellamlik Ahmed.- Usages des chercheurs sur Internet, 1995-1996.p92.mémoire de DEA:science de l’information et de la communication: INSSIB: Paris. Benoit Aubet .- Les technologies de l’information et l’organisation .- Montréal : Gaetin Morin ,1996.- 255p. Bensiameur L ; ouafi R.- Contribution à l’étude des publications scientifiques et techniques « Littérature Grise » en Algérie.Mémoire de licence:Bibliothéconomie:Univ.d’Alger:1996.-113p. , annexes Canguilem, G.- Connaissance de la vie.- Paris : Vrin, 1992.p.127 Chekkouche Y ; Lakouas T.- L’intégration des nouvelles technologies de l’information et l’utilisation de l’écrit : cas du CERIST et du CRED.- in actes de la journée d’étude sur les technologies de l’information et documentation ,20Juin 1995. (Institut de Bibliothéconomie, Association Algérienne de Bibliologie) Compte rendu du séminaire COST A3 sur la gestion du transfert de connaissance technologique .Fev.1996, Milan, Italie Dahmane.- la problématique de la communication dans la relation universitéRecherche-Entreprise. in : Actes des journées Algéro-Britanique.13-14 fev.1993 (CERIST). Leroi-Gourhan, André.- Milieu et technique.- Paris : Ed.Michel, 1992. Schwartz, Y.- Ergonomie, philosophie et exterritorialité. 1996, p147 Articles: ChartonG.- IST et réseaux électroniques de recherche : quels enjeux ? in documentaliste, vol.30, n°2,1993; pp.72-78 Guevouita(le).- Outil de recherche du Web : les limites et les aléas du référencement .- in : documentaliste ,vol.35,n°6,1998;pp.315-320 Roger A.- Comprendre les chercheurs : un élément essentiel pour la gestion de la recherche .-in : Revue française de gestion ,Part44,Janv.Fev.1984 Webographie Bellamlik.-usage des chercheurs sur internet . 1996 :these de DEA.in : www.enssib.fr/bibliotheque/documents/dea/dea96.html www.enssib.fr/bibliotheque/documents/dea/membellamlik.pdf Caillaud Marc –Antoine .- Communication scientifique sur Internet : nouveaux besoins ,nouveaux métiers.- Institut national de la recherche agronomique; Paris. in http://www.idt.fr/idt/pages_fra/actes/actes2000/page7bis.htm Ermine J.L.- Enjeux et démarches de gestion des connaissances in http www.irit.fr/IC2000/programme2000.html. Hert Philippe .- les arts de lire le réseau : un cas d’innovation technologique et ses usages aux quotidien dans les sciences.- in la recherche,n°77,1996. www.larecherche.fr Meur ,Helène(le) .- l’Afrique tisse une toile disparate .- in la recherche ,n° 328,02/2000 : http://www.larecherche.fr Polity Yolla.- les comportements des chercheurs dans leurs activités (y compris à la documentation) in http.www.inrp.fr:8080/cgi-bin/Publications/recherche_cat?Numero=637 Réseau des chercheurs européens (le).-in la recherche, n°328,02/2000 : http://www.larecherche.fr Proposition pour la prise en compte des risques dans un territoire local et émergence d’un Système d’Information Territorial réducteur de risques. Etude de cas dans une municipalité de moyenne dimension Yannick BOUCHET Equipe - EURISTIK Centre de Recherche Magellan de l'IAE, Université Jean-Moulin, Lyon 3 [email protected] 45 46 Introduction : La gestion des risques naturels ou technologiques est un domaine d’interrelations entre milieux (activité humaine et activité économique). « La mondialisation des activités économiques accentue l’imbrication spatio-temporelle des actes de différents acteurs économiques et sociaux. Les crises sanitaires, environnementales ou sociales qui accompagnent les catastrophes industrielles et/ou économiques modernes (Bhopal, Tchernobyl…SRAS, Vache folle, Enron, Amiante …) en sont des illustrations fortes » (cf., Eric Findel (2006, p5)). Dès lors, le risque est collatéral de l’environnement et de l’économie, puisque certains risques technologiques (industriels par exemple) sont aussi environnementaux et économiques. Ainsi, dans une localisation déterminée, la gestion des risques peut être protéiforme : risque industriel, risque d’inondation, risque d’avalanche, risque sismique, risque de catastrophe économique etc. Une science particulière, liée à la gestion du risque, a émergé sous le néologisme de cindyniques. C’est Georges Yves Kerven (1995) qui, à partir des travaux de Patrick Lagadec23 (1979, 1980) et du colloque de l’ACADI (Association de Cadres Dirigeants de l'Industrie) organisé au Palais de l’UNESCO en 198724, est le fondateur de cette tentative de constitution d’une science du danger. Cet auteur développe l'épistémologie cindynique et décrit la phénoménologie cindynique. Ses Travaux permettent d'entrevoir la structure encyclopédique des cindyniques et, notamment, son application aux différents aspects de la vie quotidienne (cf. Kerven, 1995). Dans cette perspective où, au niveau du territoire local, les interrelations sont telles que les objets (économiques, sociaux, environnementaux, sociétaux) agissent les uns avec les autres, nous conduit à proposer d’étudier la gestion des cindyniques au niveau d’un territoire local. Les cindyniques d’un point de vue local : Mais qu’est-ce que représentent réellement les cindyniques ? Et quel est le rôle de la collectivité locale dans ce domaine ? Les aléas économiques, écologiques et industriels actuels, sont pour le territoire local, une source considérable de risques. Dès lors, il s’agit de prendre de la hauteur de vue et de considérer le territoire comme un système complexe turbulent. Ainsi, il nous semble pertinent d’introduire la notion de management des risques au niveau d’un territoire. D’un point de vue économique, selon Vachon (1996, p.291), « la collectivité est amenée à prendre conscience de sa situation, à inventorier ses ressources, à évaluer ses forces et ses faiblesses sur le plan physique et humain, à identifier les leaders et acteurs locaux, à déterminer ses besoins et ses aspirations ». Mais que signifie exactement cette notion de risque ? Selon le Clusir Rha25, pour qu’il y ait risque, il faut que la formule suivante soit non nulle : Risque = Menaces x Vulnérabilités Certains la complexifient en introduisant la probabilité d’une attaque, or cette probabilité est la mesure même du risque selon la définition donnée par J.M Keynes26 et par F. Knight27, tous deux en 1921. Pour Frank H. Knight (op.cit) le risque 23 « Faire face aux risques technologiques », La Recherche, vol. 10, n° 105, novembre 1979, pp. 1146-1153. « Le défi du risque technologique majeur », Futuribles, n° 28, novembre 1979, pp. 11-34. « Politique, risques et processus de développement - Le Risque technologique majeur » - Thèse de Doctorat d'Etat en Sciences Politiques, 1980. 24 http://www.cindynics.org/iec-historique.htm (page consultée le 4 mars 2006) 25 Le Club Sécurité des Systèmes d'Information de la région Rhône Alpes suppose que l’agent ne connaît pas l’avenir, mais peut le probabiliser. Mais selon Kerven (1995, p. 25) cet espace à deux dimensions n’est qu’une des composantes (statique) d’une structure plus complexe. Ainsi, il propose un hyperespace du danger. Pour cet auteur, l’hyperespace cindynique est le produit de cinq espaces : - l’espace mnésique (ou statistiques), qui constitue la mémoire : du réseau, la banque de données, de faits, (S) - l’espace épistémique, est la source des modélisations, (E) - l’espace téléologique, est l’ensemble des finalités, (T) - l’espace axiologique, est le lieu de stockage des systèmes de valeurs, (A) - l’espace déontologique qui recueille les « règles du jeu » du réseau (D). Cet hyperespace prend la forme suivante : Source : Hyperespace des dangers selon Kerven (1995, p. 29) Dès lors, se construit autour de la passerelle de finalités, deux hyperespaces. Le premier est la généralisation du modèle à deux dimensions (Clusir, Keynes, Knight …) et est nommé, espace généralisé du danger (espace praxique du danger). Le second prend en compte les questions philosophiques, il est nommé par Kerven, espace ontologique. La généralisation de la figure ci-dessus prend la forme suivante : Source : Généralisation des hyperespaces (Kerven, 1995, p. 27) Selon Kerven, à chaque réseau d’acteurs est associé un hyperespace du danger (id, p. 28). La construction par les acteurs, d’un hyperespace perçu et d’un hyperespace voulu permet la mise en évidence de distances entre l’existant et le souhaitable. Ces distances sont nommées dissonances au sens des cindyniques. Ainsi, elles forment, au niveau des risques territoriaux, dans une démarche déductive (arbre des défaillances), des vulnérabilités. Le territoire local, un lieu d’interactions des phénomènes : Le maillage de toutes les parties prenantes (firmes locales, organisations administratives et consulaires …) du territoire produit un phénomène d’interactions et d’imbrications qui fait partager et prendre en compte le risque. Ainsi, une organisation qui s’expose, ou qui est exposée, expose les autres28. L’étude des menaces, des vulnérabilités et des opportunités pour la territorialité revêt un caractère singulier pour la municipalité. En effet, son rôle de processeur informationnel (cf., Bouchet, 2005) l’oblige à une distanciation par rapport à ses intérêts particuliers immédiats. Les firmes locales sont perçues d’une manière systémique. C’est la position d’indicateurs sur celles-ci qui permet des remontées d’alertes 26 John Maynard Keynes « A Treatise on Probability » ; The Macmillan Press, Londres, 1921. 27 Knight F.H. « Risk, Uncertainty and Profit » ; Kelley, New-York, 1921. 28 Cf. cas AZF : les entreprises sous-traitantes ont subit le contre coup économique de l’accident 46 47 en perspective des enjeux pour le « collectif territorial ». Nous pouvons, en théorie, parler de menaces socioéconomiques quand la délocalisation ou l’arrêt d’une entreprise va engendrer un fort taux de chômage et ainsi être porteuse d’un impact social significatif. Mais c’est aussi, par exemple, les difficultés financières d’une entreprise qui peuvent conduire à des problèmes sociaux localement situés. Sur notre terrain de recherche, le non paiement de l’intégralité des salaires, de la société Duralex implantée sur le territoire de la ville de Rive de Gier (Loire) a conduit le maire à proposer des bons alimentaires pour répondre aux besoins des plus démunis. Cette société fabricant de verrerie de table qui emploie 500 salariés, à répartition égale, sur deux sites (Rive de Gier (Loire) et Chapelle-Saint-Mesmin (Loiret)), a été placée en redressement judiciaire le vendredi 3 juin 2005 par le tribunal de commerce d'Orléans. L’entreprise n'a pu verser qu'une petite partie des salaires du mois de mai et s'est déclarée en cessation de paiement le jeudi 2 juin 2005. Dans ces situations, le défaut de paiement des salaires crée une détresse sociale importante nécessitant une intervention de la collectivité locale. Ainsi au niveau local, l’économique et le social interagissent pour former une problématique socioéconomique. Toutefois, les menaces économiques ne prennent pas nécessairement leurs origines dans des évènements économiques. En effet, elles peuvent apparaître en raison d’une vulnérabilité liée à un danger particulier. Il peut s’agir par exemple, d’une catastrophe naturelle qui va conduire à des drames localement situés. Dans cette idée, les crues de décembre 2003 observées dans les villes de Rive de Gier, Givors et Grigny ont été d’une extrême ampleur et ont engendré des dégâts importants relativement à la dimension des cours d’eau concernés. Le mardi 3 décembre 2003, des pluies exceptionnelles ont provoqué une très importante crue du Gier. Les voies de communications, situées près du fond de la vallée, ont par endroits été atteintes et il en a résulté des dommages et une paralysie du trafic routier. La section autoroutière située entre Rive-de-Gier et Givors a été endommagée. Suite à deux affaissements de chaussées à hauteur de Saint-Romain-enGier, l’autoroute a été coupée du mardi 2 décembre au jeudi 4 décembre. Pendant les travaux de réparation de la chaussée, l’autoroute « A47 » a été rouverte de façon partielle en « 2x1 » voie. Le 22 janvier 2004, la seconde voie vers Lyon a été rétablie et le retour à la normale est intervenu le 5 février 2004. Cette section de l’A47 est empruntée habituellement par environ 55 000 véhicules par jour (selon les médias). Cela s’est traduit par des conditions de circulation, qui se sont dégradées durant cette période (selon les médias, 25 minutes de temps de parcours en plus en moyenne). Mais au-delà des problèmes matériels et quelque fois de temps de parcours supplémentaire, les inondations ont détruit des maisons et des entreprises, il s’en est suivi des drames humains, économiques (perte d’emploi) et affectifs (habitation détruite). Des logements sont devenus insalubres ce qui a conduit à des problèmes sanitaires et sociaux. Dans ce type de catastrophe, certains habitants cumulent les drames : chômage, habitation et affectif. Dans cette perspective, un maillage horizontal avec les communes limitrophes ainsi que la construction de partenariats semblent nécessaires. Les coopérations peuvent, par exemple, prendre la forme d’une prise en charge de la scolarisation d’écoliers de la commune sinistrée pendant la reconstruction de leur école. Mais doit-on écrire des procédures sur toutes les menaces du territoire ? Pour Eric Fimbel (2004, p.92), les procédures traditionnelles consistant à établir avec des experts des catalogues analytiques des risques sont insuffisantes et dangereusement aveuglantes. Elles sont statiques et relèvent de l’expertise, elles ne sont donc pas directement accessibles aux acteurs locaux. Pour cette raison, un système panoptique semble requit. Cette assertion nous conduit, d’une part, à la prise en compte des cindyniques, qui à travers les hyperespaces révèlent les dogmes, les déficits managériaux29, etc. et, d’autre part, à la mise en place d’un collecticiel pour le partage et l’ouverture aux parties prenantes. Les cas évoqués plus avant font apparaître que le territoire peut se trouver à la fois protecteur (cindynolytique) car des réseaux d’acteurs peuvent anticiper les dangers à venir dans le cadre d’un système panoptique, et producteur de dangers (cindynogène) en stockant ou recevant des processus non totalement maîtrisés. Dès lors, la dialectique cindynolytique / cindynogène fait que le territoire prend la forme d’un système complexe (cf. Bertacchini, 2000 ; Prax, 2002). Ainsi, nous proposons dans la suite de cet article, d’exposer une étude de cas réalisée dans une ville de taille moyenne (de la région Lyonnaise), afin, d’une part, de comprendre comment sont appréhendées les cindyniques par la gouvernance municipale et, d’autre part, pourquoi émerge la nécessité d’un collecticiel territorial. Etude de cas : la ville de Pierre Bénite (69) : La méthodologie de cette recherche repose sur une démarche inductive. Nous avons contacté le premier adjoint, le directeur général des services ainsi que le responsable de la sécurité de la ville de Pierre Bénite pour établir avec eux l’objet d’une étude de la problématique des dangers dans cette municipalité. Après une rencontre avec les deux premiers pour positionner l’étude, nous avons conduit des réunions ainsi que des échanges par courriel avec le responsable de la sécurité. Dans la première réunion nous avons utilisé un questionnaire, spécifique à l’analyse des risques, représentant un fil conducteur de l’interview. L’élaboration du questionnaire a été réalisée de telle sorte qu’il laisse libre cours à l’expression. Notre recherche s’est ensuite penchée sur la littérature spécialisée dans le domaine des risques (cf., bibliographie). C’est ensuite par des va-et-vient réguliers entre la littérature et le terrain (discussions avec les acteurs de Pierre Bénite, particulièrement avec M. Alain Pélosato, responsable de la gestion des risques) que s’est construit cette recherche à Pierre Bénite. Introduction (historique de la ville) Commune indépendante depuis 1869, la commune de PierreBénite doit son nom à la « Petra-Benedicta », rocher connu au Moyen Age par les bateliers du Rhône. Selon la légende, les mariniers du Rhône, redoutant l'impétuosité du fleuve face à ce rocher venaient s'y signer. A partir de 1870, répondant à l’évolution économique, la « révolution industrielle », la population active devient à part égale agricole et ouvrière. La commune quitte ainsi une économie locale basée majoritairement sur l’agriculture. Ce processus d’industrialisation conduit à l’augmentation lente de la population ouvrière qui devient majoritaire jusqu'en 1914. L'agriculture, devenue maraîchère après 1860 décline rapidement après 1936 et est aujourd'hui sur le point de disparaître. Dès le début du vingtième siècle l’industrie chimique se développe à Pierre Bénite, et en 1921, la société d’électrochimie Ugine (aujourd'hui Arkema ) devient progressivement l'activité clé de la localité. Aujourd’hui, Pierre-Bénite est une ville d’un peu plus de 10 000 habitants, elle s’étend sur 424 hectares à 6 kilomètres environ au sud de Lyon, sur la rive droite du Rhône, en bordure de l’autoroute A 7. La ville s’est développée dans la dépression formée par deux collines, celle du Perron et celle 29 Comme par exemple la culture d’infaillibilité (cf. Kerven (1995, p78)). 47 48 de Haute Roche, sur un axe Nord-Sud. Elle est l’une des 55 communes qui composent le Grand Lyon (la communauté urbaine de Lyon) et appartient depuis 1985, au canton d'Irigny. Sa situation en fait l’une des entrées les plus importantes de l’agglomération Lyonnaise. Problématique de la municipalité Coincée entre des voies de communication très fréquentées (autoroute A7 et A45, voie navigable du Rhône, voie ferrée) et hébergeant un grand complexe de l’industrie chimique (classé à haut risque), Pierre Bénite est une ville éminemment vulnérable aux dangers technologiques. Elle n’a dû, jusqu'à aujourd’hui, sa sécurité qu’à une vigilance accrue de l’entreprise chimique et à la chance. Le service de gestion des risques, dont le responsable est Alain Pélosato, ainsi que la direction générale des services, dirigée par Jacky Chevalier, ont rédigé un plan de secours communal (PSC). Ce plan est une suite de procédures à prendre en compte dès que survient un incident. Parce que l’enjeu pour les autorités locales d’une ville d’environ 10000 habitants est de pouvoir répondre et faire face à des états de crises probables (identifiés dans le PSC), déclenchés par des aléas technologiques ou naturels, sur lesquels on ne peut pas, bien évidemment agir. Le PSC prend en charge les risques, que nous résumons dans le tableau cidessous, et donne les recommandations à suivre. Alerte <-> Réponse Structure Municipale de Commandement Risques Technologiques Risques Naturels Explosion Hors PPI (plan particulier d'intervention) PPI Atochem (Arkema) Pollution eau potable Rupture de barrage Risque Nucléaire TMD (Transport Matières Dangereuses) Alerte météo Alerte neige, grand froid, verglas Alerte tempête Inondations Mouvements de terrains Source : PSC de Pierre Bénite Le premier entretien avec Mr Alain Pélosato30 conduit à faire ressortir les problématiques suivantes de l’analyse du PSC : -L’effet domino n’est pas traité. Par exemple, le PSC traite de la rupture de barrage (ex. le barrage de Vouglan (Ain)). Or, on ne sait pas si la rupture de ce barrage qui produirait une vague d’environ 15 mètres31 engendrerait dans un effet domino des aléas sur l’usine chimique Arkéma. La rupture d’un barrage n’est pas une utopie, en 1959 la rupture du barrage de Malplasset fit déferler une vague d’eau sur la ville de Frèjus. Il y a eu 421 victimes. -Il ne traite pas l’après crise, avec notamment les aspects économiques, sociaux et humains. -Il séquence les actions mais, il ne fait pas apparaître les durées des actions ni comment on décide de suspendre ou arrêter le PCS. Pour Alain Pélosato, l’effet domino est une des problématiques que doit prendre en compte le futur PPR (Plan de Prévention des Risques). Notamment parce que la ville de Pierre Bénite est au carrefour de multiples voies de communications (nombreuses menaces) et que son territoire est extrêmement vulnérable (usine de type SEVESO 2, seuil haut à proximité de ces voies). Bien que l’accident ferroviaire soit rare, il n’est pas à exclure. En 1990, à Chavanay, petite commune du département de la Loire au sud de Lyon, la 30 31 Le 22 septembre 2005. Source A. Pélosato et Carte des risques naturels de la ville de Givors (à Givors la vague devrait être d’environ 14m) rupture d’attelage d’un train transportant 1850 tonnes de carburant a produit une explosion suivie d’un incendie qui dévasta les habitations à proximité. Un accident identique s’est produit à la Voulte (Ardèche) en 1993, avec un train qui convoyait 20 wagons de carburant. Les accidents routiers sont plus fréquents car aux défauts matériels s’ajoutent les défaillances humaines. C’est par exemple, en 1973 l’explosion (BLEVE) d’un camion-citerne, contenant 18 tonnes de propane, à Saint-Amand-Les-Eaux (Nord). Dès lors, du point de vue des risques technologiques, plus que de prévention, la gouvernance municipale va regarder la protection des parties prenantes locales. Mais au niveau local, les interactions sont telles, qu’une défaillance d’un élément bouleverse l’équilibre général du système. C’est dans cet esprit que Jocelyne Dubois-Maury et Claude Chaline (2002, p. 21), retiennent « le principe que toute ville peut s’interpréter comme un système dynamique, toute atteinte à l’une de ses composantes va, non seulement modifier l’évolution de celleci, mais selon toute probabilité affectera le comportement et l’équilibre de l’ensemble, selon un jeu bien connu d’effets en chaînes et d’interactions ». Ainsi, pour la gouvernance de la municipalité, les enjeux vont plus loin que le simple aspect de réponse à une situation de crise inopinée. Les enjeux s’inscrivent dans un processus qui est consigné dans le temps et portent sur l’ensemble de la territorialité. Dès lors, pour la gouvernance municipale, les enjeux portent sur les êtres humains, les aspects socioéconomiques, économiques, patrimoniaux et sociétaux. On est alors confronté à l’établissement d’une grille d’analyse complexe car les interrelations entre les risques sont difficiles à évaluer. C’est par exemple le cas entre un risque technologique (BLEVE chez Arkema) et ses retombées matérielles, psychologiques, sociales et sociétales. Dans cet exemple, aux nombres de victimes associées à cet accident s’ajoute l’importance du parc d’habitations rendues inhabitables ainsi que les structures publiques inexploitables. A Toulouse, à la suite de l’explosion de l’usine AZF, 25000 logements ont été endommagés, dont 11000 sont irréparables. Mais pour une collectivité locale, à côté d’une baisse des rentrées budgétaires assises sur les taxes (professionnelle, locative etc.) c’est plus encore, la tâche de remettre en état les bâtiments affectés, notamment les établissements scolaires (cf. Jocelyne Dubois-Maury et Claude Chaline (2002, p. 24)). Pour les entreprises, tout accident grave peut conduire à la destruction des bâtiments, des infrastructures et des stocks, mettant au chômage les personnels. Problème auquel s’ajoute éventuellement la désorganisation de la chaîne logistique et de sous-traitance. On parle dans ce cas d’effet en cascade. Dans cette idée, Michel Monroy (2003, p39) écrit, « les progrès des analyses scientifiques, dans le domaine de l’économie, des équilibres financiers, de la genèse des catastrophes, ont introduit l’implication des systèmes complexes, difficiles à comprendre et, plus encore à piloter ». Ces phénomènes complexes font perdre la lisibilité, la visibilité de la menace. Certes, des outils de simulations quantitatives (flux routier, fluvial, ferroviaire, inondations, pollutions atmosphériques ou fluviales etc.) permettent de mieux comprendre l’impact d’un problème. Ces simulations sont aussi des outils de communications pour expliquer aux non spécialistes (en particulier aux citoyens) les effets d’un incident (ou d’un accident). Le couplage de ces outils à des systèmes d’information géographique, permet d’évaluer l’impact sur l’environnement (humain, social, économique, écologique) d’une catastrophe. Mais les données et les modèles mathématiques doivent préalablement exister ou être connus. Les impératifs de croissance et la confiance faite aux réponses 48 49 techniques conduisent à des prises de risques. Ainsi, on construit des lotissements, des zones d’activités, des équipements de loisir (camping, terrain de sports etc.) dans le lit majeur des fleuves ou dans les zones d’expansion des crues. Constructions maintes fois dénoncées par Alain Pélosato pour le lit majeur du Gier et la zone d’expansion des crues du Rhône. Pour cet expert, l’urbanisation de la vallée du Gier sur la commune de Givors pose un double problème, d’une part elle est située dans le lit majeur du Gier et d’autre part elle est construite sur les sols des anciennes industries. Cette zone commerciale est donc construite sur un sol fortement pollué. Dès lors, pour Alain Pélosato, les effets furtifs de cette pollution des sols sont des menaces latentes pour la santé publique. Ainsi, à la cause exogène d’une inondation (aléa naturel) se cumule le caractère endogène des risques industriels. Dans cette idée, pour Jocelyne Dubois-Maury et Claude Chaline (2002, p83), « tout fleuve exutoire d’un ou de plusieurs complexes industriels devient source potentielle de risque sanitaire, via l’utilisation des eaux par les villes et activités situées plus en aval, c’est le cas du Rhône, à partir des usines chimiques de Pierre Bénite, Saint-Fons ». A travers les dispositifs de gestion de crise, la municipalité découvre, l’univers de l’économie de l’information, mais aussi la conduite de négociations autour du partage d’information avec les parties prenantes locales (collectivités territoriales, entreprises, préfecture, SDIS32 etc.). Cette complexité de sens va se doubler d’une complexité d’abondance liée à une profusion d’informations. Dès lors la gouvernance municipale voit émerger deux nouvelles problématiques, d’une part la gestion des risques physiques et d’autre part la gestion des risques informationnels. Dans cette deuxième perspective, elle est confrontée à la maîtrise de l’information et la gestion des médias. Ces derniers étant, selon Thierry Libaert (2005, p. 73), toujours tentés d’utiliser la crise pour accroître leur audience. Parce que la crise brise la routine du traitement habituel de l’information, elle « offre aux journalistes la possibilité d’ouvrir une investigation, de raconter une histoire, de démasquer des coupables » (id, p. 74). Ainsi, c’est en période de crise que les médias peuvent révéler leur puissance. Dès lors, pour Libaert, la qualité de l’accueil réservé aux journalistes, le sentiment qu’ils peuvent percevoir de leur considération, qu’un interlocuteur leur est dévolu, que leur travail pourra être facilité, contribueront beaucoup aux relations médias / gouvernance municipale. Les réponses techniques appartiennent généralement aux différentes branches des sciences de l’ingénieur. Elles ont pour objectif, souvent par des calculs, de diminuer les risques ou de limiter la probabilité de la survenance. Et malgré les soins apportés à des outils comme les arbres de défaillances, les scénarios de crises, l’imprévisibilité subsiste. De plus, dans leur très grande majorité, les risques naturels sont exogènes à la ville (cf. Dubois-Maury et Chaline ; 2002, p. 46). Ainsi, ils ne sont pas toujours visibles (ou lisibles). Dès lors, seule une approche globale, par les sciences des dangers, semble une réponse éventuelle à cette imprévisibilité. Emergence d’une nécessaire prise en compte des cindyniques à Pierre Bénite Pour, Jocelyne Dubois-Maury et Claude Chaline (2002, p27), on ne cesse de dénoncer les conséquences d’entreprises humaines qui vont de la négligence à l’imprudence, jusqu’à l’excès de confiance. Pour ces auteurs, les phénomènes d’aggravations des vulnérabilités urbaines sont innombrables, c’est par exemple en premier lieu l’énorme stock de situations à risques léguées par le passé. Dans cette idée, ce sont par exemple, la localisation d’une agglomération dans un couloir 32 Service Départemental d’Incendie et de Secours fluvial, pour des raisons historiques de transport, mais aussi une industrialisation émergente, au siècle passé, qui liait étroitement les usines, les entrepôts et les voies de communication. Le développement économique et l’urbanisation galopante, n’ont pas effacé le passé. Dès lors, le développement des villes sur les bases du passé a pour conséquence d’engendrer de nouvelles forces de destructions. Dans cette idée, les stocks d’hydrocarbures du port Édouard Herriot sont placés en face de la zone industrielle de Pierre Bénite. En 1987, c’est l’absence de vent qui a fait éviter une catastrophe lorsque plusieurs cuves de carburants Shell ont explosé dans le port Édouard Herriot. Mais au-delà du stockage, les mouvements des flux pétrolier passent en zone à haut risque. Dès lors, ces menaces ont pour effet d’enchevêtrer les causalités des risques. C’est ainsi, selon les spécialistes locaux, qu’on peut se retrouver devant la difficulté de réagir devant un événement qui a échappé à toute prévision. Que se passerait-il, si aujourd’hui, se reproduisait l’explosion qui est survenue en 1966 à la raffinerie de Feyzin, qui à l’époque avait fait 18 victimes et produit des dégâts dans un rayon de 15km ? Cet accident mortel de Feyzin a été causé par une fuite de gaz (GPL). Cette fuite s’est transformée en BLEVE par le passage fortuit d’un véhicule de service. Les interdépendances organiques vont de pair avec les processus de développement, ainsi on voit s’accroitre les dangers sur les habitants, leurs biens, leur travail et leur vie sociale. Avec l’approche des cindyniques sur le territoire de Pierre Bénite, c’est un travail pluridisciplinaire qui est engagé. S’organise alors une réflexion collective ou chaque type d’acteur peut s’approprier le concept des cindyniques et le projet de gestion des risques. Ce projet se décline dans différentes dimensions (humaine, sociale, économique, écologique, sociétale). Ainsi, il doit pour les acteurs locaux, qui sont à l’initiative du projet, constituer un élément de forte mobilisation des parties prenantes. C’est un projet de cohésion au plan local. La modélisation des risques passe par une approche de contenu dynamique combinant système et réseau. Dès lors, la répartition des connaissances et des concepts reposent sur le modèle d’un graphe de réseau. Les nœuds étant les acteurs et les liens les reliant sont des flux d’informations. Ainsi, le concept est une somme d’interconnections d’entités. Selon Claude Jameux (2004, p. 46), le réseau devient un modèle de référence pour l’organisation et pour le rôle des technologies. Pour cet auteur, « les technologies de réseau sont susceptibles d’amplifier les capacités relationnelles, d’échange d’information et de coordination entre les entités formant le réseau. Autrement dit, l’organisation de type réseau est technologiquement accessible ». Dans cette perspective, la gestion des externalités de connaissances et la diffusion des informations par un système organisationnel et électronique ad hoc semble nécessaire. Mais quel que soit le degré de virtualisation du système, le pilotage de l’organisation réticulaire est nécessaire. Dès lors, une démarche tutoriale de la part de la municipalité ainsi qu’une fonction d’apprentissage va permettre au réseau de répondre aux objectifs de management des risques. Pour cette raison, on voit apparaître une structure de « réseau centré » (cf. Jameux, 2004, p. 56), c'est-à-dire que la municipalité prend un rôle prépondérant par rapport aux autres acteurs. Elle mobilise les acteurs sans avoir d’autorité sur eux, mais elle a néanmoins un rôle dominant car elle est le pivot. Il s’établit alors une relation de dépendance des acteurs vis-à-vis de la municipalité. L’analyse et la construction des hyperespaces reposent sur la structure de réseau centré autour de la gouvernance municipale. Les hyperespaces de Kerven sont des modèles à cinq axes qui sont capables, d’après leur concepteur, de produire des données mettant en perspective des 49 50 dysfonctionnements, des dissonances et des incompatibilités. Ainsi des données issues d’un axe peuvent être incompatibles avec un autre. Cette méthode d’évaluation du potentiel cindynogène d’une situation fait apparaître des dysharmonies productrices de danger (cindynogènes). Kerven en a identifiées vingt-sept, il les appelle DSC « Déficits systémiques cindynogènes » (Kerven, 2003). De plus, il propose de construire des hyperespaces voulus et de les confronter avec les hyperespaces évalués. Les distances entre les axes de ces deux figures sont pour Kerven des dissonances cindyniques. Dès lors, ces modèles ainsi que les formes réticulaires nécessaires à leur alimentation fournissent peut-être des réponses : au manque de retours d’expériences, aux démarches réductionnistes visant par exemple à chercher un coupable, aux erreurs relatives à la hiérarchisation de la gravité des risques, à la charge affective et/ou émotionnelle que véhicule le terme de risque, à la prise de conscience que les risques ne sont pas qu’une affaire de spécialistes, etc. (cf. Monroy ; 2003). L’apport des cindyniques pour le traitement des phénomènes locaux fait apparaître la nécessité d’inscrire la gestion des risques dans une approche dynamique. Il semble alors nécessaire de construire des réseaux sociaux pour faire évoluer les hyperespaces avec la dynamique du territoire ainsi qu’avec son environnement. Mais pour Michel Monroy (2003, p. 32), « dans de très nombreux domaines, il ne peut y avoir de consensus sur la notion même de danger ou de risque, ce qui rend d’ailleurs la prévention si difficile ». L’auteur préconise d’aborder la notion de vulnérabilité car elle met l’accent sur ce qui peut faire l’objet d’une menace. Pour lui le concept de vulnérabilité emporte avec lui une valeur d’alerte mobilisatrice. Ainsi, la dialectique utilisée dans les réseaux sociaux comporte une sémantique adaptée (cf. Monroy ; 2003, p. 32). Les organisations réticulaires sont des lieux et des réservoirs d’informations et de connaissances (cf. Coeurderoy et Ingham, 2004, p. 184)) nécessaires à la construction et à l’évolution des modèles et des hyperespaces. Ensuite, c’est au système d’information de stocker et de faire circuler cette connaissance. Pour cette raison, la nécessaire rapidité de circulation des données et des informations plaide pour la mise en place d’un système d’information territorial incorporant le processus de gestion des risques. Vers la construction d’un système d’information territorial incorporant un collecticiel L’affirmation que « toute vie urbaine se déroule dans un continuum de risques » (cf, Jocelyne Dubois-Maury et Claude Chaline (2002, p. 31)), et que si le voisinage d’un aléa, notamment avec l’usine Arkema, peut être important (avec les dommages subis), il faut aussi compter sur ceux pouvant affecter le territoire éloigné du site de l’accident. Dans cette idée, Jocelyne Dubois-Maury et Claude Chaline (2002, p. 26), préconisent l’élaboration d’un système d’information géographique, pour mieux prévoir les différents stades de vulnérabilité. Mais l’usage d’un outil technologique spécifique comme le système d’information géographique ne saurait à lui seul répondre aux différentes problématiques du territoire. Il est en effet une présentation géolocalisée de données utilisant une base de stockage propre. C’est-à-dire, par exemple que le SIG des villes, ou nous intervenons régulièrement, n’est pas conçu pour communiquer avec d’autres outils et notamment avec les systèmes informatiques de gestion financière (comportant les données budgétaires). Il ne capture pas les données des autres processus informationnels. Ainsi, il n’est pas à lui seul, le système informatique d’information territoriale qu’envisage la municipalité. En effet, les échanges d’information entre les parties prenantes étant prépondérants, la gouvernance municipale que nous avons rencontrée s’oriente vers l’usage d’un collecticiel s’appuyant sur un SIG pour traiter les risques. En conclusion : Dans la perspective d’une collectivité locale ayant une activité de processeur informationnel (cf. Bouchet, 2005), on voit une très forte imbrication des activités de processeur et de producteur d’information. En effet le système d’information de la municipalité est riche des données du territoire et des composantes de celui-ci. Dès lors, avec la construction d’un système d’information territorial (SIT) informatisé, émerge l’idée que ce SIT puisse prendre en compte l’aspect traitement de l’information indispensable aux cindyniques du territoire. Ainsi, les données nécessaires à la construction de l’hyperespace des dangers de Kerven (cf. 1995 ; 1997) sont incorporées au système d’information territorial, c’est-à-dire au collecticiel. Bibliographie Abdelmalki, L. et al (1999), « Technologie, institutions et territoires : Le territoire comme création collective et ressource institutionnelle » (pp177-194) in Pecqueur B. et al - Dynamiques territoriales et mutations économiques - Paris, Montréal (Canada) – l’Harmattan – (1996) éd. 1999 - 246 p. Arnaud, M. (2004), « La nécessaire modification de la relation administrative avec l’arrivée des TIC » - ISDM 16 – Article 162 – mai 2004 – 12p. Bertacchini, Y. (2000) « Information et veille territoriales : représentation du complexe local & émergence d’un projet d’intelligence territoriale», Faculté des Sciences de St-Jérôme, Université Aix-Marseille III, Crrm, Thèse de doctorat en Sciences de l’information et de la communication – décembre 2000 – 261p. Bouchet, Y. (2005). « L’intelligence économique territoriale est-elle une aide à l’économie de proximité ? » In D. Guerraoui, & X. Richet, (Eds.). Intelligence économique et veille stratégique – Défis et stratégies pour les économies émergentes. Paris : L’Harmattan, 161-172. Bulinge, F. (2002). « L’équation de la sécurité, une analyse systémique des vulnérabilités de l’entreprise » - ISDM 5 – Novembre 2002 – 8p. Coeurderoy, R. & Ingham, M. (2004). « Le concept de réseau en management stratégique : de l’exclusion à la centralité » (pp.175-187) in Voisin Colette, Ben Mahmoud-Jouini Sihem et Edouard Serge (sous la dir.), Les réseaux : Dimensions Stratégiques et Organisationnelles - Paris – Economica – 2004 – 272p. David, A. et Sidhom, S. (2005), « Intégration de la démarche d’Intelligence Économique dans l’architecture fonctionnelle d’un système d’information, in « Le Système National d’Information Economique : état et perspectives », CERIST, Alger, Algérie, Février 2005. David, A., Geffroy P., Goria, S., Knauf, A. (2005), « Une étude selon le point de vue de l’infomédiaire et des problématiques de recherche d’information », Actes du colloque ATELIS, Poitier, 2005. David, A. (2005), « L’Intelligence Économique et Les Système d’Information : Problématiques et approches de solutions », in « Veille stratégique : Mise en œuvre et valorisation de la veille stratégique en entreprise », Algérie Télécom, Alger, Algérie, Juin 2005. David, A. (2006), « La recherche collaborative d’information dans un contexte d’Intelligence Economique », in « Le Système d’information de l’entreprise », les 25-26 février 2006, Algérie - Télécom, Alger, Algérie. De La Ville, V.-I. et France, I. (2004), « L’émergence d’un réseau institutionnel local » (pp.160-172) in Voisin Colette, Ben Mahmoud-Jouini S. et Edouard S. (sous la dir.), Les réseaux : Dimensions Stratégiques et Organisationnelles - Paris – Economica – 2004 – 272p. Dubois-Maury, J. & Chaline, C. (2002). Les risques urbains - Paris – Armand Colin – 2002 – 421p. Dumas, P. (2004), « Intelligence, Territoire, Décentralisation ou la région à la française » - ISDN 16 – Article N° 163 - mai 2004 – 3p. Dupont, Y. (2004) (sous la dir.). Dictionnaire des risques - Paris – Armand Colin – 2004 – 421p. Fimbel, E. (2004). « Répondre aux mutations de l’environnement des entreprises Management des risques, des menaces et des crises ». (pp90-95) - Cahier français – Comprendre le management - N°32 – 95p – Juillet/Août 2004. Herbaux, Ph. et Bertacchini, Y., « La rupture, un des corollaires de la vitesse. L’intelligence territoriale, une posture d’anticipation. », Actes du Colloque sur les Systèmes d’Information élaborée/Tic & Territoire : quels développements ?, International Journal of Sciences for Decision Making, n°22, [http://isdm.univtln.fr], île Rousse 2005. Jameux, C. (2004). « D’un modèle de référence à une classe de problèmes récurrents en gestion ». (pp.45-57) in Voisin Colette, Ben Mahmoud-Jouini Sihem et Edouard Serge (sous la dir.), Les réseaux : Dimensions Stratégiques et Organisationnelles - Paris – Economica – 2004, 272p. Kerven, G.-Y. (1995). Eléments fondamentaux des cindyniques - Paris, Economica – 1995, 112p. 50 51 Kerven, G.-Y. (1997). « Introduction à la psychologie cindynique ». (pp95-156) in Kerven G.-Y. et al. . Le risque psychologique majeur – Introduction à la psychologie cindynique - Paris – Editions ESKA - 1997. Kerven, G.-Y. (2003). « La cindynique (sciences des dangers) : états des lieux et perspective ». Intervention à la « 1ère journée du Futur » - le 10 avril 2003, 3 p. Libaert, T. (2005). La communication de crise – Paris, Dunod – 2005, 118p. Moine, H. & Junqua, G. (2005), « Vers une intelligence économique territoriale de l’aire d’influence du port de Marseille-Fos » - Communication au colloque Européen d’intelligence économique - Approche comparée des pratiques Futuroscope de Poitier – 27 et 28 janvier 2005 – 19p. Monroy, M. (2003). La société défensive - Paris - PUF – 2003 – 170p. Pesqueux, Y. (2004). « Un « modèle » de l’organisation en réseau ? » (pp.28-43) in Voisin C., Ben Mahmoud-Jouini S. et Edouard S. (sous la dir.), Les réseaux : Dimensions Stratégiques et Organisationnelles - Paris – Economica – 2004 – 272p. Prax, J.-Y. (2002). Le Management Territorial à l’ère des Réseaux – Editions d’Organisation – 2002. Prévost, P. (2002). La collectivité apprenante - Université de Sherbrooke - Juin 2002 - 136p, Téléchargeable le 12.09.2005 à l'adresse : http://www.cefrio.qc.ca/rapports/Revue%20de%20litt%E9rature_Bernard%20S% E9vigny.pdf Ricordel, P. (1997). « La gestion publique locale : partenariat et performance. Une étude empirique sur 20 communes-centres d'agglomérations françaises ». Revue d'Économie Régionale et Urbaine, n° 3, pp. 425-449 – 1997. Vachon, B. (2001). « Le développement local intégré : une approche humaniste, économique et écologique du développement des collectivités locales », Québec, Carrefour de relance de l’économie et de l’emploi du Centre de Québec et de Vanier - 2001 - 25 pages. Vachon, B. (1996). « Mettre le territoire en état de produire : le rôle des facteurs sociaux, culturels et environnementaux dans la démarche de développement local », in Côté Serge, Klein Juan-Luis et Proulx Marc-Urbain (dir.). Le Québec des régions : vers quel développement ? Tendances et débats en développement régional. Rimouski, Actes du colloque de la section développement régional de l’ACFAS 1995, GRIDEQ, GRIR, Université du Québec à Rimouski -1996 - pp. 285-301. 51 52 Usage des dispositifs socio-techniques dans des situations de travail collaboratif Imane ANOIR Université Paul Valéry, Montpellier III, CERIC, France Centre de recherche LGI2P, Ecole des mines d’Alès, [email protected] Jean-Michel PENALVA Centre de recherche LGI2P, Ecole des mines d’Alès, [email protected] Usage des dispositifs technologiques de travail collaboratif Le concept de collaboration, et précisément de « travail collaboratif », est de plus en plus utilisé dans différents domaines d'activité. Le travail dans ce contexte se fait au travers de plateformes collaboratives dont l'objectif espéré est de faciliter l'échange, la communication et le partage. L'usage de ces plateformes est conditionné par la rencontre du besoin des utilisateurs et de la familiarité technique avec ces outils [BAZ, 04]. Le travail collaboratif est une modalité d'action qui s'inscrit dans une dynamique d'action collective [LEV, 03] et implique un collectif dont la nature peut être variable : les groupes, l’équipe, la communauté et le réseau [PEN, 06]. Il relève d'une activité sociale qui requiert la collaboration entre plusieurs acteurs dès lors que l'action d'un seul acteur n'est pas suffisante pour atteindre les objectifs prévus. Y. F. Livian définit quatre modalités de collaboration [LIV, 98]: 1Collaboration par l'adhésion : chaque acteur voit un intérêt à agir avec les autres, car il partage avec eux des objectifs qui ont été codéfinis, des valeurs communes et une stratégie commune. La collaboration s'instaure par le partage (coopération) et une synchronisation des actions (coordination). 2Collaboration par contrat : La qualité du travail collaboratif dépend directement de l'esprit du contrat, de sa finalité et, bien entendu, de la relation établie entre les co-contractants. 3Collaboration par la règle : les acteurs acceptent des règles imposées par une instance supérieure au nom des intérêts de chacun en mettant en évidence qu'on peut avoir avantage à collaborer. 4Collaboration par la contrainte : Dans ce contexte, le participant n'a pas d'autre choix que de « coopérer », contraint qu'il est par la situation, par le groupe qui fait pression sur lui, ou par la hiérarchie. Les conditions ne sont pas réunies pour favoriser la communication, la coopération et la coordination... donc la collaboration. Les structures organisationnelles seules ne suffisent pas pour l'instauration d'une réelle relation d'échange et de collaboration entre les acteurs, il faut un espace de respect, d'ouverture et de reconnaissance de l'autre [RAC, 00]. Le présent travail de recherche s’intéresse à l’étude de la collaboration au sein de communautés étendues, et a pour terrain de recherche une communauté de chercheurs scientifiques pluridisciplinaires. Les modalité de collaboration qui s’appliquent à cette communauté sont la collaboration par adhésion, et la collaboration par la règle. En effet, les chercheurs de cette communauté adhèrent à un objectif commun [LIK, 68] celui d'apporter des réponses scientifiques au domaine de la toxicologie nucléaire. Aussi, ils partagent communément les codes, les valeurs, les normes et les règles [DEJ, 93] du système auquel ils appartiennent [MUC, 00]. Dans ce contexte, un chercheur est libre d’accepter de collaborer avec les autres chercheurs, comme il est libre de refuser cette collaboration, il n’est lié ni par un contrat de collaboration, ni contraint à collaborer par une hiérarchie supérieure. Les seules contraintes sont des contraintes morales et d’intérêts pour atteindre les objectifs communs. Présentation du projet de recherche o Les acteurs Ce travail de recherche porte sur une communauté de chercheurs scientifiques qui sont réunis pour travailler sur le thème de « la toxicologie nucléaire environnementale », ces chercheurs adhèrent à un programme de recherche transversal et pluridisciplinaire (ToxNuc-E). Lancé le 1er octobre 2001 par le Commissariat à l’Energie Atomique (CEA) pour une durée de cinq ans, il rassemble aujourd’hui plus de 600 chercheurs issus de grands organismes de recherche français organismes : CNRS, INSERM, INRA, CEA. Le programme de recherche ToxNuc-E, mené par la Direction des sciences du vivant du CEA [MEN, 04], est très ambitieux par son ampleur scientifique et technique, et présente des visées sociétales très perceptibles : il s’agit d’enrichir le débat autour du nucléaire de réponses dépassionnées et scientifiques sur le terrain de la toxicologie. En terme d’organisation, le CEA a donc adopté pour ce programme une structure plus réactive en mode projet: 15 projets transversaux et pluridisciplinaires, eux-mêmes découpés en sous-projets. Différents statuts de chercheurs sont impliqués dans le programme, parmi les 600 chercheurs, on y trouve plus de 80 doctorants et post-doctorants financés directement par le programme. L'ensemble de ces chercheurs sont répartis sur plus de 20 sites géographiques. Les responsables projets (coordonnateurs) et sous projet sont des chercheurs de haut niveau (des référents scientifiques) qui reçoivent une responsabilité d’encadrement dans le programme, indépendamment de la structure des laboratoires auxquels ils sont rattachés. La direction de programme est assistée d’un comité scientifique et technique qui audite les résultats scientifiques du programme et fixe les orientations de recherche. La finalité du programme, outre apporter des réponses scientifiques, est annoncée dès son lancement comme la 52 53 constitution d’une communauté scientifique, active au-delà de la fin du programme. o Le dispositif technologique étudié Dans ce contexte particulier, la direction du programme a mis en place, dès le lancement de ce dernier, un dispositif technologique (plateforme collaborative) afin de dynamiser les échanges et les interactions entre chercheurs, créer des liens, réaliser des construits collectifs (ontologie de la toxicologie nucléaire, base de connaissances sur les éléments toxiques) et offrir des représentations partagées [ANO, 05]. Pour l'ensemble de l'organisation, la plateforme collaborative est utilisée par la direction pour le référencement des connaissances et des compétences, la communication interne, l’animation de la communauté et la capitalisation des connaissances. En d'autres termes, la plateforme collaborative est utilisée pour la gestion du capital d'intelligence collective de l’organisation. Chaque chercheur est invité à déposer et consulter des documents dans un espace partagé dédié à cette fin : le référentiel de connaissances. Le référentiel de connaissances est un ensemble de ressources et de références communes pour toute la communauté ToxNuc-E. Les utilisateurs réguliers s'y retrouvent facilement et repèrent rapidement les documents récents. La construction du dispositif est le fruit des réflexions et de la collaboration de personnes chacune compétente dans des domaines différents: direction du programme (vision stratégique), cogniticiens et ingénieurs informaticiens (point de vue technique). Une fois le dispositif mis en place, un intérêt particulier a été porté sur l'analyse sociologique de son appropriation par les utilisateurs, et sur les situations d'usage et de consultation. Dans ce sens, des projets de consultation [BEL, 06] ont été mis en place, ces derniers ont permis une remontée des informations relatives aux besoins des utilisateurs, et d'améliorer quelques aspects relatifs à la représentation et à l’appropriation. o Technologie accessible La plateforme ToxNuc-E utimlise l’environnement informatique « Gsite » qui est un outil logiciel générateur de plateformes collaboratives, ensemble de modules développés et intégrés progressivement dans une bibliothèque logicielle. GSite est un outil modulaire intégrant les briques logicielles indispensables à la mise en place d'applications collaboratives ; Il permet la création, le déploiement et la gestion de ces applications, avec une grande flexibilité. Cet outil est développé par l'Ecole des Mines d'Alès et la société « ID Alizés33 ». GSite propose divers modules : forum, annuaire, cartographie, statistiques, actualité, bibliographie, … etc. Il permet la séparation de la forme et du contenu, la structuration de ce dernier et sa représentation sous de multiples vues. Ce type d’outils est communément connu sous le nom de SGC (systèmes de gestion de contenu) ou de CMS (Content Management System). La structure modulaire de GSite permet une conception adaptative et l'intégration d'outils spécifiques à certaines communautés. Il y a des modules de base nécessaires à toutes les applications collaboratives, des modules communs utilisés par la majorité des applications, et des modules spécifiques propres à une application particulière. L'utilisation de la plateforme ToxNuc-E est facile et accessible même à des chercheurs qui ne sont pas habitués à l'utilisation des NTIC34, et l'appropriation est possible de manière autonome ou en demandant de l'aide aux 33 http://www.id-alizes.fr 34 Communication coordonnateurs et aux correspondants du référentiel. L'accès au site est sécurisé ; pour accéder aux différents services, un système d'authentification est mis en place, avec des droits d'accès de différents niveaux : du simple visiteur, jusqu’à l’administrateur, en passant par divers niveaux de modérateurs et de contributeurs. Les chercheurs ont la possibilité d'accéder à leur profil personnel et de le modifier (coordonnées, organisme d'appartenance, lieu de travail ...). Les profils des chercheurs sont consultables à partir de l'annuaire, ce dernier constitue une référence identitaire de la communauté ToxNuc-E. Le dispositif socio-technique Le référentiel mobilise des acteurs bien identifiés sur des objectifs communs (les coordonnateurs de projets, les correspondants de projets, les membres de la direction de programme), permet la mise en place d’un circuit d’information réactif (lettre électronique mensuelle, news, rapports d’activités, enquêtes de terrain, conférences video en différé) et incite les chercheurs à participer activement (consultations régulières, dépôts de documents, bibliographie partagée, publications, forums) [ANO, 05]. Afin de soutenir la construction de la communauté ToxNuc-E, des actions de nature explicitement collective sont mises en place : séminaires semestriels, sessions de formations, ateliers communs. o Communication interne et formation : La lettre d’information - La Lettre du Programme Toxicologie Nucléaire est un recto-verso mensuel qui sert de lien entre les chercheurs des projets et permet une circulation rapide de l’information utile à tous. C’est aussi un outil de communication externe vers les Directions du CEA et vers nos partenaires scientifiques et industriels. Les séminaires - Tous les semestres, chaque projet rédige un rapport d’avancement et présente ses résultats à la Direction de Programme en présence du Comité scientifique, qui émet des recommandations générales et par projets. Le cycle de formation continue - Les personnes à former sont les thésards, post-doctorants, techniciens et chercheurs statutaires (CEA, CNRS, Inserm, Inra) intervenant dans le cadre du programme de Toxicologie Nucléaire, en tout ou partie de leur temps de travail, de formations initiales diversifiées (biologistes, chimistes, physiciens, pharmaciens, médecins…) Les résultats attendus de l’action sont les suivants : intégration de concepts communs, amélioration de la capacité d’interaction entre scientifiques issus de différentes disciplines pour la réalisation du Programme. Les stagiaires acquièrent un socle de connaissances communes en toxicologie (concepts généraux, cibles des toxiques, méthodes expérimentales, ….) ; les biologistes complètent leurs connaissances en chimie des solutions et chimie analytique ; les chimistes complètent leurs connaissances en biologie cellulaire et biologie moléculaire ; les chimistes et les biologistes complètent leurs connaissances en : statistiques appliquées à la toxicologie ; épidémiologie ; physiologie d’organes cibles. o Actions collectives et construction de la communauté : Les ateliers - Des groupes de travail sont constitués afin de fédérer des moyens et des compétences (ateliers imagerie, sondes, analytique) ; deux ateliers sont chargés de réaliser des actions d’intérêt commun : l’atelier bioinformatique et l’atelier travail collaboratif. Ce dernier vise à spécifier les développements souhaitables du référentiel et à organiser la construction des savoirs collectifs. Nouvelles Technologies de l’Information et de la Le référentiel - une plateforme de travail collaboratif du 53 54 type "Référentiel de connaissances" est destinée à aider la communauté scientifique à développer ses processus collectifs : présentation des chercheurs et des équipes, présentation du programme, capitalisation d'informations et de résultats, partage de connaissances, communication interne, archivage de documents institutionnels, espaces de travail en commun, forums d'échanges, messagerie spécialisée, diffusion d'informations au grand public. Des fonctions avancées de cartographie dynamique des contenus permettent de suivre l'évolution du fonds documentaire. Chaque chercheur inscrit dans le programme est un contributeur autorisé à déposer des documents, consulter les documents archivés, communiquer avec les autres chercheurs. Un système de gestion de la confidentialité permet de protéger la diffusion d'informations au sein même de la communauté. Ontologie de la toxicologie nucléaire - une ontologie est une description formelle d'entités et de leurs propriétés, relations, contraintes, comportements". [GRÜ, 95]. Elle permet de modéliser la connaissance du domaine et de standardiser le vocabulaire entre les différents acteurs. Une ontologie ne peut se construire que collectivement car il s’agit de formaliser un savoir pour le partager. La construction de l’ontologie de la toxicologie nucléaire est réalisée dans le cadre de l’atelier travail collaboratif. L’ontologie est utilisée par certains modules fonctionnels de la plateorme (indexation de documents par exemple). o L’animation de la plateforme La direction du programme assure l'animation de la communauté et la gestion de la plateforme. Les chercheurs du programme participent à l'animation avec des degrés d'implication et d'engagement différents. Au minimum, ils vont sur le site pour lire et/ou télécharger la lettre mensuelle du programme. Pour cela, ils reçoivent un courrier électronique en provenance de la direction du programme les informant que la lettre est disponible sur le site dans la partie « Vie du programme ». Aussi, les utilisateurs peuvent aller sur le site pour échanger des informations sur les forums thématiques et la messagerie interne, accéder aux informations selon leurs droits d'accès, et participer à l'enrichissement du référentiel des connaissances en y déposant des documents. Quelques mois après la mise en place de la plateforme, des « correspondants référentiel » ont été nommés sur une proposition de Michel Callon, de l’Ecole des Mines de Paris (Centre de sociologie de l’innovation). Ces « correspondants référentiel » sont issus des quinze projets du programme ToxNuc-E, ce sont des chefs de projets, des documentalistes ou des chercheurs. Les « correspondants référentiel » doivent contribuer à une dynamique d’appropriation du référentiel par les chercheurs, en assurant par exemple une alimentation des données dans la plateforme, en assurant une recherche des informations, en inscrivant et en donnant les codes et mots de passe des dernières recrues, en alimentant les news, en donnant des informations scientifiques sur de nouvelles publications, de nouveaux protocoles mis en œuvre dans le laboratoire… Ces correspondants référentiel sont pressentis comme favorisant l’inscription sociale du site intranet auprès des chercheurs, en aidant au développement des usages [BEL, 06]. Des réunions semestrielles sont organisées avec les correspondants référentiel. Ces réunions sont l’occasion de faire le bilan des évolutions éventuelles du dispositif, de discuter des difficultés rencontrées par les chercheurs lors de son utilisation, de discuter des besoins de ceux-ci en terme de fonctionnalités et d’outils susceptibles de faciliter son appropriation et par conséquent le travail collaboratif. Quels usages ? Les chercheurs peuvent être à la fois utilisateurs, acteurs et auteurs. Ils utilisent les ressources disponibles sur le dispositif, participent à l’alimentation du référentiel de connaissance en y déposant des document dont ils sont les auteurs, et d’autres dont ils sont utilisateurs. L’objectif initial de la plateforme ToxNuc-E, tel qu’il a été annoncé au départ, est de mettre à la disposition des chercheurs du programme, un outil d’échange et de partage, un espace de capitalisation des connaissances et de stockage personnel ainsi qu’un outil de socialisation. Après cinq ans de fonctionnement, les objectifs annoncés ont-ils été atteints ? Comment et pourquoi ? Des entretiens et des rencontres avec les utilisateurs ont permis de distinguer différents types d'usages [BEL, 03]: - Archivage : utilisation du dispositif comme disque dur lieu sûr de stockage des documents « mes documents sont plus en sécurité sur la plateforme que sur mon propre disque dur ». Ces utilisateurs participent à l’enrichissement de la base documentaire relative aux domaines de recherche étudiés dans le cadre du programme, mais ne tirent pas parti de l’effort collectif. - Consommation : utilisation des ressources documentaires déposées par les autres chercheurs. Ces utilisateurs se comportent comme de simples consommateurs des ressources collectives, mais ne contribuent pas au développement du dispositif. - Butinage : utilisation occasionnelle du dispositif, par simple curiosité ou sous la pression de la direction du programme. N’étant pas habitués à l’utilisation du dispositif, les utilisateurs occasionnels peuvent ne pas trouver ce qu’ils sont venus chercher, et peuvent alors mettre en doûte l’intérêt du dispositif, voire véhiculer une mauvaise image. - Contribution : utilisation fréquente ou régulière du dispositif ; les utilisateurs réguliers connaissent bien le dispositif, y ont développé des routines (ils vont directement vers l’information ciblée), mais restent intéressés par les changement et les nouveautés. Ces utilisateurs utilisent les ressources déposées par les autres, et contribuent à leur tour à l’enrichissement de ces ressources : « ils donnent pour recevoir », ce sont des utilisateurs fidèles et actifs. Les concepteurs de la plateforme y ont intégré, en accord avec la direction du programme, des statistiques qui permettent de connaître le nombre de visites par jour et par semaine, le cumul des visites actualisé après chaque connexion, ainsi que le nombre de pages visitées. Tous les chercheurs ont accès à ces statistiques, et peuvent ainsi se situer par rapport aux autres chercheurs. A ce jour, la plateforme compte 658 chercheurs inscrits. 243 chercheurs ont visité plus de 100 pages (seuil significatif pour nous), avec un maximum (à ce jour) de 7029 pages visitées. Nous constatons que les visiteurs actifs constituent 40% de l’ensemble des chercheurs du programme ; les plus actifs sont pour la plupart des responsables projets et des correspondants référentiel. Quelques chiffres relevés sur la plateforme et notifiés dans le tableau suivant montrent bien, d’une part l’augmentation de la fréquentation, et d’autre part la focalisation sur un sousensemble de pages : Visites Pages visitées visites par jour Moyenne de pages visitées par jour Du 01/03/04 Du 01/03/05 Du 01/03/06 au 31/07/04 au 31/07/05 au 31/07/06 3039 4928 7647 87210 49742 39935 23 32 50 646 327 263 54 55 Pages par visite 28 10 5 Sur les 5 mois pris en référence chaque année, la fréquentation journalière n’est pas négligeable, dans la mesure où les chercheurs permanents du programme sont des biologistes, des chimistes, des physiciens, des médecins… dont l’activité expérimentale importante ne les prédispose pas à une utilisation quotidienne d’un poste informatique. Nous pouvons néanmoins déduire que les chercheurs s’approprient mieux le dispositif, et supposer qu’ils se sont adaptés à celui-ci, le connaissent mieux, et vont directement à l’endroit où se trouve l’information recherchée, ce qui explique le nombre de pages qui diminue. Comme nous l’avons vu précédemment, le programme ToxNuc-E est organisé en mode projet, il regroupe des chercheurs de différentes disciplines appartenant à différents organismes et dispersés géographiquement sur toute la France. En extrayant les informations de la base de données, et en utilisant les outils de Web Usage Mining, nous pouvons observer le comportement des utilisateurs au travers de la plateforme, et accéder à d’autres informations quantitatives relatives aux usages. Par exemple : le flux des documents consultés dans le référentiel. La figure suivante nous montre l’interaction entre les projets en terme de consultation des documents par les chercheurs [DAL, 06]. Fig.1. Carte d’interaction inter-projets (entre Mars 2004 et Avril 2006) Le nombre total de lectures des documents d’un projet est représenté par la taille des cercles. Les liens verts représentent les interactions entre les projets : les chercheurs du projet X vont lire les documents du projet Y ; plus le trait est épais, plus les chercheurs du projet X s’intéressent aux thématiques du projet Y. Nous pouvons observer sur cette illustration, que le projet MSBE est le plus consulté. L’explication tient à sa transversalité : développement de méthodologies analytiques nouvelles et examen de leur viabilité sur le plan pratique par leur intégration dans d'autres projets du programme ToxNuc-E. On constate aussi que la proximité thématique entre projets (repérée par la distance entre les cercles représentant les projets) n’induit pas une lecture croisée plus importante. D’autres représentations graphiques dynamiques sont à l’étude ; elles ont pour objectif de renvoyer à la communauté en action des représentations de ses propres usages. La prise de conscience par un individu de son positionnement dans la communauté et des comportements des autres contributeurs nous semblent une condition nécessaire au développement de l’intelligence collective. NOTES [ANO, 05] I. Anoir, J.M. Penalva, « Rôle de la confiance au sein des collectifs collaboratifs », colloque "Culture des Organisations et DISTIC", Nice, les 8 et 9 Décembre 2005. [BAZ, 04] JM Bazin, « Usage de plate forme gratuite dans le cadre de la préparation au CAPES de documentation », actes du colloque TICE 2004, UTC Compiègne. [BEL, 03] O. Belin, J. M. Penalva, « De la médiatisation à la médiation ou comment prévoir l’émergence des figures sociotechniques ? Le cas d’une communauté de chercheurs », CITE 2003, Troyes, 2003. [BEL, 06] O. Belin, « Complexité et intelligence collective », Thèse, Montpellier, Université Montpellier3, 2006. [DAL, 06] M. Dal Palu, « Acquisition d’un modèle utilisateur pour la visualisation dynamique de liens dans le cadre d’un travail collaboratif », Mémoire de stage de Master, Université Montpellier 2, 2006. [DEJ, 93] C. Dejours, « Travail et usure mentale », Paris: Bayard, 1993. [GRÜ, 95] M. GRÜNINGER, M.S. FOX, « Methodolgy for the Design and Evaluation of Ontologies », Proceedings of the IJCAI Workshop on Basic Ontological Issues in Knoweldge Sharing, Menlo Park CA, USA: AAAI, 1995. [LIK, 68] J.C.R. Licklider, R.W. Taylor, « The Computer as a Communication Device », Science and Technology : For the Technical Men in Management, n° 76, 1968. [LIV, 98] Y. F. Livian, « Organisation: théories et pratiques », Dunod, 1998. [MEN, 04] M.T. Menager, « Programme Toxicologie Nucléaire Environnementale : Comment fédérer et créer une communauté scientifique autour d’un enjeu de société », Colloque Intelligence Collective : Partage et redistribution des savoirs, Nîmes, Septembre, 2004. [MUC, 00] A. Mucchielli, « Les nouvelles communications », Armand Colin, 2000. [PEN, 06] J.M. Penalva, M. Commandre, « Typologie du travail collaboratif, variations autour des collectifs en action », in « Intelligence collective : Rencontres 2006 », Presses des Mines de Paris, mai 2006. [RAC, 00] G. Racine, O. Sévigny, « La construction d'une relation de coopération entre des chercheurs et des intervenantes dans une relation de partenariat », Recherche qualitative, Vol. 21, 2000. 55 56 Entre autorégulation, formalismes et constructions symboliques : les paradoxes des « nouvelles formes organisationnelles » Jean-Luc BOUILLON LAREQUOI - Université Versailles St Quentin Michel DURAMPART LABSIC - Université Paris 13 Mots clés : Gestion Electronique Documentaire, Worflow, gestion de projets, Formes organisationnelles, régulations organisationnelles Cet article est issu de l’observation durant deux années (2004 – 2006) de la mise en place d’un système de Gestion Electronique Documentaire (GED) articulé à un workflow de gestion de projets au sein de l’Institut de Formation Automobile (IFA), organisme de formation professionnelle de la branche automobile et composante du Groupement National de l’Automobile (GNA), sous statut associatif. Cette structure s’appuie sur un service logistique, un service pédagogique et un département recherche et développement. Créé en 1990 pour des raisons marketing et d’image, l’IFA est maintenant un label du GNA et se positionne comme un « département opérationnel commerce » au sein du GNA. Il se compose au moment de l’observation de quinze formateurs permanents et soixante intervenants extérieurs répartis dans neuf domaines de compétence (audit et conseil, recrutement, évaluation des compétences, e-learning, web conférence, lancement produit, organisation logistique, formation continue, formation alternée, développement Web), quarante-deux « écoles de vente », neuf « universités d’entreprise ». Les clients branche et hors branche sont les constructeurs et les équipementiers. L’une des particularités réside dans la nécessité de gérer une problématique flagrante de répartition entre effectifs permanents internes et externes, à laquelle la formation et les systèmes d’informations doivent répondre en partie. L’introduction de l’outil de gestion de l’information que nous avons observée s’inscrivait dans un changement organisationnel de grande ampleur, associé à une normalisation. Deux ans plus tard, la « nouvelle organisation » et ses avatars technologiques apparaissent comme une fiction : plus que jamais présents dans les ambitions de la direction, ils se trouvent déconnectés d’une réalité quotidienne complexe et mouvante. Mais si les acteurs prennent des libertés par rapport au cadre technique et normatif imposé (sans quoi ils ne pourraient mener à terme les projets dont ils portent la responsabilité), ils tentent également de justifier leur rôle en référence à ce même cadre, qu’ils se sont tout de même appropriés. En d’autre termes, le dispositif prévu ne fonctionne pas selon les modalités envisagées, ce qui constitue un constat assez banal, mais il semble que ses grands principes aient été intégrés par les acteurs : on ne peut donc parler d’un « échec » même s’il ne s’agit pas non plus d’un « succès ». L’organisation ne semble pas avoir changé en profondeur, mais il n’en demeure pas moins qu’elle a évolué, dans les représentations et les pratiques des individus qui la constituent. Comment qualifier et conceptualiser cette situation ? Notre réflexion interroge les effets liés aux Technologies de l’Information et de la Communication (TIC) et les répercussions des discours et des projets managériaux qui accompagnent leur intégration dans les organisations. Les TIC et leur articulation aux structures et modes de fonctionnement peuvent façonner les collectifs, ils contribuent à faire évoluer la place, le rôle, les représentations des acteurs en situation, notamment en ce qui concerne la mobilisation des connaissances mises en situation. Dans une période de mutation et d’adaptation permanentes, les TIC peuvent constituer un objet qui cristallise les évolutions et les tensions de l’organisation du travail. Des questions comme le passage du contrôle de l’acteur à l’autocontrôle, les nouveaux dispositifs de médiation, le positionnement individuel de l’acteur face à l’émergence d’une d’intelligence dite collective sont donc ici centrales. Cette recherche est aussi l’occasion d’exercer une prise de distance critique en évoquant des alternatives qui composent le jeu social et sociétal de l’organisation face à des modèles imposés ou descendants, en soulignant les paradoxes des façonnages socio techniques. Il est ici question de chercher à relativiser des approches trop rapides, inspirées d’une forme de déterminisme ou d’une vision trop fortement techniciste. En fait, il nous semble que la question du contrôle de la diffusion et la circulation des connaissances devient un enjeu central dans la place que prennent les TIC dans l’organisation. C’est l’occasion d’exercer de nouvelles régulations qui ne s’affichent pas explicitement mais laissent également de côté une réflexion sur le projet de l’organisation collective et de ses capacités de mutations réelles. Nous retracerons dans une première partie la genèse et l’évolution du projet au sein de l’IFA au fil des deux années de l’observation, en articulant les différentes dimensions organisationnelles impliquées. Nous nous focaliserons ensuite sur les dimensions symboliques et sur les représentations individuelles de l’activité, qui ont été transformées au fil de la période. Enfin, nous examinerons comment, au-delà et en avant de l’organisation elle-même, il semble qu’une « forme organisationnelle », d’un niveau de problématisation plus général, articulé aux évolutions sociétales, économiques, idéologiques, soit progressivement intégrée et prépare l’évolution voire la réorientation de l’organisation elle-même. 1. Genèse d’une rationalisation : retour sur le projet de réorganisation de l’IFA 1.1. Le point de départ : les transformations socioéconomique de la branche automobile… 56 57 Depuis ses origines, l’IFA a fonctionné selon les principes associatifs correspondants à la structure juridique du GNA. Son objectif était de répondre aux besoins de formation initiale et continue des différents industriels de l’automobile, en matière de production, de réparation et de commercialisation des véhicules et des services associés. La rentabilité ne constituait pas un critère prioritaire pour des actions de formation largement financées sur les cotisations obligatoirement versées par les employeurs. Du fait de son statut « d’organisme de formation de branche », les contrats de formation étaient le plus souvent confiés à l’IFA sans véritable mise en concurrence avec d’autres organismes de formation. Au-delà, les formateurs, personnes expérimentées dans l’un des « métiers » de l’automobile (technique, commercialisation…) négociaient directement avec leur réseau de contacts chez les constructeurs les contenus des formations qu’ils concevaient, et qu’ils animaient eux-mêmes par la suite. Ce fonctionnement largement axé sur un mode relationnel privilégié et informel a été remis en cause au cours des dernières années. Tandis que la concurrence s’accentuait, la demande des constructeurs a évolué vers des formations surmesure. Ces dernières se sont révélées simultanément plus spécifiques, du fait de la démultiplication des modèles de véhicules, de l’accroissement du rythme de leur renouvellement, de l’évolution des comportements d’achat et d’usage de l’automobile ; et plus génériques, dans la mesure où le contenu des formations renvoyait davantage au financement, à la vente, qu’au aspects techniques. Un vendeur automobile en concession commercialise désormais davantage un « service de transport » associé à une solution d’entretien, d’assurance, à une garantie longue durée et à un engagement de reprise, qu’une automobile. Nul besoin d’être un organisme de formation spécialiste de l’automobile pour répondre à une telle demande, il faut par contre être un spécialiste de la formation professionnelle. Dès lors, tous les organismes de formation présents sur le marché devenaient potentiellement concurrents de l’IFA, qui ne se trouvait plus en situation de contrôle d’un marché captif. Ceci est d’autant plus le cas que les exigences de qualité de la part des donneurs d’ordre se sont renforcées au point de ne plus se satisfaire des contrats préalablement négociés de gré à gré. Dans le prolongement de la généralisation de l’assurance qualité, la sélection d’un prestataire de service devait être formalisée et normalisée. De même les missions effectuées par ce dernier devaient répondre à un cahier des charges précis, et donner lieu à des résultats évaluables. L’affirmation selon laquelle la formation n’est pas une dépense mais un investissement prend ici toute sa réalité. Enfin, tout en demeurant une association, l’IFA se devait de rentabiliser ses formations, face à une branche industrielle plus exigeante vis-à-vis de l’utilisation des budgets de formation continue. Cette évolution a poussé l’IFA à intégrer une attitude plus prospective, plus réactive, engagée dans des démarches de qualité et de « performance ». Ceci impliquait une réduction des coûts de revient et des délais de développement d’une réponse clientèle : il a ainsi été nécessaire que l’institut se positionne encore plus près de sa clientèle par des dispositifs de suivi et d’accompagnement. Du point de vue de l’organisation de la production et des ressources humaines, la mutation se tradusit par le passage d’un savoir faire centré sur la formation à un savoir faire centré sur le conseil. L’organisme fonde désormais de plus en plus sa valeur ajoutée dans le sur mesure que dans la formation établie sur catalogue. L’IFA a donc du refondre son organisation en développant une véritable démarche de gestion de projet, appuyée sur la mise en place d’un outil de gestion de l’information, par l’instauration de procédures strictes pour la conception et la réalisation des formations, et par l’identification de spécialistes fonctionnels destinés à suivre la mise en œuvre de ces procédures aux côtés des formateurs. Organisation à but non lucratif, l’IFA s’est engagée comme de nombreuses autres structures dans une rationalisation de son organisation touchant tous les aspects relatifs à la transmission et au traitement des informations, aux méthodes et procédures productives, à la communication et au travail collaboratif. C’est ainsi l’ensemble des processus cognitifs qui ont fait l’objet de rationalisations dans la mesure où ils se trouvent au cœur de l’efficacité productive. Il prend en effet place dans un véritable dispositif de rationalisation de l’organisation, présent sur de multiples niveaux articulant le matériel et le symbolique. Un dispositif désigne « un ensemble hétérogène de discours, d’institutions, d’aménagements architecturaux, de supports matériels, de règlements, en relation les uns avec les autres ». Il fait référence à la fois à chacun éléments hétérogènes, en relation les uns avec les autres, et à la nature du lien qui les relie. C’est ainsi un espace d’action et d’interaction fermé sur lui-même qui se met en place : ce dernier se caractérise par un quadrillage temporel définissant les actes, leur durée, leur enchaînement, par la définition d’un rôle et d’un emplacement spécifique pour chaque acteur, et enfin par une surveillance omniprésente, dite « panoptique », assurant l’autocontrôle de chacun en raison de la certitude d’être sous la visibilité et le contrôle du système. 1.2 Un dispositif de rationalisation cognitive La face la plus visible de ce dispositif de rationalisation cognitive est certainement constituée par un système de Gestion Electronique Documentaire (GED) mis en place au début du printemps 2004, et associé à un workflow documentaire, dédoublant les procédures de gestion de projets et surveillant leur bonne application. Cet outil devait en premier lieu favoriser le retour d’expérience, c'est-à-dire la capacité de l’IFA à tirer profit de l’expérience acquise au cours de chacune de ses missions, en évitant de commettre plusieurs fois les mêmes erreurs et en réutilisant autant que possible les propositions commerciales déjà proposées pour répondre à de nouvelles demandes plus ou moins similaires. L’objectif final était évidemment de réduire les délais de développement, et donc les coûts de revient. Une telle démarche impliquait l’archivage strict des cahiers des charges et des documents commerciaux et pédagogiques, pour assurer leur récupération et la mobilisation des connaissances qu’il contenait dans le cours de l’action. En second lieu, cet outil devait contraindre à la mise en œuvre des formalismes de la gestion de projet et notamment de rédaction des cahiers des charges fonctionnels. En effet, les différentes fiches récapitulatives, constituant les « livrables » des différentes phases, devaient obligatoirement être remplies sur l’interface du workflow, la validation de chaque étape étant indispensable à la poursuite du travail. Il s’agissait de mieux répondre aux demandes plus complexes et sur-mesure des clients, sous contrainte de coûts et de rentabilité, et, suivant une expression souvent entendue, de « passer d’une culture métier à une culture projets », dans laquelle la formalisation est présentée comme la condition de l’efficacité. Au-delà de la capitalisation et de la mise à disposition des documents, il s’agissait donc de conserver une trace écrite et formelle de chaque phase de l’activité liée au montage d’un projet (proposition commerciale, cahier des charges) et d’attester de sa réalisation. Mais dans le même temps, ce système permet de prescrire formellement l’articulation entre les différentes tâches, leur réalisation dans un ordre logique, prédéfini et cohérent, ainsi 57 58 que déroulement effectif de ce processus. La centralisation de l’information autorise aussi la surveillance, le suivi du temps passé par chacun et des coûts de revient associés, même si cette dimension de contrôle fut rarement mise en avant, du moins officiellement. Ce système technique associant workflow et GED ne peut donc être compris de manière isolée. Il s’accompagne de la création de nouvelles fonctions de l’organisation spécialement dévolues à la mise en œuvre des pratiques de gestion de projet, et au recrutement de nouvelles personnes pour occuper les postes de travail correspondant. De telles compétences se situaient davantage en externe qu’en interne : l’institut s’est donc doté de nouvelles fonctions qui orchestrent les ressources et ont un recul sur l’activité en faisant le constat que le spécialiste de la formation appuyé sur sa connaissance du secteur ne suffit plus. C’est la notion d’expertise qui s’affirme dans cette situation. La gestion et l’orientation nouvelle des ressources humaines de l’institut est donc marquée par le passage des « hommes métiers » aux hommes compétences » (dans le jargon de la direction), pour qualifier des personnes davantage spécialisées dans la relation de service que dans l’une ou l’autre des activités de l’automobile. En deux ans, apparaissent ainsi au sein de l’organisation des chargés de clientèle, responsables du suivi des clients de la prospection au recouvrement, pour l’ensemble du GNA, dont l’IFA. Ces derniers s’accompagnent de chargé de mission est créée, dans un objectif identique mais avec la charge d’un seul client « grand compte », par exemple un constructeur automobile représentant à lui seul une part importante du chiffre d’affaires. Parallèlement, la fonction de responsable de secteur apparaît : le champ de responsabilité est toujours très proches des attributions des chargés de mission et de clientèle, mais selon une logique de répartition par produits, par exemple les véhicules neufs, les véhicules d’occasion ou encore les services financiers. Enfin, toujours au cours de la même période, sont recrutés des ingénieurs pédagogiques, chargés de concevoir les propositions pédagogiques pour tous les types d’activités et de clients, en relation avec les intervenants précédents. Ce n’est donc pas moins de quatre fonctions qui apparaissent au sein de l’IFA et dans les procédures de gestion projets, là où il existait auparavant surtout des formateurs inscrits dans une logique « métier ». Système technique et recrutement des postes fonctionnels sont indissociable d’une démarche de normalisation, qui, sans se traduire (pour l’instant ?) par une certification ISO 9000, se caractérise notamment par la définition de procédures strictes pour la gestion des projets, principalement en ce qui concerne les phases amont d’étude de la demande et de conception. Pour donner un exemple d’une procédure de gestion de projetréponse clientèle, nous restituons la description que nous a présenté un manager impliqué dans la recherche et le développement de l’Institut puis du groupement. Il nous faut préciser qu’il s’agit bien d’un idéal théorique issue de la vision qui est retracé ci-après, nos observations et recherches viendront ensuite nuancer ou relativiser le processus qu’il nous retrace. « On peut prendre l’exemple du Lancement d’un nouveau véhicule modèle sport qui nécessite la formation de 5 à 6000 personnes sur 3 semaines. Que la demande soit formalisée ou pas, on établit une fiche d’identification demande (inscrite dans une nomenclature documentaire). S’en suit une démarche interne dans un projet initial ou externe et une réponse client qui va monopoliser 4 ou 5 personnes à temps plein. Il en découle une formulation d’une proposition pédagogique : développement site web, itinéraires, évaluation, reporting, diagnostic, logistique (management équipes). Depuis que l’outil électronique est en place, l’initiation du projet se fait en workflow dés que la réponse est faite au client (classée indexée dans la GED qui n’as pas de lien technique avec le WF). Chacune des étapes du processus de qualité a été intégrée pour construire la structure WF, l’IFA étant pilote des services des applications pédagogiques et de la coordination opérations internes/externes. Dans cette procédure il y a beaucoup d’aller et de retour, de production d’éléments pour l’intervention soumis à un système de qualité version 94. Le WF permet donc une modélisation de procédures. Tout le monde peut être chef de projet qu’il soit interne ou externe. . .. Le Pôle de compétences suppose un management des compétences internes. L’externalisation concerne uniquement ce qui n’est pas dans les compétences de l’IFA. Le SI est alors un des éléments incontournable de l’exigence de déploiement du système qualité.» Cette démarche de normalisation possède en premier lieu une orientation externe, qui vise à formaliser les relations avec les clients, en renforçant la dimension contractuelle et en matérialisant les différentes phases de négociation par autant de composantes d’un cahier des charges. On peut comprendre l’intérêt d’une telle codification des pratiques dès lors que l’organisation est contrainte de gérer des demandes plus complexes, évolutives, avec une évaluation plus poussée des résultats. Mais cette démarche de normalisation renvoie également à une finalité interne : il s’agit d’établir des procédures de travail strictes permet de mieux les contrôler, de codifier les savoirs et les savoir faire qu’ils contiennent, de connaître avec davantage de précision ce qui est réalisé par les différents acteurs, de mesurer combien de temps est consacré à une activité et ce qu’elle coûte. En définitive, le système GED-workflow, les nouvelles fonctions ainsi que les démarches de normalisation se rejoignent : ils assurent le « quadrillage temporel », la répartition des rôles et le contrôle panoptique qui caractérisent un dispositif, tout particulièrement tourné vers la rationalisation des processus cognitifs associés à l’information et à la communication en l’occurrence. Toutes les dimensions de l’organisation sont concernées, qu’il s’agisse des activités de production et de commercialisation en tant que telles, des relations de travail (relations de prestation de services internes), du système de règles formelles et de la coordination sociale associée aux régulations autonomes. L’objectif global est clairement fiabiliste : il s’agit d’améliorer l’efficacité, de mieux répondre aux clients, de lutter contre la non-application des procédures. Comment ce dispositif, en apparence très complet et fort cohérent, se comporte-il lorsqu’il est confronté à l’épreuve de la réalité de l’organisation ? 2. L’émergence organisationnelle ? d’une nouvelle forme 2.1. De l’organisation voulue à l’organisation réelle : échec relatif ou succès mitigé du dispositif ? Entré en service au printemps 2004, les différents éléments du dispositif ont été mis en place de manière hiérarchique, dans le cadre d’une décision de la direction sans concertation ni négociation. Particulièrement révélateur de cette situation, le système de GED a ainsi été déployé du jour au lendemain en lieu et place d’un outil de transfert et de stockage de fichiers basé sur le protocole FTP, institué par la pratique pour répondre aux besoins des différents acteurs. Selon la direction, seule une rupture radicale assortie d’une utilisation obligatoire pouvait garantir l’appropriation et l’utilisation du nouveau 58 59 système. Dans le même temps, des recrutements correspondant aux nouveaux profils fonctionnels se sont déroulées en quelques mois, parallèlement à la mise en place des procédures de gestion de projets. A première vue, l’organisation de l’IFA apparaît donc très structurée, hiérarchisée et formelle. Dans les faits, force est de constater plusieurs déconnexions importantes, entre le fonctionnement effectif de l’organisation (organisation réelle) et la configuration que la direction aurait souhaité qu’elle prenne (organisation voulue), mais aussi entre l’équipe dirigeante et les équipes projets. Notre enquête a tout d’abord montré que le dispositif de rationalisation de l’organisation tel qu’il était envisagé n’avait dans les faits jamais fonctionné. En premier lieu, l’outil GED – workflow n’a jamais été véritablement utilisé. Le workflow n’a pas dépassé le cadre expérimental, et la GED s’est retrouvée reléguée à remplir une fonction de stockage de documents individuels tout en inspirant de nombreux sarcasmes. Des problèmes de conception de la solution informatique retenue ont indiscutablement joué un rôle important dans le fait qu’elle ne soit pas utilisée. D’une part, le manque d’ergonomie dans le classement et l’accès aux documents a rebuté les utilisateurs, de même que la lourdeur et la longueur des procédures d’inscription des documents. A titre indicatif plusieurs minutes, voire plusieurs dizaines de minutes pouvaient être nécessaire pour indexer correctement un document, et la gestion des autorisations de lecture – à reprendre pour chaque document – étaient particulièrement complexes… personne n’étant autorisé par défaut, les lecteurs non autorisés ne pouvant même pas constater l’existence du document recherché sur un serveur. Le cercle vicieux était en marche : un outil de stockage documentaire mal adapté est peu utilisé pour le dépôt de documents, il est considéré comme incomplet et non fiable par les usagers, qui trouvent à juste titre qu’il est plus rapide de mobiliser leur propre réseau professionnel pour obtenir les documents attendus. Cependant, les problèmes techniques et ergonomiques ne sauraient expliquer à eux seuls les difficultés rencontrées. En amont, un mauvais choix de logiciel doit souvent être rapproché d’un manque de réflexion et d’une mauvaise compréhension de l’organisation : il est en lui-même révélateur d’autres difficultés au sein du dispositif. Ainsi, les acteurs occupant les nouvelles fonctions n’ont pas vu leur poste et leurs attributions définis clairement par une lettre de mission. Les fonctions de chargé de clientèle, de chargé de mission, d’ingénieur pédagogique, de responsable de secteur, se superposent sur bien des plans, et les intéressés recherchent leur place. Ils sont contraints de définir leur espace, d’acquérir leur légitimité, de justifier leur rôle et tout simplement leur utilité. Paradoxalement, le rôle de chef de projet, central dans une « organisation projet », n’est explicité nulle part, et peut être assuré – selon des critères mal définis – par n’importe quelle personne salariée titulaire de l’IFA. Dans les faits, la répartition des rôles associés se fait surtout en interne. Elle est liée aux différentes activités, qu’il s’agisse de prospection, de contacts clientèle, de conception des cahiers des charges et s’effectue selon des arrangements locaux, ponctuels, en fonction de la disponibilité de chacun, de ses compétences, de ses contacts et de sa volonté. Enfin, les procédures normalisées de gestion de projet sont suivies a minima, seules les fiches récapitulatives de lancement de projet et d’identification de la demande étant remplies, éventuellement a posteriori. Le dispositif formel que nous présentions plus haut n’est donc jamais entré véritablement entré en fonction au cours des deux années de notre observation. Sa cohérence et le verrouillage panoptique qui le caractérisait, ne semblent avoir eu d’existence réelle que sur le papier, dans les discours, dans les décisions politiques, mais guère dans les processus organisationnels. Plusieurs observations rendent cette situation surprenante, voire paradoxale. En premier lieu, la direction de l’IFA, qui apparaissait fortement autoritaire si l’on considère le management de la réorganisation, n’a jamais sanctionné le fait que les procédures normalisées ne soient que très imparfaitement suivies, et que le système de GED ne soit pas utilisé, alors qu’il avait été présenté comme obligatoire. De même, tout en insistant sur la nécessité d’accroître l’efficacité productive, cette même direction se déclare, pour l’instant, incapable de mesurer le coût réel et le degré de rentabilité d’un projet, faute de disposer des outils de comptabilité analytique indispensables. Pour autant, l’IFA continue de fonctionner, même si son chiffre d’affaire est en légère baisse, et les projets sont correctement réalisés du point de vue des clients. Au delà, la logique projet a été complètement intériorisée par les différents acteurs, comme un cadre de référence central. Il en est de même des enjeux économiques et comptables, au point que plusieurs ingénieurs pédagogiques, chargés de mission et de clientèle, chefs de projet, aient élaboré eux-mêmes leurs outils de reporting, sans aucune demande externe. Chacun s’inscrit pleinement dans la « cité par projet », aussi bien sur le plan de l’organisation de son travail, de la reconnaissance de la place centrale du client, que de l’intériorisation des contraintes et évolutions sociétales externes qui rendent inéluctables ces nouvelles manières de travailler. Dans un environnement mouvant, concurrentiel, incertain, il convient d’être efficace économiquement, autonome, réactif, à la disposition d’un client volatil : tel est le nouvel « esprit du capitalisme », qui étend son influence à tous les types d’organisation, pour reprendre l’expression de L. Boltanski et L. Thévenot. Tout en reconnaissant ce cadre général commun, les différents acteurs conservent donc une représentation de la gestion de projet qui leur est propre, les procédures étant appliquées d’une manière spécifique à chaque demande, tout en étant rapportées aux documents normalisateurs. Les salariés permanents de l’IFA regardent leur Institut avec une certaine fierté, s’approprient des éléments de l’évolution et de la performance de cette organisation. Une des personnes rencontrées le désigne comme étant dans le « top five des organismes de conseil » dans ce secteur avec une démarche de qualité. Par ailleurs l’institut est décrit comme un organisme pilote d’un groupement professionnel de référence dans le secteur automobile, du fait d’un engagement dans la formalisation par l’accompagnement de l’activité et par des outils de capitalisation et de traçage des processus de travail. Ce constat permet d’évoquer l’importance de la réflexivité dans cette situation où TIC et évolution des activités et des méthodes de l’organisme s’entrecroisent. Enfin, l’Institut doit maintenant se situer au cœur des objectifs et stratégies du groupement et devient d’un certaine manière une branche d’activité métier alors qu’il bénéficiait auparavant d’une plus grande indépendance moins directement liée à des objectifs commerciaux et financiers. La fonction pionnière, pilote, de l’IFA qui est reconnue par ses membres devient alors plus délicate : elle est amenée à rejaillir sur l’ensemble du groupement et se situer plus maintenant au cœur même de celui-ci qu’au sein de l’IFA, ce qui peut traduire une perte de singularité chez ses membres. D’ailleurs, tous les acteurs partagent une forme d’inquiétude commune sur la place de l’IFA dans le groupement (non pas au sens de la contestation mais plutôt sur ce que deviendra la légitimation du rôle de l’IFA). 2.2. Une organisation paradoxale ? 59 60 L’IFA semble donc constituer une forme d’organisation inhabituelle voire paradoxale, que nous serions tentés de qualifier de « hiérarchico-autonome », dans la mesure où elle repose sur le fonctionnement simultané d’un management fortement autoritaire et formalisateur, mais déconnecté de structures projets fonctionnant de manière autonomes, voire indépendantes. La démarche de gestion de projet a rendu l’organisation plus mouvante, centrée sur l’apprentissage (auto apprentissage) permanent en liaison avec des normes, des références mais qui ne constituent pas actuellement un capital intégré et collectif. Il s’agit plutôt d’une référence disséminée, intériorisée, diversifiée. Il y a une forme de cadre garant de la gestion de projet sous contrôle de procédure homogènes qui de fait semble plus s’établir comme une référence partagée mais hétérogène. Ce décalage entre l’organisation voulue et l’organisation réelle repose sur trois axes majeurs. En premier lieu, l’organisation de l’IFA est hétérogène, dans sa définition et sa représentation selon les acteurs, leur rôle et leur positionnement, prise dans un processus de changement permanent. L’organisation « voulue » est donc seulement vécue comme une possibilité parmi d’autres. Parallèlement, le modèle d’organisation « voulue » qui est proposé dans la réorganisation se heurte à une approche individualisée où les rôles et attributions de chacun sont susceptibles d’être bien définis mais sont de fait mouvants selon le rôle antérieur aux mutations récentes, la place que les acteurs occupent temporairement dans la culture projet (chef de projet, formateur référent, acteur-ressource). Ce système de rôles intériorisés entre en complément ou en opposition avec une culture faite de référents communs et collectifs associés aux métiers et à la réorganisation. Enfin, tandis que les contraintes externes – concurrence, pression des clients, exigence de flexibilité – tendent à être internalisées, le rôle des prestataires externes, en particulier les formateurs, n’est pratiquement jamais évoqué par les acteurs que nous avons interrogés alors qu’ils occupent une place croissante. Il est à noter que les formateurs titulaires de l’IFA font de moins en moins de formation en face à face des stagiaires, mais assurent principalement des fonctions de conception pédagogique, ce qui les rapproche des « ingénieurs pédagogiques » en titre. De fait, ce que nous décrivons ici comme un système identitaire et actanciel, renvoie à l’affrontement entre un processus de rationalisation qui se développe sans tenir compte du passé et une culture intégrée dans les références métiers/rôles/missions des acteurs, issue du poids de fondamentaux encore présents dans l’esprit de nombreux acteurs. Pouvons nous parler d’une lutte entre deux formes d’acculturation ? L’une prenant ses sources dans l’histoire de l’institut, ses racines, son positionnement de spécialiste du métier de l’automobile, face à l’autre plus axée sur la compétence conseil, expertise, qui s’éloigne de la spécialité métier pour évoluer vers l’ingénierie de formation et de conseil appliquée au secteur automobile. Il s’agirait de la coexistence et de l’opposition entre une organisation ancrée dans les pratiques et une autre, à l’état de modélisation. Ainsi, l’organisation « voulue » décrite et prescrite dans le dispositif de rationalisation organisationnel articulant GED – workflow, nouvelles fonctions et formalisation des activités, apparaît très décalée par rapport à l’organisation réelle. Au-delà de sa traduction concrète dans les formes de l’organisation, ce dispositif apparaît comme une construction symbolique, qui vise à donner une image de rationalisation des activités plus qu’il ne les rationalise véritablement. Il décrit l’organisation telle qu’elle devrait être pour respecter les principes de gestion de projet conventionnellement admises (l’idéal type de la « cité par projet »…) sans que la non application des prescriptions ne soit sanctionnée. Néanmoins, la présence de ce dispositif est suffisamment forte pour susciter l’autocontrôle et l’intériorisation des objectifs organisationnels, voire la justification des actions en référence aux principes de « projet ». On peut se demander si l’efficacité des TIC et des transformations organisationnelles associées ne résiderait pas davantage dans les changements de représentations qu’elles induisent et relaient, dans leur capacité à susciter mobilisation individuelle, autocontrôle et autorégulation, que dans leur contenu effectif. Au-delà du changement réel de l’organisation par la mise en œuvre du dispositif, c’est davantage la référence à une forme organisationnelle idéale-typique – l’organisation associée à la cité par projets – qui prévaut. Ses contours renvoient à des représentations communément admises, à des outils informatiques, à des structures et participant à l’invocation d’un cadre idéologique décrivant une organisation gérant des flux de projets, flexible, efficace et compétitive grâce à la normalisation et aux TIC. L’organisation et sa représentation performative se rejoignent... 3. Processus de cadrage du système socio-technique et « forme organisationnelle » 3.1. Dispositif et « processus de cadrage » L’intériorisation des valeurs de cette forme organisationnelle générique semble s’opérer au travers de rôles joués par les acteurs en situation, et plus largement, dans la mise en scène, au sens où l’entend Goffman, de leur action pour qu’elle apparaisse sérieuse auprès de leurs partenaires. Ils s’adaptent de manière primaire, en se conformant au rôle que l’on attend d’eux, mais aussi de manière secondaire, dans la mesure où ils dérogent aux règles prévues pour conserver leur identité mais aussi pour parvenir à réaliser leurs objectifs. Ces processus de cadrage, qui conduisent à définir le contexte des interactions afin d’orienter les interprétations, s’appuient sur des normes extérieures, les adaptent, mais en même temps contribuent à les propager. Il y a finalement un point d’achoppement entre le symbolique et le fonctionnel. Si la gestion de projet a trouvé sa place et si elle est légitimée par les acteurs sur la base de motivations souvent identiques (changer, être plus performant, avoir un capital de mémoire réactive, mieux maîtriser les coûts et la réactivité de la démarche en équipe) ; elle est diversement intégrée dans les pratiques et diversement appropriée par rapport aux normes de fonctionnement et aux outils intégrés dans le dispositif. Il y a donc des enjeux significatifs liés à la légitimation, à l’identité, à la place, au rôle, et à une dimension collective homogène. Nous rappelons à ce sujet l’expression de Goffman de « contexte social structurant, dans lequel plusieurs rassemblements sont susceptibles de se former, de se dissoudre et de se reformer, et dans le quel un modèle de conduite tend à être reconnu comme le modèle approprié et souvent officiel, ou comme le modèle voulu » Dans ses différentes composantes (outil, normes, fonctions) et bien qu’il ne soit pas opérationnel selon les modalités initialement prévues, le dispositif intègre les dimensions macro et micro sociales de l’activité, et permet d’établir des liens, ou des disjonctions, entre le positionnement individuel (la place de chacun) et collectif (contraintes, prescriptions organisationnelles, représentations individuelles de ces enjeux). Il contribue à façonner différemment les tâches et l’évolution de la fonction dans une dynamique associant formel et informel. Dans le cas de L’IFA, l’outil de gestion de l’information est présenté comme devant être un support de formalisation de taches, qui se traduit sous la forme de gestion 60 61 de projets. Il doit aussi favoriser la reprise de connaissance et le retour d’expériences sur des projets. Il englobe ainsi une fonction de mémoire partagée et une fonction éditoriale, avec des droits de consultation et d’écriture répartis en liaison avec le statut des personnes ou du rôle qu’ils peuvent jouer. Audelà, ce même outil devient alors pour beaucoup un alibi de fonctionnement collectif et référentiel. Il sert alors des usages individualisés (consultation par un chef de projet d’anciens projets compilés, fonction mémoire et rappel, utilitaire) mais sans que le requérrant sache s’il dispose de la bonne version. Ce peut être aussi un outil de veille et de recherche en fonction d’un projet spécifique, fonction de stockage (mise en ligne de versions de documents réalisée lors de démarrage de projets ou de réponses clients avec les problèmes d’identification soulignés). Il s’interpose donc dans la tache plus que dans l’activité, comme un support de ressources individualisé en fonction des besoins. Ce n’est plus un outil de capitalisation collective mais plutôt d’empilement de ressources individuelles. L’outil est donc réapproprié, mais non partagé et s’insinue dans des usages particularisés. Il n’a donc pas une dimension structurante et organisante. Il stimule les opérations des acteurs dans une démarche singulière mais il ne peut constituer un support organisationnel pour définir des pratiques communes et harmonisées. Pour autant, il prend place dans des logiques de projet largement intériorisées. De fait, lorsqu’on entre dans le social et le construit vivant , on s’aperçoit qu’il y a plus de principes que de réalités quant à l’ensemble de ces prescriptions. L’outil se révèle de fait contraignant quant à la saisie et à la formalisation d’informations, le recours à des processus de validation éditoriale étagée est complexe et peu réactive. Les usages individuels fortement marqués par une culture métier liée au domaine de la formation dans les activités de vente ou de techniques liées à l’automobile résistent à des procédures généralisantes et communes d’autant plus qu’une sensibilisation à l’outil ne s’est pas faite de façon suivie et surtout que des démarches d’accompagnement n’ont pas eu lieu. Les motivations vis-à-vis de l’outil apparaissent comme très hétérogènes. La panoplie des outils qui devait fonder une culture de travail intensive et globalisée se traduit plutôt par des positionnements réactifs, individualisés. Il y a une forme de capitalisation mais sans qu’une identification précise des ressources informationnelles soit possible quant à l’utilisation des documents remplis sans références identiques d’un acteur à l’autre (quelle version, à quel moment, pourquoi, identification de l’auteur en fonction d’une légitimité). Les utilisations de l’outil s’orientent donc plus vers la gestion des ressources de métiers et de tâches en situation que comme un dispositif orienté vers la compétence (l’idéal du Knowledge Management). Enfin, les représentations sont éclatées selon les acteurs, avec des traces encore prégnantes de la culture métiers (individualisme, perception axée sur le produit moins que sur la démarche, persistance d’une qualité de la réponse fondée encore dans la relation avec un catalogue de formation impliquant une réponse apprêté) et moins sur la proposition adaptée à la demande. Ceci instaure une disjonction entre l’outil de gestion de l’information et les pratiques, qui s’étend à l‘ensemble du dispositif de rationalisation. Il semble impossible que le dispositif et les procédures puissent se positionner entre deux cultures : une culture d’ingénierie (faite de référencements, de contrôle), et une culture métier (qui s’appuie sur des ressources en situation et un partage de savoirs liés au besoin et non au principe établi). 3.2. Bilan : l’intégration d’une forme organisationnelle plus que le changement de l’organisation ? Les outils et les dispositifs dans lesquels ils s’inscrivent sont censés en théorie fonder la « dynamique de l’organisation » dans le cadre d’une « bonne conduite collective », impliquant références communes et des comportements homogènes. Force est de constater que ce n’est pas vraiment le cas de l’outil que nous avons observé… Ceci ne dépend peut être pas du système technique ni des éléments normatifs et fonctionnels qui l’accompagnent, mais d’un travail de réflexion/conception collectif qui n’a pas été effectué ou trop partiellement, et n’a pas produit des façons de faire reposant sur un socle de partage d’objectifs en fonction de la diversité des rôles (acteurs/production). De fait le système d’informations lié à la plate forme documentaire ne peut prétendre fonder des procédures organisationnelles. La capitalisation semble fonctionner du côté des ressources ponctuelles, opportunes, pour chaque acteur à leur niveau et dans leur situation, c’est donc un dispositif de ressources/acteurs lié à une place de l’acteur dans l’organisation. Mais il ne semble pas pouvoir se positionner du côté d’un système de ressources collectives qui fonde une dynamique organisationnelle. En fait, l’outil n’est pas assez souple et plastique, ce qui entre en contradiction avec une activité mouvante, changeante, réinventée et renouvelée à parti de fondamentaux acquis. Muhlmann (2001) nous rappelle ainsi que : « (…) si le processus même de l’informatisation est inévitable, sa forme ne peut être déterminée a priori : tout dépend de la façon dont les acteurs vont se saisir de cette nouvelle incertitude et l’intégrer dans leurs jeux souvent conflictuels. Comme le disent H. Jamous et P. Grémion, « le processus [d’informatisation] est beaucoup moins déterminant que déterminé. Et il peut être diversement déterminé et réorienté par les conflits et les nouveaux groupes que fait émerger sa propre dynamique (…) » (Jamous et Grémion, 1978, p. 214) Pour autant, les acteurs de l’organisation possèdent en commun un sentiment sur l’obligation de changement et d’évolution : évolution des compétences, réorientation de l’activité, dynamique de gestion de projets tracée (coûts, délais, facturation lisible et légitimée…) mais les nécessités ne sont pas comprises de façon convergentes ou orientées dans le même sens. Cette hétérogénéité des points de vue est également favorisée par une explicitation divergente des nécessités de changement. C’est à ce niveau une forme de « conscientisation » (contextualisation) réflexive qui manque. D’un côté, on pense qu’on s’adapte en fonction des clients, de l’autre du fait du repositionnement de l’IFA dans le groupe, soit du fait de contraintes externes ou internes, soit du fait d’une adaptation à l’environnement, soit parce que la pression financière et les objectifs de rentabilité s’accroissent, soit comme une nécessité impérieuse, soit comme une forme de fatalité. C’est le cadrage de l’organisation du travail (et au travail) qui est alors en jeu. De fait, on peut discuter la pensée managériale par le manque d’identification des démarches et motivation des acteurs et leur capacité d’autonomie face au changement et aux outils. On note alors un manque de traduction de l’outil dans l’activité même qui s’affirme comme un cadre d’activité mobile et contingent alors que le dispositif informatique est figé en reléguant les acteurs à en fonction d’exécutant, en situation de dépendance face aux outils (manque flagrant d’accompagnement, d’enrôlement des acteurs dans le processus d’élaboration, de prise en compte des pratiques et des potentiels des acteurs/utilisateurs). C’est ce que nous désignons comme un disjonction entre pensée managériale, dispositif documentaire et informationnel et pratiques en situation. De fait on pourrait dire que le projet de l’institut a été évacué avec l’intégration des outils par peur d’une démarche plus participative qui aurait favorisé une 61 62 dimension conflictuelle et qui a laissé de fait s’approfondir une hétérogénéité des positions et des postures. Il y a une forme de mésestimation des acteurs, une méconnaissance de leurs pratiques qui conduit de fait à fabriquer un outil et élaborer un dispositif de rationalisation imposés en dehors des pratiques et du réel des l’activité plutôt qu’un outil partagé sur des références communes. Mais parallèlement, ce dispositif de rationalisation et le système GED – workflow ne correspond pas à un projet qui serait porté par l’IFA de manière collective et autonome : mis en place pour faire face à des contraintes économiques, commerciales et financières auxquelles sont confrontées de nombreuses organisations. Il repose également sur la duplication de démarches managériales et d’outils informatiques génériques, sans véritable adaptation à une configuration et à une culture spécifique. relevant de « l’esprit du capitalisme » contemporain… Ce que nous espérons avoir établi est que ce discours commun qui tend sans cesse à relier les dispositifs et outils (TIC essentiellement dans ce cas) et les formes et mutations organisationnelles dont ces techniques seraient le fondement nous paraissent ici assez largement invalidés. La structure profonde de l’organisation peut être modifiée et bouleversée par ces adaptations et régulations nouvelles, mais c’est sur le plan social, symbolique et référentiel que la scène se joue. Ce n’est pas tant une mutation collective, effective et globale qui se réalise qu’un ensemble d’interactions, de tensions, de changements ponctuels et nuancés qui laisse entière la question du sens et du mouvement de l’organisation du travail et au travail, traversée et réactivée par l’intégration des TIC dans les cultures et les structures. Bibliographie Conclusion Reposant sur un outil de gestion de l’information, la normalisation et la création de fonctions spécifiques, le dispositif de rationalisation informationnelle et communicationnelle mis en place au sein de l’IFA trouve sa source dans des évolutions socio-économiques externes, en particulier la généralisation des logiques de flux, le renforcement de l’efficacité, l’amélioration des services produits. Parallèlement, il repose sur des conceptions de l’organisation génériques, inscrites dans les modes managériales dominantes – la gestion de projets, la qualité – et sur un outil proposé par une société de services en informatique. Il est également justifié par des discours reprenant ces mêmes thématiques. Ces conceptions de l’organisation et des contraintes organisationnelles et économiques contemporaines sont intériorisées et partagées par la plupart des acteurs de l’organisation, tant elles participent de représentations sociales conventionnellement admises sur le fonctionnement de l’économie actuelle. Ces mêmes acteurs interprètent toutefois les éléments formels du dispositif très librement en fonction de leur situation, de la nécessité de légitimer leur rôle et de réaliser leurs objectifs. Ils contournent, rejètent, complètent parfois les règles qui leur sont imposées, dans des cadres d’action locaux. Ils n’ont de toute manière pas le choix, dans la mesure où ils sont, comme tout salarié, soumis à une forme « d’obligation de collaborer » pour honorer les contrats et conserver leur emploi. C’est pourquoi l’organisation ne sanctionne pas ce non respect, dans la mesure où il conditionne la bonne réalisation des projets, tout en cherchant à renforcer les dispositifs de gestion, de manière symbolique et bien réelle. L’organisation « réelle » ne correspond donc pas à l’organisation « voulue » par le management, sans qu’elle en soit radicalement différente : elle constitue la déclinaison locale d’une « forme organisationnelle » d’un plus grand niveau de généralité, Boltanski L., Chiapello E., Le nouvel esprit du capitalisme, Gallimard, 1999. Bouillon J.L., « Autonomie professionnelle et rationalisations cognitives : les paradoxes dissimulés des organisation postdisciplinaires ». Etudes de communication n°28, p.91-105 Bouillon J.L., « Du partage des savoirs à "l'économie cognitive" : quelles rationalisations informationnelles et communicationnelles ? », in Metzger J.P. (dir.), Le partage des savoirs en contexte : logiques, contraintes et crises, L’harmattan, coll. Communication et Civilisation, p.63-8 Bouillon J.L., Omrane D., « TIC et relations de services dans une économie globalisée : mutations relationnelles et rationalisations productives ». Economie et Sociétés, Série Economie et Gestion des Services n°7, 11-12/2005, p.2087-2116 Foucault M., Surveiller et punir, Paris, Gallimard, 1975. Gadrey J., Zarifian P., L’émergence d’un modèle du service : enjeux et réalités, Liaisons, Collection « Entreprises et carrières », Paris, 2002. Goffman E., Frame Analysis, New York, Harper, 1974. Grosrichard Alain, « Entretien avec Michel Foucault : le jeu de Michel Foucault », Ornicar, n°10, 1977, p.62-93 Jamous H., Geémion P., l’ordinateur au pouvoir, Seuil, Paris, 1978. Mayère A., « Les activités de communication et de production dans les organisations. Apports et enjeux de la recherche en SIC », in Questionner les pratiques d’information et de communication : agir professionnel et agir social, actes du XVème congrès de la SFSIC, Bordeaux, 10-12 mai 2006, p. 431-437 Muhlmann D., Des nouvelles technologies à l’image des vieilles organisations, Éditions scientifiques et médicales Elsevier SAS, Paris, 2001. Reynaud J.D., « La régulation dans les organisations : régulation de contrôle et régulations autonomes », Revue Française de Sociologie, vol. XXIX-1, p.5-18. Terssac (de) G., (dir.), La théorie de la régulation sociale de JeanDaniel Reynaud : débats et prolongements, La Découverte, Collection Recherches, Paris, 2003. Terssac (de) G., Autonomie dans le travail, Seuil, Paris, 1992. Veltz P., Le nouveau monde industriel, Gallimard, Paris, 2000. Winkin Y., Anthropologie de la communication, Editions de Boeck & Larcier S.A./Editions du Seuil, Paris, 2001. 62 63 Une approche des TIC dans l’organisation par la notion de confiance Claudine BATAZZI Université de Nice Sophia Antipolis [email protected] Henri ALEXIS Université de Nice Sophia Antipolis [email protected] Mots clefs : confiance décidée et confiance assurée, culture d’entreprise, appropriation de l’outil, usage, DISTIC (Dispositif socio-technique d’Information et de Communication), théorie de la structuration. Le concept d’homo oeconomicus, cet agent doté d’une rationalité pure et parfaite, bien qu’irrémédiablement contredit dans les années 60 par les travaux d’Herbert Simon, perdure curieusement dans pléthore d’organisations actuelles, évinçant radicalement ou méprisant toutes les approches considérées comme subjectives ou tout simplement délicates à évaluer à l’aune du quantitatif. Il en est ainsi de la notion de confiance ! La confiance n’est pourtant pas écartée des préoccupations de tous les économistes ou gestionnaires. Certains s’y intéressent en effet, depuis peu il est vrai, et posent même parfois la confiance comme le mécanisme central d’une coordination des échanges dans des situations d’ignorance ou d’incertitude [Quéré, 2001]. Il reste cependant à déplorer la rareté de ces travaux et leur inscription davantage dans un paradigme normatif qu’interprétatif. Aussi avons-nous tenté, à travers des apports théoriques et empiriques sur le sujet, d’étudier le lien de confiance qu’entretiennent les salariés envers leur organisation et cela dans une mise en parallèle avec l’usage des TIC (Technologies de l’Information et de la Communication) au sein des organisations. Il s’agit là d’une « réflexion en miroir » où les auteurs questionnent d’une part, l’influence (prometteuse ou limitative) des TIC dans le mécanisme de confiance des salariés et d’autre part, envisagent une nécessaire confiance de ces derniers dans leur processus d’appropriation des TIC. Par ailleurs, si la prépondérance de la confiance dans le mécanisme de réduction de la complexité sociale, ou encore dans la transformation d’accords fragiles en de solides partenariats, n’est plus à démontrer notamment depuis les travaux de Luhman [2001], ses fondements et conditions d’émergence n’en demeurent pas moins fort mystérieux. Lors d’une étude sur le lien social, la notion de confiance fut récemment abordée par d’Almeida ou plus précisément l’absence de confiance des salariés « Le retour du doute, voire de la méfiance des salariés génèrent une relation distancée à l’entreprise » [D’Almeida ; Libaert, 1998]. Face à un tel constat, les auteurs proposent d’analyser une éventuelle influence des TIC dans le développement d’une confiance organisationnelle. En explorant des situations organisationnelles où la confiance apparaît primordiale dans la relation qu’entretiennent les salariés avec leur organisation comme face à une incomplétude de l’information, les auteurs interrogent les TIC dans leur capacité à réduire l’incertitude et la méfiance. Cette approche des situations organisationnelles nous renvoie notamment au concept de culture d’entreprise. Il est exact par ailleurs que la confiance n’est pas exclusivement un acte ou un engagement individuel mais résulte aussi d’une attitude que nous adoptons spontanément dans tel ou tel contexte ou vis-à-vis de telle ou telle institution. Ainsi, dans une relation de confiance avec une entreprise, nous avons tendance spontanément à reconnaître que nous faisons avant tout confiance dans ses employés, mais immanquablement nous sommes ensuite bien obligés de reconnaître que ces employés ne nous connaissent pas personnellement et que, par conséquent les fondements de notre confiance sont incertains [Lorenz, 2001] Nous sommes alors bien forcés d’accorder à l’entreprise, en sa qualité d’institution, notre confiance. C’est précisément dans une vision holiste de l’organisation, que les mécanismes institutionnels s’imposent. Les normes de qualité, labels et chartes éthiques par exemple peuvent être considérés comme des outils de médiation de la confiance recherchée par l’usager dans sa relation avec l’organisation. Notre hypothèse est que les TIC participent, en interne, à l’instauration d’un climat de confiance tout en demeurant fortement dépendants, dans l’appropriation qui en est faite, justement de la confiance organisationnelle émergente. Par appropriation nous entendons un usage personnalisé de l’outil numérique qui inclut aussi bien le savoir-faire commun que toutes les astuces et 63 64 adaptations propres. Dans notre volonté d’apporter un éclairage communicationnel du mécanisme de confiance au sein des organisations par le biais des TIC, notre positionnement de recherche s’inscrit pleinement dans les travaux des chercheurs de l’école de Palo Alto. La confiance fait bien partie intégrante d’un système de communication dynamique qui peut être compris seulement dans une prise en considération du contexte au sens large. Dans ce contexte, nous avons essayé de rapprocher l’usage des TIC et le développement d’un sentiment de confiance parmi le personnel. I - LES TIC DANS LA CULTURE D’ENTREPRISE : UN TERREAU FERTILE À LA CONFIANCE ? Les marqueurs d'une culture d’entreprise ne peuvent être exclusivement représentés par des variables liées à l'exercice de l'autorité, à la gestion des conflits ou encore aux formes de coopération entre les individus [Iribarne, 2000], ils s’étendent aux autres mythes et représentations collectives avec toute la part d’imaginaire associée. Tenter d’étudier la culture d’entreprise dans une vision instrumentaliste s’avèrerait bien vite impossible tant les critères d’appréciation se mêlent, se confondent et se construisent dans des sempiternels processus d’interaction. Aussi notre approche de la notion de confiance dans les organisations via les TIC s’apparentera-t-elle davantage à celle plus englobante de DISTIC. Les DISTIC, rappelons-le, comprennent aussi bien les outils que les échanges communicationnels entre les individus ou bien encore leur représentation individuelle et collective. Nous reprendrons ici l’hypothèse développée par d’aucuns [Andonova, 2005] selon laquelle les TIC renforceraient l’attachement des salariés à la culture d’entreprise, en veillant toutefois à la complexité d’une telle assertion face à des relations d’interdépendances nombreuses, fluctuantes et imprévisibles entre les différentes parties de l’organisation. En étudiant les TIC dans le processus de formation d’une culture d’entreprise par exemple, nous nous trouvons inéluctablement dans la mise en parallèle d’une dimension individuelle et d’une dimension organisationnelle. Ainsi après avoir abordé la confiance comme dimension à la fois révélatrice et structurante d’une culture d’entreprise, nous étudierons le poids de cette dernière dans l’appropriation des outils numériques. La confiance comme reflet de la culture d’entreprise Si nous admettons comme postulat que l’outil engendre un réel changement dans la pratique seulement lorsque son usage repose sur la confiance, nous rejoignons deux concepts fondamentaux : la confiance envers le manager (travaux qui ont fait l’objet d’une précédente recherche) [Batazzi, 2006] et les valeurs qui règnent au sein de l’entreprise à travers le concept de culture d’entreprise, que nous nous proposons d’étudier ici. Deux types de confiance furent mis en exergue par Luhman [2001] : « trust » et « confidence » que nous pouvons traduire respectivement par « confiance décidée » et « confiance assurée ». La confiance décidée (trust) comporte un risque tandis que la confiance assurée (confidence) fait référence à une confiance spontanée. Dans une confiance décidée, nous nous trouvons inévitablement dans une situation de risque. Luhman dit que le défaut de confiance assurée provoque un sentiment de désaffection. Le manque de confiance assurée conduit à s’abstenir d’agir et il devient compréhensible que le salarié ne s’investisse que prudemment dans une situation d’incertitude. Plus précisément un salarié hésitera à prendre des décisions si sa connaissance de la situation et des risques (par exemple les sanctions) demeure incomplète. Si la confiance décidée est inévitable dans un environnement inconnu et implique le risque, la confiance assurée quant à elle relève avant tout, dans une situation organisationnelle, des valeurs véhiculées par la culture d’entreprise. Et Luhman [2001] d’ajouter que la confiance assurée résulte toujours d’une histoire que les acteurs construisent en fonction d’un ensemble d’éléments, du plus fiable ou plus aléatoire à l’instar parfois de la tenue vestimentaire de l’autre... Les travaux de Giddens apparaissent complémentaires à ceux de Luhman [Quéré, 2001]. L’auteur avance en effet la prédominance du caractère répétitif de la confiance. Il existe des situations où l’engagement doit être explicite mais dans pléthore de cas, le mécanisme de confiance s’inscrit principalement dans les routines organisationnelles. Par routine, nous entendons aussi bien des comportements répétés que des valeurs partagées autour de ces comportements. Les TIC font partie intégrante de ce mécanisme en participant à l’inscription des comportements et valeurs individuels dans les schèmes organisationnels. Il ne s’agit plus alors de s’interroger sur la technicité ou l’usage des outils, mais davantage sur leurs acceptations par les usagers. Ainsi en reprenant les deux niveaux de la culture d’entreprise présentés par Schein [1999] à savoir un niveau peu perceptible dont les individus ont peu ou prou conscience, et un niveau plus visible à travers les comportements et l’adoption de règles de conduite, nous nous apercevons en fait du caractère indissociable de l’un et de l’autre. Les règles de conduite et autres codes ne constituent que la partie immergée de l’iceberg. La confiance repose a priori aussi bien sur les valeurs intériorisées en chaque salarié que sur les signes distinctifs de l’organisation tels que la légitimité du dirigeant, la qualité et la fluidité des communications entre la direction et le personnel, l’équité du système de rémunération… Le risque réside alors en des démarches managériales qui confondent, dans une vision volontariste de la gestion des organisations, la stratégie et la culture d’entreprise. La culture considérée dans une logique instrumentale apparaît comme un levier. Orientée ou impulsée par le dirigeant, cette culture risque fort de susciter auprès du personnel un sentiment de méfiance. Celui-ci aura l’impression d’être manipulé. La littérature américaine a particulièrement développé les histoires de leaders qui ont transformé leur entreprise en créant de toute part une nouvelle culture d'entreprise [Livian ; Louard, 1993]. Et curieusement, les récits de dirigeants qui, au contraire, ont bâti leur réussite à partir d’une culture déjà existante, sont beaucoup moins nombreux. On retombe là dans une apologie du changement par les managers où le changement est forcément bénéfique à l'entreprise. Si la culture d’une organisation constitue bien le reflet d’une histoire partagée entre ses membres, elle en est également le moteur. La confiance apparaît alors comme une condition nécessaire au partage des outils et de leurs usages. C’est bien dans la confiance que se développent des relations interpersonnelles basées sur l’échange de connaissances et c’est également la confiance dans les outils utilisés, qui permet d’effectuer ces échanges. La culture d’entreprise dans le cheminement de la techné à l’épistémè Si la technè consiste en l’habilité manuelle ou technique de l’homme, l’épistémè renvoie à la connaissance théorique. Nous suggérons que la culture d’entreprise contribue fortement au passage d’une considération technique de l’outil à sa mise en situation conceptuelle. Ainsi en concédant, dans l’innovation par exemple, que la pratique précède la théorie [Simier ; Levassort, Thierry, 2005], nous admettrons que la 64 65 culture joue un rôle prépondérant dans le repositionnement théorique de la pratique. Le déterminisme technologique n’existe pas dans une réalité organisationnelle, les individus ajustent leurs outils par erreur, par rupture ou encore par glissement. Ils détiennent toujours la possibilité d’agir différemment [Giddens, 1993]. C’est l’usage et l’usage seul, qui constitue toujours d’après Giddens, la valeur de la technologie. Pour illustrer ces propos, reportons-nous au cas d’une entreprise de télécommunication où la traditionnelle fiche de vœux liée à la mobilité des postes fut remplacée par un site sur l’Intranet, qui présentait l’intégralité des postes. Ce changement technologique ne s’est toutefois pas accompagné d’un changement des valeurs et les salariés demeuraient autant suspicieux quant aux méthodes de sélection qui accompagnaient les requêtes [Pelage, 2005]. Culture d’entreprise, confiance et utilisation des TIC apparaissent étroitement liés dans une approche systémique de l’organisation. En nous appuyant par exemple sur la théorie économique de Knight on s’aperçoit que l’incertitude est liée à la confiance qui a son tour est liée à la légitimité que l’on accorde au dirigeant [Laufer, 1996]. Ainsi l’usage d’un Intranet peut même être « boudé » quand les valeurs s’avèrent être en décalage. Il en fut ainsi au sein du Groupe GEM de Marseille partagée financièrement entre la Lyonnaise des Eaux et la Générale des Eaux. Ce groupe, spécialisé dans la gestion de l’eau et de l’assainissement possède une forte culture avec une mission qu’il définit lui-même comme quasi-humanitaire : le droit à l’eau pour tous. Un sentiment de fierté fait l’unanimité auprès du personnel. Ce groupe s’évertue, en vain, à mettre en place depuis trois ans, un système de veille et d’intelligence économique. La partie technique est opérationnelle mais l’usage est décliné par les acteurs de l’entreprise. L’informatisation est ressentie par le personnel comme « une possibilité non explicitée de contrôle ». En fait la confiance insuffisante des acteurs dans leur organisation, explique leur réticence à utiliser l’outil [Boizard-Roux, 2005]. On peut ainsi sommairement conclure à deux formes distinctes de relations entre l’organisation et la technologie, selon si la culture est fortement axée sur l’innovation ou au contraire si la méfiance prédomine. Plus précisément l’opinion de la direction envers les TIC peut jouer favorablement … ou défavorablement dans leur utilisation [Ely, 2005]. Ainsi un discours institutionnel propice aux TIC est susceptible de renforcer l’adhésion des salariés et de les inciter à s’approprier les outils [Andonova, 2005]. De même les outils ne sont pas neutres dans les processus de transformations culturelles. Mais ce n’est pas tant l’outil que la modification de la nature des échanges et des relations qui opère le changement. Cela nous explique, tout au moins en partie, le décalage temporel entre les changements technologiques et les pratiques sociales qui, elles, se révèlent être plus lentes. Enfin, les TIC dans l’organisation peuvent être questionnées sous l’angle du construit social à partir de deux approches : l’approche par la généalogie des usages [Jouet, 2000] où l’usage se construit dans le temps par un processus de découverte, d’essais, d’erreurs et d’apprentissages. - l’approche par l’appropriation qui fait référence aussi bien aux dimensions collectives (notamment celle de culture d’entreprise) qu’aux dimensions cognitives individuelles à travers les savoirs et savoir-faire : « L’appropriation est la façon dont un groupe utilise, adapte et reproduit une structure » [Roux, 2003, p. 221] II - APPROPRIATION DES TIC ET DÉVELOPPEMENT DE LA CONFIANCE DANS UN PROCESSUS RÉFLEXIF La théorie de l’action située de Schuman [1987] apporte des éléments de compréhension au phénomène de développement de la confiance dans les organisations via les TIC. Si, pour Schuman, la situation constitue bien la base de la compréhension réciproque des individus engagés dans une même action, il s’agit avant tout d’une étude des pratiques locales. Les actions ne suivent pas une logique de déroulement mais s’inscrivent au sein d’interactions locales avec les éléments contextuels. Si l’identité située des acteurs fait référence à la connaissance préalable détenue par les uns et les autres, l’identité discursive relève quant à elle, de la connaissance créée au cours du jeu de questions et de réponses c’est-à-dire dans l’interaction. Ces jeux d’interaction se retrouvent dans la théorie de la structuration de Giddens [1987]. Celle-ci présente le contexte tel un phénomène récurrent où les acteurs construisent un contexte qui inéluctablement influence en retour leurs actions et perceptions. Ainsi les schémas d’interprétation se créent aussi bien par les savoirs que par les relations qu’entretiennent les individus entre eux. Ces schémas constituent un mélange complexe d’actions et de processus de mémorisation qui interviennent à la fois à un niveau individuel et à un niveau collectif. Enfin l’appellation de TIC ne recouvre pas seulement des outils sophistiqués de communication mais s’étend à la notion plus complexe et englobante de DISTIC (Dispositif sociotechnique d’information et de communication). La réussite ou l’échec d’une application via les TIC résultent tant de l’outil que de son usage et d’une manière plus large du contexte dans lequel l’application s’inscrit. La confiance n’est pas absente des composantes de ce contexte. Inconsciemment, la confiance renvoie à des éléments concrets tels que les valeurs énoncées, les actions, les promesses… Ainsi la généralisation des TIC dans les entreprises, par les possibilités d’information et de transparence engendrées, laisse présager un renforcement a priori de la confiance des salariés. Des études de situations d’entreprises que nous évoquerons, relativisent toutefois fortement cette assertion. La théorie de la structuration dans le processus de confiance La théorie de la structuration s’inscrit dans une approche systémique et constructiviste où le contexte ne peut être étudié d’une façon externe à l’individu. Les acteurs façonnent en fait leur environnement qui simultanément pèse sur leurs actions. Se met en place un processus de réflexivité par un retour sur l’action et son contexte. « La structuration est conçue comme un processus social qui inclut l’interaction réciproque entre les acteurs et les caractéristiques structurelles des organisations » [Mayère, 2003]. Une organisation peut être définie à l’instar d’un construit humain et social par un jeu d’interaction et cela dans une perspective historique. Ainsi la théorie de la structuration analyse toute organisation à travers trois dimensions : la structure, les interactions et les modalités de structuration. Et la confiance peut apparaître comme le socle commun à ces trois dimensions. La confiance avait ainsi été définie par Kenneth Arrow comme un sous bassement nécessaire au bon fonctionnement de l’économie, idée d’« institution invisible » [Laufer, 1996]. De même il n’existe pas en pratique de distinction entre la conception et l’appropriation, la conception demeurant sous l’influence des usages présents ou antérieurs [Roux, 2003, pp. 217-222]. 65 66 Le processus d’appropriation fait référence à la fois à l’empirisme et à la cognition. Ceci explique la diversité des usages possibles pour des outils semblables. Une distinction devient pourtant nécessaire entre une perception de la technologie comme artefact et dans ce cas, on met l’accent sur la dimension structurelle et la structure en projet, et une perception de la technologie comme dimension sociale et l’accent est alors posé, sur la structure en action [Roux, 2003, p. 247]. L’apport de la théorie de la structuration [Giddens, 1987] demeure fondateur dans l’étude des interactions. Cette théorie souligne l’émergence des propriétés structurelles à travers les actions quotidiennes des individus. Bien évidemment ces dernières orientent les actions futures. Il s’agit d’un processus réflexif dont le fondement consiste en un retour de la conscience sur soi, tout élément demeurant en relation avec lui-même. Les chercheurs du courant de la théorie de la structuration ont malheureusement tendance à isoler la technologie pour la positionner en relation avec le système organisationnel. En analysant les travaux de Orlikowski [2000] qui tentent de compléter les apports de la théorie de la structuration par des approches centrées sur le contexte comme la théorie de l’action située, nous pouvons effectivement dépasser cette limite en considérant la technologie, l’action humaine et la situation, de façon interdépendante et conjointe. Il devient alors impossible de les dissocier. On note par ailleurs deux inscriptions de l’usage des TIC dans une sphère professionnelle, l’une dans l’activité quotidienne et l’autre dans le symbolisme, à travers la perception de valeur et de sens. « Les Tic font partie de l’univers professionnel pratique et symbolique » [Bourdin, 2005]. Nous rejoignons bien ici la dimension subjective de la confiance au sein d’un environnement culturel qui ne l’est pas moins. Des TIC à la notion de DISTIC pour mieux comprendre le processus de confiance La culture d’entreprise ne peut être étudiée exclusivement dans une approche systémique et seule une perspective interactionniste est susceptible de rendre compte du processus d’émergence. Les différents éléments qui interagissent en son sein, les DISTIC (Dispositifs socio-techniques d’Information et de Communication) apparaissent comme des composantes majeures dans le processus de confiance. Les termes de « dispositif ” et “de technique ” sont à envisager alors dans leur acception la plus large, c’est-à-dire celle qui dépasse l’idée d’un outil au sens restrictif de technologie, par exemple. Nous admettons le postulat que la technologie et son usage sont indissociables. Quant à la signification qui en résulte, elle se construit par et dans les contextes matériel et symbolique. L’interaction ne peut être comprise qu’à travers la prise en compte d’un système culturel plus vaste où s’inscrit parfaitement la notion de confiance assurée telle que nous l’avons défini précédemment. Ainsi, nous embrassons pleinement l’idée que le contexte prime sur le contenu et la signification sur l’information. Si une culture est bien le reflet des caractéristiques propres à un groupe, sans toutefois en être la somme, on ne cherche pas moins à expliquer le rapport entre l’individu et le collectif à travers un véritable questionnement où la notion de confiance se retrouve en toile de fond : Quel poids détient la culture dans une action individuelle ? Quelles forces externes stimulent la culture ? Quel mécanisme permet d’expliquer le passage d’une confiance individuelle à une confiance partagée ? Aux jeux délibérés des acteurs de l’organisation et à leurs comportements qui se veulent rationnels se mêle une grande part de subjectivité et d’irrationnel. « D’une part la culture suppose l’existence d’un tout cohérent ; d’autre part, elle intervient dans l’action individuelle mais à travers des références partagées, sans même que l’individu en soit conscient » [Thévenet, 2003, p. 35]. Les échanges interpersonnels relèvent en effet, en majeure partie, du symbolique. Et si le symbole facilite l’expression de l’abstrait, il demeure souvent incompréhensible pour le profane. Dans ce cas, ce dernier se trouvera plus facilement en situation de confiance décidée, ne détenant qu’une connaissance partielle (la plus visible) des rouages de l’organisation. De même les trois approches de la culture avancées par Smircich [1983] à savoir cognitive, symbolique et psychodynamique permettent d’éclairer le processus de confiance. Chaque approche met en exergue un ensemble de DISTIC qui éclaire et façonne à la fois les comportements des acteurs de l’organisation. Ainsi dans une approche dite cognitive, le chercheur s’attelle à l’identification des connaissances, croyances et systèmes de représentations communs aux individus. La confiance relève en grande part du symbolique et s’appuie essentiellement sur le poids de l’expérience. On peut alors constater un jeu de projection réciproque entre les DISTIC et la culture. En effet, ces dispositifs façonnent les savoirs et les représentations des individus tout en demeurant le fruit des nouvelles connaissances. La récursivité du phénomène d’émergence culturelle se retrouve aussi dans l’approche symbolique où l’acte détient moins d’importance que la signification qu’il revêt. La confiance prendra appui ici davantage sur des éléments subjectifs tels que le charisme du manager, la force des valeurs présentes… Le jeu des interactions se retrouve également dans l’approche psychodynamique où le contexte culturel est étudié sous l’angle de sa co-construction avec les logiques d’évolution. Nous nous approchons davantage ici d’une confiance décidée où les risques et doutes sont pesés par les acteurs. Les schémas d’interprétations des individus ne sont donc pas constitués exclusivement par les reflets des caractéristiques de l’environnement ou de la société, mais sont négociés en permanence par les acteurs à travers les différents DISTIC. Cette négociation s’inscrit dans un phénomène de construction d’identité collective qui participe – ou pas….- à la formation d’une confiance assurée. En guise de conclusion…. Nous avons tenté dans cette communication d’interpeller la notion de confiance dans le processus d’appropriation des TIC au sein des organisations en prenant fortement en considération le concept de culture d’entreprise. Nous avons été confrontés au caractère paradoxal de la relation entre la culture d’entreprise qui repose sur le passé et la tradition et, les innovations technologiques axées plutôt sur le changement et le modernisme [Chouteau ; Nguyen, 2005]. De ce paradoxe inévitable, nous envisageons une dimension supplémentaire à l’étude des outils numériques, celle de la relation entre la confiance et les TIC qui s’inscrirait principalement dans une approche symbolique de l’organisation. Nous délaissons alors radicalement une approche rationnelle et instrumentalisée des relations interpersonnelles pour envisager au sein même des organisations, un processus de sacralisation des pratiques professionnelles. Et au-delà de l’outil et de son usage, l’appropriation de l’outil par l’homme relèverait avant tout de la connotation sacrée qu’il accorde à celui-ci : « La communauté ne peut se passer du sacré, car le rapport rituel au sacré a pour fonction d’organiser l’intégration, la différenciation et l’échange dans une communauté » [Wulf, 66 67 2005]. Bibliographie : Almeida D’, Nicole ; Libaert, Thierry (1998), La communication interne de l’entreprise, Paris, Dunod. Andonova, Yanita (2005); « A propos des liens complexes entre culture organisationnelle et dispositifs communicationnels : quelques mises en perspective », in Actes du Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9 décembre. Batazzi, Claudine (2006), « (Ré) introduire la notion de confiance dans les organisations par les TIC », in Actes du colloque Intelligence Informationnelle – culture et confiance pour une économie de la connaissance, CEROM, IR2I, Paris, 29 et 30 juin. Boizard-Roux, Odile (2005), « Culture d’entreprise, système d’information et innovation : réflexions sur un cas pratique », in Actes du Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9 décembre. Bourdin, Sylvie, « Culture organisationnelle et TIC, Contribution à une approche communicationnelle de la culture », in Actes du Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9 décembre. Chevrier, Sylvie, (2003), Le management interculturel, Puf, Paris. Chouteau, Marianne ; Nguyen, Céline, (2005), « Le récit d’une formation technique ou la rencontre d’une culture organisationnelle, technique et pédagogique », in Actes du Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9 décembre. Ely, Frédéric (2005), « Culture et DISTIC : vers un système performant pour la communication interne de l’organisation », in Actes du Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9 décembre. Giddens, (1993), Les conséquences de la modernité, Ed. L’harmattan, Paris. Giddens (1987), La constitution de la société. Eléments de la théorie de la structuration, PUF, Paris. Joüet, J. (2000), « Retour critique sur la sociologie des usages », Réseaux, vol. 100. Laufer, Romain (1996) ; « Quand diriger, c’est légitimer », in Revue Française de Gestion, n° 111, Novembre décembre Livian, Frédéric ; Louart, Pierre, (1993), « Le voyage de la culture et de la motivation », in ouvrage collectif dirigé par Julienne Brabet, Repenser la Gestion des Ressources Humaines, Ed Economica, Paris, 1993. Lorenz, Edward (2001), Confiance inter organisationnelle, intermédiaires et communautés de pratique, in Réseaux n°108, coll. Hermès. Luhmann, Niklas (2001), « Confiance et familiarité », in Réseaux, n° 108, coll. Hermès. Mayère, Anne (2003), « Rationalisation de la communication et organisations contemporaines : le cas de projets d’implantation de PGI/ERP », in Communication et Organisation. Orlikowski, W.J. (2000), « Using technology and constituting structures : a practice lens for studying technology in organizations”, in Organization science. Pélage, Théodora (2005), « Changements socio-culturels et DISTIC dans une entreprise de télécommunications », in Actes du Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9 décembre. Quéré, Louis (2001) ; « Présentation à la confiance », in Réseaux, n° 108, coll. Hermès. Quéré Louis (2001), « La structure cognitive et normative de la confiance », in Réseaux, n° 108, coll. Hermès Roux, Angélique (2003), Evolution des systèmes d’information et transformation des organisations : des dynamiques renouvelées, Thèse de doctorat soutenue à l’Université de Toulouse II, Le Mirail. Schein E.H., (1999), The corporate culture survival guide, Josseybass. Suchman, L. (1987), Plans and situated actions, Cambridge University Press. Simier, Patrick ; Levassort, Denys ; Thiery, Odile (2005), « Entre culture de l’innovation et innovations culturelles », in les actes du Colloque Culture des Organisations et DISTIC, Laboratoire I3M, Décembre. Smircich, L. (1983) « Concepts of culture and organizational analysis, in Administrative Science Quarterly, n° 28. Thévenet, Maurice, (2003) « La culture d’entreprise », Ed. PUF, Que sais-je, Paris, 4ème édition. Wulf, Christophe, (2005) « Rituels, performativité et dynamique des pratiques sociales », in Rituels, Hermès, CNRS Editions, N° 43 67 68 Apprentissage des technologies Quelles pratiques organisationnelles? Corinne Baujard Université de Bretagne Occidentale [email protected] Résumé : L’apprentissage des outils technologiques ne donne pas toujours naissance à de nouveaux modèles d’organisations, même si des potentiels de collaboration remettent en cause les frontières de l’organisation. Dans un domaine où les approches impressionnistes sont liées à des effets de modes ou à des déploiements finalisés, les outils technologiques permettent non seulement de rechercher les effets collaboratifs sur les organisations, mais aussi d’appréhender les changements organisationnels basés sur les technologies. Une série d’entretiens menée auprès de plusieurs entreprises internationales aboutit à une typologie organisationnelle des entreprises. Mots clés: apprentissage, outils technologiques, pratique organisationnelle, gestion des connaissances. Introduction Les récentes mutations de l’environnement technologique modifient sensiblement les stratégies d’apprentissage des entreprises. A l’évidence, les changements technologiques de l’entreprise jouent de plus en plus un rôle central dans la gestion des connaissances de l’organisation. Il n’en demeure pas moins que les expériences font encore l’objet de nombreuses critiques, de relevés d’insuffisances, de retours d’expériences peu convaincants. Lorsque des salariés quittent une entreprise, on constate qu’il est de plus en plus difficile de conserver les compétences qu’ils détenaient. Les entreprises prennent progressivement conscience que les outils technologiques modifient les processus d’apprentissage de l’organisation par leur relation au temps et à l’espace. Certaines ont même misé sur le tout technologique n’hésitant pas à investir dans l’achat de plateformes surdimensionnées. Les entreprises sont tentées de se conformer aux pratiques des organisations concurrentes en raison du caractère stratégique attribué aux connaissances. Elles s’appuient souvent sur des cabinets de conseils extérieurs qui ont tendance à proposer les mêmes solutions technologiques. Les terrains de recherches ont souvent été l’occasion de relever les insuffisances de la formation en entreprise, devenues un thème récurrent dans le quotidien des organisations (Mintzberg, H., 2004). Si les études sur le outils technologiques sont autant présentes dans la littérature académique que dans les publications professionnelles, les avis divergent selon la qualité de celui qui s’exprime : chercheur, consultant, directeur de ressources humaines, responsable de formation, syndicaliste, formateur. Tous reconnaissent tenir compte des résultats décevants de la plupart des technologies d’apprentissage surtout lorsque l’apprentissage se fonde sur un recours intensif aux technologies de l’information et de la communication, les entreprises ont souvent peu de politique managériale en la matière. Dans ce contexte, notre communication vise à mettre l’accent à la fois sur les contraintes extérieures et les préoccupations internes des entreprises dans la gestion de leurs connaissances. La capacité à apprendre plus vite que les concurrents constitue un atout compétitif au changement organisationnel. Tout d’abord, la problématique posée (1) s’inscrit dans le prolongement de plusieurs contributions théoriques (2). La méthodologie inductive repose sur un échantillon d’entretiens analysés selon la Grounded Theory puis codés pour faire émerger les catégories explicatives (3). Enfin, les résultats obtenus permettent d’élaborer une typologie de comportements managériaux dans la gestion des connaissances (4) avant d’être discutés en conclusion (5). 1 - Problématique. Aujourd’hui, les technologies d’apprentissage ont généralement des prétentions démesurées sans réellement convaincre (Renault), répliquant parfois les échecs ERP (L’Oréal). Les entreprises ont des approches divergentes des outils technologiques. Ils peuvent distribuer le savoir par un biais électronique (PSA), dans le monde entier (Valeo), libérer des contraintes de temps et d’espace (Axa), (Air FranceKLM), relier les salariés (Société Générale) les fidéliser (L’Oréal, Univers informatique), faire face aux départs à la retraite (Lafarge, SNCF), former les clients (General Electric). Des effets multiples sur l’organisation apparaissent ; qu’il s’agisse de diffuser la culture de groupe (Siemens), selon des principes pédagogiques (Accor, Thalès), d’orienter vers le 68 69 management de la connaissance (La Poste), de susciter des changements dans les modes de management (CCF). La question du mode opératoire des outils technologiques est en général présentée de manière fonctionnaliste, dans un sens pragmatique de résolution de problèmes. Aussi faut-il se demander si l’apprentissage des outils technologiques favorise-t-il de nouveaux modèles organisationnels sociaux et humains, ou au contraire, s’ils rendent compte d’une rupture entre les pratiques organisationnelles et la stratégie de l’entreprise ? De quelles connaissances ont besoin les entreprises pour réussir un déploiement cohérent avec la stratégie d’entreprise ? Les outils technologiques dépassent la difficulté du peu d’informations sur les variables à prendre en considération au départ. Ils apparaissent comme des indicateurs du management organisationnel, des outils d’une démarche transversale. La dimension sociocognitive de leur apprentissage n’est pas liée simplement aux technologies présentes dans l’organisation. Dès lors notre recherche vise à se doter d’un dispositif pour repérer les types de connaissances organisationnelles, culturelles et techniques indispensables au succès outils technologiques selon les organisationnelles. La spécificité de la méthodologie ancrée (grounded theory) paraît la plus adaptée pour examiner l’apprentissage organisationnel à partir des expériences locales rencontrées. 2 - Contributions théoriques. Il s’agit de concilier les influences mutuelles entre les phénomènes techniques et les phénomènes organisationnels. L’approche évolutionniste des travaux de Nelson et Winter (1982) aide à comprendre l’impact outils technologiques sur l’apprentissage organisationnel qui concerne à la fois la structure et le fonctionnement des organisations dans la mesure où, en général, il accompagne l’implantation d’outils et d’applications informatiques. L’approche systémique décrit l’organisation comme un système complexe qui forme un tout et vit à la fois de façon autonome indépendamment de son environnement, mais aussi fortement en interaction avec lui (Simon, H. A. 1983). Représentant à la fois l’action, l’acteur et la transformation temporelle de l’acteur (Thompson, J. D. 1967), le changement apporté à l’un des composants du système, entraîne des répercussions sur l’apprentissage de l’entreprise (Senge, P. M., 1990). Cette problématique est liée à la nature des outils de gestion qui fait le lien entre un certain nombre de variables de l’organisation : la stratégie de l’entreprise, la structure organisationnelle, le processus de formation. L’organisation se construit par des outils qui lui permettent de fonctionner, qui peuvent engager une transformation des rapports sociaux (Berry, M., 1983) ; « toute formalisation de l’activité organisée, tout schéma de raisonnement reliant de façon formelle un certain nombre de variables issues de l’organisation et destiné à instruire les divers actes de gestion » (Moisdon, J. C., 1997). Chaque outil coexiste dans le cadre de processus d’apprentissage (Hachuel, A., Le Masson, P., Weil, B., 2002). Les travaux classiques consacrés au management des savoirs et aux entreprises apprenantes (Argyris, C., Schön, D. A., 1978), (Senge, P. M., 1990) (Nonaka, I., Takeuchi, H., 1995) révèlent que les capacités des membres de l’entreprise s’ajoutent à ses ressources. Dans la formation, les capacités sont définies par des aptitudes a priori obtenues par le travail. Les compétences sont des aptitudes résultant d’une mise en œuvre en milieu professionnel. Une distinction est faite entre les savoirs tacites qui se transmettent par imitation et expérience et les savoirs explicites qui relèvent de la connaissance car ils peuvent être codifiés et transmis directement. Il existe une dualité de savoirs qui contient les processus émergents qui aboutit à plusieurs usages différents, complémentaires, ou contradictoires. L’apprentissage outils technologiques tend à mobiliser une diversité de théories et compte tenu du choix méthodologique inductif inspiré de la théorie enracinée. Les véritables enjeux stratégiques possèdent plusieurs utilisateurs alternatifs, où l’incertitude relative à la technologie ne produit pas les mêmes usages. Ce particularisme n’est pas forcément synonyme de cohérence organisationnelle. 3 - Méthodologie. Les études empiriques sont primordiales pour faire avancer la recherche et comprendre la relation entre la stratégie de l’entreprise, le choix technologique et le management des pratiques de formation. Aussi, la démarche inductive préconisée par la théorie enracinée de B. Glaser et A. Strauss (1967) a été progressivement étendue à l’apprentissage. Elle donne un rôle prépondérant à la découverte des situations de terrain pour aider à construire un modèle capable d’intégrer l’ensemble de toutes les données recueillies. Il a été retenu un échantillon de vingt-huit entreprises très diverses, autant par la taille que par les secteurs d’activité. Au début, l’échantillon a été constitué selon « l’effet boule de neige » qui a permis d’identifier les cas significatifs grâce à des personnes qui connaissent d’autres personnes qui connaissent des expériences de déploiement outils technologiques (Lincoln, Y. S., Guba, E. G., 1985). Pour prendre du recul, la sélection des premières entreprises a permis de faire émerger les premières unités d’analyse. Les entretiens ont permis les comparaisons sur le terrain, de rechercher des catégories, puis de formuler des propositions explicatives. Tout d’abord, nous avons choisi des cas similaires répondant aux variables opératoires du cadre théorique. Puis, de façon à répondre à la logique de « dispersion », et d’augmenter la fiabilité des résultats, nous avons élargi l’étude en trouvant les cas contrastés afin d’accroître la validité des conclusions (Glaser, B. G., Strauss, A. L., 1967). A cette fin, la méthode suivie a été soumise à un contrôle de validité, autant externe qu’interne. La validité externe généralise les résultats à partir des données recueillies qui peuvent couvrir de multiples situations pour réduire au maximum la subjectivité. Au surplus, il est indispensable de confronter en permanence les données à la littérature pour mieux comprendre la réalité. La validité interne fait référence à la crédibilité des résultats de la recherche par rapport à d’autres modes d’accès des connaissances. Les entretiens ne doivent être que très peu modifiés lors de leur appréhension, car la Grounded Theory insiste fortement sur le lien entre les données recueillies. Ils ont néanmoins été parfois réinterprétés pour une meilleure compréhension. Afin d’assurer pleinement ces impératifs de validité, les entreprises ont été sélectionnées en fonction des possibilités d’un large accès à leurs informations, de la représentativité des diverses configurations des groupes stratégiques (Thomas, H., Venkatraman, N., 1988). Elles interviennent dans les secteurs de l’assurance, de la banque, de la construction et de l’équipement automobile, de l’énergie, des télécommunications, de la parfumerie, du tourisme et des transports. A ce stade, il s’agit de générer des propositions à partir de discours éparpillés, de mettre en lumière des articulations. L’analyse du terrain se compose de plusieurs activités : la condensation des données brutes des notes de terrain, leur présentation, l’élaboration des propositions. L’analyse des entretiens des responsables de formation débute par le codage en tenant compte des unités d’analyse, indicateurs d’où émergent ensuite des propositions théoriques qui peuvent être « générées initialement à partir des données, ou si des théories (enracinées) préexistantes semblent 69 70 appropriées au domaine de recherche, alors celles-ci peuvent être retravaillées et modifiées au fur et à mesure de leur confrontation méticuleuse avec des données nouvelles » (Strauss, A., Corbin, J., 1994). Le recueil s’achève lorsque les responsables ont répondu à l’ensemble des situations possibles. Pendant ce travail, il ne faut pas cesser de penser qu’il va falloir ultérieurement lier des unités d’analyse à des catégories plus générales. En effet, l’analyse de contenu implique de diviser les discours en unité d’analyse pour créer un travail de catégorisation afin de définir un univers de référence du discours (Glaser, B. G., Strauss, A. L., 1967). C’est ainsi que chaque catégorie trouve un écho dans le discours et dans les questions de recherche. La liste de départ des codes a été constituée à partir des premières unités STRAT (stratégie). Unités d’analyses illustratives Codes-clés Contexte interne CI Entreprise de transports : « Le outils CI-STRATE technologiques est une décision stratégique au sein de l’organisation, un outil de reconnaissance du capital de chaque salarié, afin d’être une solution pour prendre un avantage sur le marché. Les outils technologiques change la gestion des connaissances ». Entreprise de conseil : « Les situations de CI-CONF travail auxquelles ont dorénavant à faire face les salariés ont profondément évolué. Ils n’ont plus à réaliser des tâches codifiées à l’avance, mais à faire face à des demandes imprescriptibles. Là où régnait une forme de certitude se sont substitués les aléas d’événements externes ou internes affectant le mode de décision ». Entreprise informatique : CI-FRONT « L’intranet permet de relier le salarié à ses connaissances tout en développant ses compétences. La mise à jour se réalise par l’individu lui-même, il peut savoir à tout moment où il en est, combler l’écart avec les informations détenues par les clients ». Entreprise industrielle : « Nous disposons de CI-CUL deux campus technologiques pour nos salariés en France et au Royaume-Uni. Ils ont pour mission de développer des programmes centrés sur la culture du groupe dans plusieurs champs d’expertise et de connaissances qui peuvent constituer un facteur de résolution de conflits avec les acteurs ». Banque « Nous avons choisi le outils CI-CONT technologiques pour répondre à la volonté stratégique de l’entreprise, les métiers sont impactés par les nouvelles technologies qui demandent des salariés mieux formés ». Entreprise de bâtiment : « L’ensemble de CI-MIM l’application des outils technologiques a été développé par un consultant spécialisé dans l’ingénierie et la production multimédia ». Syndicat : « La formation des outils échappe encore souvent aux périmètres des expérimentations. La question des temps nécessaires d’apprentissage outils technologiques est posée comme toujours en matière d’introduction des TIC ». ……………………………………………… Tableau 1 - Exemples d’analyse des données. CI-RAT …… d’analyse. 120 codes ont été établis, puis rassemblés en catégories pour finalement être regroupés dans un code book faisant apparaît le tableau de codes en thèmes. Il a été structuré avec les noms des répondants dans la première colonne du tableau, et 80 codes-clés répartis verticalement au regard de chacun d’eux. Il est possible ensuite de se reporter aux citations des entretiens qui justifient le codage. Il est donc facile de comparer les réponses de chaque entreprise sur tel ou tel thème, de rapprocher des firmes entre elles d’isoler certains paramètres. Chaque code doit être court et mnémonique, faire référence à une « catégorie principale » et une « sous catégorie ». Ainsi, « CI » se réfère à la catégorie (contexte interne) et à la sous catégorie Codage axial Stratégie formation La conception traditionnelle des outils dans l’entreprise perçue comme des outils d’adaptation de l’organisation du travail apparaît dépassée. Les entreprises qui ont adopté les outils technologiques insistent sur le caractère incertain de ses effets sur la configuration de travail, sur l’expérience des acteurs. Elles redoutent une grande diversité d’utilisations L’investissement est important dans le secteur informatique (sensible à la pression de la concurrence en raison de la complémentarité dans l’utilisation des outils, autant pour l’organisation que pour ses clients, partenaires et fournisseurs. Certains salariés refusent d’utiliser la nouvelle technologie mise à leur disposition en raison de conflits passés dont ils ont été des acteurs ou du déploiement d’autres outils en l’absence de considération des réels besoins. La décision d’adoption des outils technologiques correspond parfois à une démarche de rationalisation. qui révèle le souci de développer des outils. Le recours aux outils de gestion dépend des capacités d’adaptation de l’organisation aux contraintes technologiques. Les outils technologiques sont parfois difficiles à déployer dans certains contextes organisationnels. Ce raisonnement fonctionnaliste fonde sur une vision rationnelle de l’environnement. L’organisation apparaît comme un ensemble de processus de gestion susceptible de résoudre des conflits. ……………………………………… 70 71 Dans le codage par induction selon la Grounded Theory, on commence par l’analyse d’un petit nombre de données, qui est ensuite élargi en fonction de la théorie qui émerge. C’est pourquoi les entretiens ont été ajoutés au fur et à mesure, dès que les expériences des entreprises sont devenues plus évidentes. En effet, les catégories doivent être révisées en fonction de réflexions continuelles ; il ne faut pas perdre de vue que la méthode de comparaison des données débute par leur définition qui s’effectue durant le codage. Les différentes unités repérées sont regroupées en catégories en fonction de leur ressemblance, puis les unités sont classées et les catégories définies. Le codage est toujours délicat, car il doit impérativement apparaître à la fois ouvert, axial et sélectif. Le codage ouvert se rapproche le plus possible des notes prises. Chaque entretien a généré la retranscription d’environ 10 à 30 pages. L’ensemble des données permet d’aboutir à une série d’unités d’analyses : contexte (interne ou externe), variables explicatives, stratégie cohésive du outils technologiques. Il sert également à fixer des catégories réunissant les diverses incitations tirées du contexte à partir des fonctionnalités techniques de l’outil. Dès lors, on peut regrouper les unités d’analyse retranscrites. Les catégories sont progressivement établies selon une liste de code. Au cas où une catégorie regroupe plusieurs observations similaires, un code est donné à chaque catégorie. Le codage axial transforme les unités d’analyses en catégories. Il sert à repérer les régularités entre le contexte de l’environnement et les comportements d’adoption pour faire émerger les interactions explicatives, comme la standardisation des échanges et les effets de réseaux à l’origine de la stratégie d’adoption. Le codage sélectif analyse les relations entre les catégories et permet la présentation du modèle théorique. Il met en évidence les éléments contextuels: l’exigence technologique, l’environnement économique, la représentation des acteurs et les fonctionnalités de l’outil. Les relations entre les catégories et les éléments contextuels démontrent comment l’apprentissage des outils technologiques est liée à une vision partagée par les principaux acteurs de l’entreprise dont le succès dépend du développement d’équilibres entre le dispositif de formation et son organisation aboutissant à une typologie de pratiques organisationnelles. 4 – Typologie organisationnelle. Une typologie fondée sur la distinction de comportements ambitieux, collaboratifs et négociés des entreprises en matière d’outils technologiques révèle le mode de fonctionnement de la connaissance dans les entreprises. Tout d’abord, les comportements ambitieux relève d’une démarche objective, puisque la gestion des connaissances dépend largement du contexte externe et interne. Les entreprises subissent des contraintes liées à leur dispersion géographique qui nécessitent une maîtrise des savoir-faire et des compétences clés par rapport à leurs concurrents. Elles espèrent généralement réaliser des économies substantielles de frais de déplacement. Les compétences s’appuient sur la capitalisation des retours d’expérience à partir des signaux de l’environnement comme source d’enseignement, conduisant vers une nouvelle organisation des compétences entre la formation transversale et les modes décentralisées d’apprentissage. C’est sur ce point que l’organisation trouve sa réponse dans les pratiques qui placent les outils technologiques au centre de l’activité professionnelle. La stratégie de l’entreprise est suffisamment évolutive pour envisager le changement sur le développement des technologies ; la variable organisationnelle agit fortement sur le système d’information, quel que soit le secteur d’activité. L’investissement dans une plateforme outils technologiques est fréquent dans les secteurs très exposés à la concurrence, tel le secteur industriel. Il n’en demeure pas moins, que les entreprises sont en général très informatisées et les mieux équipées en systèmes techniques. La diffusion des connaissances aisément accessible sur le lieu de travail devient sur le plan technique et organisationnel un support de savoir et d’expertise pour les salariés, une aide à la mise en réseau des pratiques managériales. Puis, les comportements collaboratifs relève d’une approche progressive et prudente dans l’apprentissage outils technologiques. Les entreprises ont conscience de l’intérêt du rôle des outils mais tentent d’élaborer des relations sociales conciliant l’expertise organisationnelle et le changement dans les pratiques de travail. Elles ont très vite pris conscience des connaissances informelles dans le travail et de la nécessité de les retenir en raison du départ de nombreux cadres des entreprises dans les prochaines années. Le partage d’expérience s’exprime à la fois dans l’utilisation des outils technologiques dans la pratique collaborative de l’apprentissage. Les procédures de travail ne peuvent se réaliser sans une refonte des processus d’apprentissage dans la mesure où des ressources librement accessibles sont mises à disposition sur l’intranet de l’entreprise. La gestion des connaissances intégrée à l’activité professionnelle structure le nouvel usage de la formation. Le facteur humain s’avère déterminant. L’entreprise a conscience que la compétence est un enjeu pour sa stratégie, tout en mobilisant directement un ensemble de connaissances immédiatement applicables. Ces entreprises sont moins informatisées et construisent ellesmêmes leurs apprentissages à partir d’une négociation avec les acteurs. Elles tiennent compte des représentations collectives et bénéficient de larges conseils de l’environnement éducatif. Enfin, les comportements négociés ne mesurent pas toujours les conséquences pratiques du déploiement outils technologiques et sont confrontées à la résistance de personnes, d’agencement de l’espace et du temps qui bloque tout commencement de projets. Les entreprises insistent sur la négociation parce que l’approche instrumentale des outils technologiques dépend de choix entre les démarches externes et les pratiques internes. Elles ont cependant un niveau élevé d’efficacité quant au système d’information organisationnel, mais un niveau faible en terme de gestion des connaissances. Face à un environnement technologique fortement contraint, elles ne disposent que de peu de latitude d’action. La formation devient un simple outil de gestion lié aux exigences de l’environnement. De surcroît, l’adoption des outils technologiques reste sous l’emprise directe de logiques financières considérées comme vitales pour la compétitivité de l’entreprise. Au final, quel que soit la typologie retenue, l’apprentissage des outils technologiques révèle la variabilité de la gestion des connaissances qui peut aller de la rationalisation du changement organisationnel jusqu’au développement de l’autonomie managériale. Il faut donc constater que les approches en terme de bénéfices économiques et de stratégies de rationalité parviennent difficilement à mesurer la contribution des outils technologiques à l’organisation car elles perçoivent trop souvent les outils technologiques de façon très différente aussi bien du point de vue de la gestion des connaissances que des conséquences organisationnelles. 5 - Discussion des résultats. Le management des outils technologiques dépend de la cohérence entre l’environnement et les pratiques managériales et techniques existantes dans l’entreprise. Les connaissances diffusées par les technologies de l’information provenant de l’environnement et des relations interpersonnelles et jouent un rôle clé dans le processus 71 72 d’adoption. Lorsque l’adoption est contraignante, la décision apparaît agencée dans l’espace (la pression technologique du système technique, la perception de l’environnement plus ou moins pressante, l’idée que l’on se fait des l’utilisation des outils technologiques). Mais, lorsque le choix est libre, la décision est plutôt de nature temporelle (anticipation de non usage des outils technologiques, mimétisme, mode ou démarche d’un projet d’utilisation dans un contexte managérial). L’environnement technologique et la pression des concurrents jouent un effet d’accélérateur dans la gestion des connaissances. L’investissement technologique est surtout présent dans le secteur industriel qui semble relativement sensible à la pression de la concurrence. L’utilisation a des conséquences sur la gestion de connaissances qui suscite des stratégies variées selon les entreprises selon des utopies plus ou moins contradictoires. Le management des outils technologiques permet de découvrir progressivement la gestion des connaissances de l’entreprise lors des changements organisationnels. Les comportements collaboratifs favorisent la circulation des connaissances dans le temps et dans l’espace. Les outils technologiques ont pour fonction d’informer et de former les salariés. Ils apparaissent comme des outils de gestion des connaissances collectives axés sur des méthodes d’élaboration participative (Lorino, P., 2001). Les valeurs identitaires d’appropriation sont liées aux valeurs de l’entreprise. Les outils technologiques prennent en compte de manière gestionnaire l’espace temporel. Dès lors, la nature de l’outil influence effectivement les comportements et l’apprentissage (Argyris, C., Schön, D. A., 1978). Les connaissances sont portées par le changement organisationnel structuré par des finalités communes résultant d’un processus de création d’apprentissage collectif. Dans tous les cas, un déploiement prudent et progressif des outils technologiques doit être entrepris à partir des histoires réussies. La structure sociale devient très importante. Même si on assiste aujourd’hui, après les premières euphories, à une attitude réservée des organisations envers les outils technologiques, il faut absolument élaborer un cadre fédérateur et collaboratif. Les outils technologiques deviennent progressivement des pratiques organisationnelles, des lieux de capitalisation aux besoins de changement des organisations. Les outils technologiques résident autant dans la satisfaction de nouveaux enjeux stratégiques que dans la gestion du patrimoine intangible. En effet, certains choix organisationnels motivés par des besoins opérationnels deviendront par la suite de nouveaux enjeux stratégiques. Les modes d’apprentissage des outils technologiques réorganisent incontestablement les schémas de pensée qui nécessitent une redéfinition de l’adaptation des compétences. Qu’il s’agisse de réorganiser, pallier les départs en retraite ou améliorer sa compétitivité au sein de processus transversaux pour partager les savoirs, l’impact des outils technologiques sur la gestion des connaissances remet en cause les apparences d’efficacité économique et de réduction des coûts. Mais constater les difficultés de cohérence organisationnelle ne doit pas éclipser les pratiques organisationnelles plus nécessaires que jamais à la gestion des entreprises. Références Argyris, C., Schön, D. A., (1978), Organizational Learning: a Theory of Action Perspective, Addison-Wesley, Reading, MA. Baujard, C., (2004), Motifs d’adoption, processus d’intégration et modes d’apprentissage outils technologiques, proposition d’un modèle stratégique, thèse de Doctorat, Paris-Dauphine, 30 novembre. Berry, M., (1983), Une technologie invisible ? L’impact des instruments de gestion sur l’évaluation des systèmes humains, CRG, Ecole Polytechnique. Chanlat, J. F., (sous la dir.), (2000), L’individu dans l’organisation, les dimensions oubliées, Laval, Eska, (pp. 330). Conseil de l’Union Européenne (2001), Résolution du conseil sur le outils technologiques, Journal Officiel des Communautés européennes, 20, 7, 204-205. Cyert, R. M., March, J. G., (1963), A Behavioural Theory of the Firm, Englewood Cliffs, Prentice-Hall DeSanctis, G., Poole, M. S., (1994), « Capturing the Complexity in Advanced Technology Use: Adaptive Structuration Theory », Organization Science, 5, 2, 121-147. Glaser B. G., Strauss A. L., (1967), The Discovery of Grounded Theory: Strategies of Qualitative Research, New York, Aldine de Gruyter. Hachuel, A., Le Masson, P., Weil, B., (2002), De la gestion des connaissances aux organisations orientées conception , F., Rowe, Faire de la recherche en système d’information, (coord.), (pp. 155-170), Paris, Vuibert. Huberman, A. M., Miles, M. B., (2003), Analyse des données qualitatives, 2e éd., Bruxelles, De Boeck. Kalika, M., (2002), Les défis du management, Paris, Editions Liaisons. Kalika, M., Kéfi, H., (2004), Evaluation des systèmes d’information : une perspective organisationnelle, Economica. Lincoln Y. S., Guba, E. G., (1985), Naturalistic Inquiry, Beverly Hills, CA, Sage. Lorino, P., (2001), Méthodes et pratiques de la performance, Paris, Editions d’Organisations Moisdon, J. C., (1997) (dir.), Du mode d’existence des outils de gestion, Les instruments de gestion à l’épreuve de l’organisation, Paris, Seli Arslan. Mintzberg, H., (2004), « Former des managers et non des diplômés de MBA », Le Management, voyage au centre des organisations, (pp. 151-173), Paris, Editions d’Organisation. Nelson, R. R., Winter, S. G., (1982), An Evolutionary Theory of Economic Change, London, The Belknap Press of Harvard University Press. Nonaka, I., Takeuchi, H., (1995), The Knowledge Creating Company, How Japanese Companies create the dynamics of innovation, New York, Oxford University Press. Orlikowski, W. J., (1992), The duality of technology: rethinking the concept of technology in organizations, Organization Science, 3, 3, 398-427. Reix, R., (2004), Systèmes d’information et management des organisations, 5e éd., Paris, Vuibert. Senge, P. M., (1990), The fifth Discipline, the Art and Practice of the Learning Organization, New York Doubleday Concurrency. Simon, H. A., (1983), Administration et processus de décision, Paris, Economica, (trad. 1947). Strauss, A., Corbin, J., (1994), Grounded Theory Methodology: An Overview, N. K. Dezin, Y. S. Lincoln (Eds), Handbook of Qualitative Research, (pp. 273-285), Thousand Oaks, CA, Sage. Thomas, H., Venkatraman, N., (1988), « Research on Strategic Groups: Progress and Prognosis », Journal of Management Studies, 25, 6, 537-555. Thompson, J. D., (1967), Organizations in Action, New York, McGraw-Hill. Vaujany de, F. X., (2003), Les figures de la gestion du changement sociotechnique, Sociologie du travail, 45, 4, 509-513. Wacheux, F., (1996), Méthodes qualitatives et recherche en Gestion, Paris, Economica. Wacheux, F., (2000), « Le paradigme de la structuration sur l’analyse des situations de travail : effets en retour dans les processus de routinisation », Structuration et management des organisations, D. Autissier, F. Wacheux (dir.), (pp. 297- 301), Paris, L’Harmattan, Logiques de Gestion. 72 73 Technologies de l’information et de la communication et évolution des pratiques professionnelles : le cas des réseaux de santé en France Christian Bourret Université de Marne-la-Vallée [email protected] mots-clés : TIC, pratiques professionnelles, usages, réseaux, santé. Résumé : Les réseaux de santé sont nés d’un besoin d’interface entre les mondes séparés de la médecine de ville et de l’hôpital. Ils se sont développés à partir du milieu des années 1980 comme nouvelle forme organisationnelle innovante centrée sur une approche plus globale de la santé du patient. Ils ont été consacrés en mars 2002. Leur évolution, reposant principalement sur le partage de l’information et la coordination des soins, rencontre désormais la mise en place du dossier médical personnel (DMP) et les autres réformes du système de santé français. Les réseaux de santé sont à un tournant de leur histoire. Leur pérennité et leur légitimité dépendent de leur capacité à construire progressivement de nouvelles pratiques professionnelles reconnues en donnant un rôle nouveau au patient. Introduction Dans un système de santé français caractérisé par ses cloisonnements (notamment entre la médecine de ville et l’hôpital), les réseaux de santé se sont progressivement affirmés comme une innovation organisationnelle. Ils essaient de concilier des logiques d’acteurs différentes en construisant de nouvelles pratiques professionnelles coopératives davantage centrées sur le patient. Nos travaux ont été favorisés par les coopérations nées autour d’un DESS devenu master (Ingénierie des réseaux de santé) de l’université de Marne-la-Vallée. Se situant à l’articulation des enjeux de l’information et de la communication, ils s’appuient sur des méthodologies constructivistes, notamment de « contextualisation situationnelle dynamique » définies par A. Mucchielli (1). Cette communication repose sur l’analyse de documents, de sites Internet, et sur des entretiens avec des responsables et autres acteurs de réseaux de santé, d’organismes de protection sociale et de collectivités territoriales. Elle analyse principalement comment la rencontre des réseaux de santé et de la mise en place du dossier médical personnel va modifier les pratiques professionnelles. L’affirmation des réseaux de santé : innovation sociale plus que technique Les réseaux de santé constituent de nouvelles formes organisationnelles qui ont émergé dans les années 1980 pour répondre à des problèmes de santé mal pris en charge, notamment le SIDA, la gérontologie, le cancer, le diabète ou l’hospitalisation à domicile (HAD) en luttant contre les cloisonnements du système de santé français. Ils ont correspondu à deux approches différentes : celle plus globale de médecins de terrain (réseaux de santé et précarité) et celle d’organisations de protection sociale ou d’assurance davantage limitée aux soins. Leur rôle a été consacré par la loi du 4 mars 2002 relative aux Droits des malades et à la qualité 73 74 du système de santé qui en donne une définition de synthèse valorisant leur rôle de coordination. A ce jour, existent plus de 500 réseaux sont reconnus, soignant 150 000 à 200 000 patients (2). Tout projet de réseau de santé s’appuie sur un système d’information (mais pas forcément informatisé) permettant de coordonner les interventions entre professionnels de santé. Les réseaux de santé correspondent à de nouveaux rapports aux territoires (dématérialisation) qui s’accentueront avec les schémas régionaux d’organisation sanitaire (SROS) de la 3e génération. Ils créent une certaine « extraterritorialité » : le réseau qui « relie autour d’une personne malade l’ensemble des ressources nécessaires », n’est « ni en ville, ni à l’hôpital, ni médical, ni social, mais est tout cela à la fois » (3). Les réseaux de santé peuvent aussi être appréhendés à travers une problématique de franchissement de « frontières » : notions d’interface, de médiateurs, de « passeurs ». Ils peuvent être également analysés à travers le modèle de la compétence étudié par P. Zarifian où la communication nourrit en permanence l’activité (4) pour une nouvelle définition de la productivité et l’émergence de nouveaux métiers d’information-communication (5). Ils relèvent du « procès d’informationnalisation » analysé par B. Miège : élargissement du champ de l’information dans la sphère professionnelle, articulation des trois dimensions macro, méso et micro et médiatisation par la technique des structures de médiation sociale (6). Ils correspondent aussi à l’articulation des logiques de besoins et des usages au sein du paradigme du travail collectif étudié par Y.-F. Le Coadic (7). Le développement des réseaux de santé correspond à une logique de besoins à trois niveaux : communiquer (créer du lien), coordonner les activités et permettre de les évaluer. Pour F.-X. Schweyer (8), les réseaux de santé naissent d’une volonté de « travailler différemment ». Selon lui, ce ne sont pas les procédures ou les outils qui structurent les réseaux mais une conception du soin privilégiant une approche partagée. « Le projet réseau officialise, rend visible une communauté professionnelle qui existe déjà. Celle-ci n’est pas une condition favorable, elle « est » le réseau ». L’obsession informatique à l’époque des systèmes informatiques propriétaires a causé des échecs, certains réseaux ne se sauvant qu’en retournant à un carnet de liaison papier. B. Elghozi a mis en évidence les trois étapes du développement des réseaux de santé (9) : tout d’abord à la charnière des années 1980 – 1990, la création des réseaux de santé notamment par des médecins militants, à partir du milieu des années 1990, la rencontre avec les institutions, et, maintenant, les réseaux doivent construire leur partenariat avec les usagers. Cette dernière étape est selon lui « indispensable pour éviter le risque majeur … l’enfermement dans un circuit fermé de professionnels ». Elle est accélérée par l’usage des TIC, correspondant à la rencontre des réseaux de santé et du DMP (dossier médical personnel). La rencontre des réseaux de santé et du DMP La loi d’août 2004 relative à l’assurance maladie a modifié le contexte au sein duquel évoluent les réseaux de santé. Elle mise sur les TIC en faisant du DMP (dossier médical personnel) informatisé une priorité pour améliorer la qualité des soins, avec le choix d’un médecin traitant, garant du contrôle de la trajectoire de soins du patient. Le DMP comprendra 4 volets différents : identification, données générales (historique, antécédents), soins (résultats d’examens, traitements, séjours hospitaliers …), prévention. Les réseaux de santé et le DMP correspondent donc au même enjeu central de partage de l’information, bien analysé par le rapport Fieschi (10). Selon N. Paquel, le DMP est un « objet politicomédiatique autant que médico-technique ». Sa mise en place correspond à un tournant majeur : « le partage de l’information médicale et l’accès du patient sont sur la place publique : la boîte de Pandore ne sera pas refermée » (11). Il constitue la première opération nationale de grande ampleur dans laquelle l’hébergement de données de santé occupe une place centrale. Le nombre d’informations à traiter augmente : la seule médecine de ville produit plus d’un milliard de feuilles de soins par an sans compter les données nées de la généralisation de l’informatisation de la production des soins (12). Il requiert l’intervention d’un hébergeur de données de santé personnelle (décret de janvier 2006). Beaucoup d’interrogations demeurent. Aussi ambitieux, voire plus que des projets comparables à l’étranger (RoyaumeUni ou Etats-Unis notamment), le DMP français devrait être opérationnel dans des délais beaucoup plus courts (2007), ce qui suscite de vives craintes : calendrier irréaliste, faiblesse du financement … (13), certains n’hésitant pas à parler de « dossier mal parti ». De nombreux travaux et séminaires (Haute Autorité de Santé, GIP-DMP, Unions Régionales de Médecins Libéraux (URML), associations de professionnels …) ont mis en évidence les conditions de succès du DMP : avant tout simplicité d’utilisation et confiance. Il faut éviter les doubles saisies de données et donc assurer leur extraction à partir des dossiers des médecins qui doivent pouvoir continuer à travailler avec leurs logiciels métiers (interopérabilité). La confiance suppose d’assurer confidentialité (secret médical qui devient partagé), sécurité et fiabilité de la protection des données, mais aussi que les médecins et les patients soient convaincus, après l’échec du carnet de santé en 1996, que le DMP n’est pas un gadget de plus, une « usine à gaz », voire, sous couvert de rationalisation, un outil de contrôle des prescriptions et de rationnement des soins. Le rôle central du patient constitue l’originalité du DMP français. Alors que le projet de loi parlait de « dossier médical partagé », le législateur d’août 2004 a voulu un « dossier médical personnel ». Comme pour la décision de confier la gestion et l’archivage des données à des hébergeurs privés (l’assurance maladie aurait pu jouer un rôle pivot), certains y voient l’influence du lobby des médecins pour limiter le contrôle de leur activité. Les conditions de l’accès sont toujours discutées : le patient accédera-t-il directement à son dossier et par téléphone ou ne pourra-t-il y accéder qu’en présence d’un médecin ? Le dossier devra-t-il être exhaustif ou le patient pourra-t-il détruire certaines données ? La question du financement (constitution du dossier initial, hébergement) n’est toujours pas tranchée. Qui va payer ? Le patient ? L’assurance maladie ? Le DMP ne pourra pas résoudre seul le problème de la coordination des soins (14). Il devra s’appuyer dès sa phase d’expérimentation commençant en juin 2006 (6 consortiums d’industriels répartis sur toute la France pour traiter 30 000 dossiers) sur les réseaux de santé et notamment sur les expériences régionales comme la plateforme Franche-Comté Santé (15). Le DMP rend incontournable la rencontre généralisée des réseaux de santé et des TIC. Les réseaux de santé correspondent de plus en plus à une double médiation sociale et technique dont les rapports dans la dynamique d’innovation ont été analysés par J. Jouet (16). L’enjeu majeur : la construction de nouvelles pratiques centrées sur le patient Les rythmes de l’innovation sociale et de l’innovation technique sont très différents : les comportements évoluent plus lentement que les technologies (17). Les réseaux de santé se sont construits progressivement. Les premiers sont apparus 74 75 au milieu des années 1980. Les ordonnances de 1996 ont permis quelques expérimentations. La véritable reconnaissance des réseaux ne date finalement que de la loi de 2002. A Alès (Gard), la ville a mis en place une politique de santé publique en 1990. Les premiers réseaux de santé (soins palliatifs, santé précarité, périnatalité, alcool) sont apparus entre 1993 et 1997. L’association Reseda correspondant à une logique de mutualisation et de territorialisation de la santé a été créée en 1998. D’autres réseaux l’ont rejoint depuis : diabète (1999) et santé respiratoire (2001). Le rythme du temps juridique est plus long que celui du temps technique comme le montre l’exemple du DMP qui relève aussi d’une construction progressive : envisagé dès la loi de mars 2002, décision de création en août 2004 (avec transposition de la directive européenne sur les données à caractère personnel remontant à octobre 1995), décret sur l’hébergement des données à caractère personnel en janvier 2006 (près de 4 ans après la loi de mars 2002 …), expérimentations à partir de juin 2006, la suite devenant beaucoup plus incertaine … La construction des réseaux de santé repose largement sur la négociation. Elle n’est pas seulement une source de régulation, elle est de manière constitutive le cœur même du service offert au patient et à sa famille (18). L’évaluation, considérée comme une démarche de projet qualité aide à faire converger les représentations et à construire du sens partagé (19). La construction des réseaux de santé repose sur la complémentarité de ses acteurs avec l’affirmation du rôle des patients : notion d’ « empouvoirment » (20). Ce « nouveau » patient s’exprime dans des pratiques d’intermédiation (« habitants-relais » du réseau de santé de la cité des FrancsMoisins à Saint-Denis devenu Ville-Hôpital 93 Ouest) ou de vie collective (atelier théâtre toujours à Saint-Denis) novatrices, créant du lien pour aider à retrouver estime de soi et identité. Les associations de patients jouent aussi un rôle majeur dans les maladies rares, la lutte contre les infections nosocomiales ou les erreurs médicales. Organisation apprenante en construction progressive, le réseau de santé forme tous ses acteurs mais construit aussi ses compétences à partir de leurs connaissances individuelles y compris celles des patients. Le DMP doit permettre de mieux travailler, dans une logique de « customization » : standardiser la routine (protocoles et référentiels) pour dégager du temps pour améliorer la relation individuelle avec les patients. Les séances du salon MEDEC 2006 ont mis en évidence combien partager des données avec des personnes qu’on ne connaît pas, suppose un changement profond de mentalités, défi à relever aussi important que ceux de la sécurité des données et de l’interopérabilité technique. Le fonctionnement progressif en réseaux de santé de proximité prend alors tout son sens. C’est aussi la question de la responsabilité partagée, alors que juridiquement elle demeure toujours individuelle. C’est accepter le regard des autres, d’être jugé sur ses pratiques. Le véritable enjeu est celui de l’appropriation des outils pour développer de nouvelles pratiques coopératives. C’est tout l’enjeu de l’accompagnement du changement, car, en l’absence d’une large acceptation, le DMP risque de finir comme le carnet de santé de 1996 avec un coût bien supérieur pour le patient-contribuable (21). Il faut tenir compte de la résistance des médecins libéraux à l’informatique (20 % de médecins ne sont pas informatisés). La rencontre des réseaux de santé et des TIC via le DMP correspond bien à une approche « dialogique » du changement au sens d’E. Morin et J.-L. Le Moigne (22) : synthèse et non plus opposition entre dynamique et résistance au changement. Dans cet accompagnement du changement, les URML et l’Ordre des Médecins veulent jouer un rôle moteur et ont déjà réalisé de nombreux travaux (enquêtes, séminaires) en ce sens. La construction de nouvelles pratiques collectives par les réseaux de santé suppose donc une profonde évolution des mentalités notamment dans le cas de la médecine libérale confondant souvent libéralisme et individualisme. Comme l’a souligné le rapport Fieschi, il s’agit de créer une culture du partage des données et de leur qualité. Cette construction progressive ne peut se faire que sur la longue durée. La dématérialisation des activités médicales et notamment l’utilisation d’un micro-ordinateur est perçue par certains praticiens (majoritairement plus âgés) comme une modification profonde de leurs relations avec leurs patients, allant trop vers une « médecine sans le corps » (23). La construction progressive du réseau bronchiolite Ile-deFrance illustre l’évolution d’une organisation-réseau, des pratiques et du positionnement des acteurs. En 1990, pour répondre à l’angoisse des parents en période d’épidémie (novembre-mars), fut mis en place un système de garde reposant sur le volontariat de kinésithérapeutes et de médecins. En 2001, deux réseaux différents se constituèrent. Sous l’impulsion de l’URCAM (Union Régionale des Caisses d’Assurance Maladie) Ile-de-France, ils se regroupèrent en 2003 dans l’ARB (Association des Réseaux Bronchiolite). Un centre d’appel orientant les parents vers les professionnels volontaires fut créé. Le réseau a tout d’abord organisé les conditions d’une rencontre d’acteurs professionnels qui ne se côtoyaient pas naturellement (rupture de l’isolement professionnel) puis construit une confiance partagée : professionnels (médecins, kiné), familles, institutions. Il a aussi profondément fait évoluer le positionnement du kinésithérapeute : de technicien à la tâche prescrite à partenaire reconnu du médecin (24). Le début de profonds changements dans l’activité des professions de santé Présenté comme l’outil magique pour réaliser le partage de l’information, le DMP n’est que l’un des éléments d’un vaste système d’information en santé : dossier médical d’établissement, télésanté (et notamment télémédecine), informations davantage administratives : Web médecin ou historique des remboursements (dont la généralisation plusieurs fois repoussée est annoncée pour l’automne 2006 et qui pourrait fournir des données pour le DMP), carte Sesam Vitale de nouvelle génération qui devrait comprendre des données médicales et, au-delà, SNIIR-AM (Système National d’Information Inter-Régimes de l’Assurance Maladie), T2A (ou tarification à l’activité dans les hôpitaux), mais aussi logiciels de gestion des cabinets médicaux. Ces outils devront progressivement s’intégrer dans la régionalisation du schéma sanitaire en cours pour former des territoires numériques de santé inter-communicants (25). Certains sont conscients des risques, évoquant « l’équation fatidique » : l’apport d’une nouvelle technologie sur une organisation ancienne en accroissant la complexité et en augmentant les coûts (26). DMP et T2A (financement des établissements par les recettes de leur activité) ne sont que des outils pour améliorer l’efficience (efficacité au meilleur coût) du système de santé. L’enjeu central est celui d’une nouvelle gouvernance sachant articuler les partenariats public / privé. Le DMP qui, dans sa vision actuelle, est confié à de grandes entreprises du secteur privé, peut ainsi préfigurer le nouveau rôle d’interface de l’Etat et de l’Assurance Maladie (incitateurs et évaluateurs). Les partenariats public / privé sont aussi au cœur de la constitution des nouveaux pôles hospitaliers (hôpitaux et cliniques d’un même bassin de santé). La multiplication de réformes simultanées (DMP, T2A, pôles hospitaliers, évaluation des pratiques) suscite des inquiétudes. En outre, des centres hospitaliers sont en train 75 76 d’abandonner leurs systèmes d’information au profit de progiciels de gestion intégrée très structurants type SAP (27), ce qui aura des conséquences sur les pratiques et les métiers et semble en contradiction avec le discours officiel sur le DMP et les réseaux de santé « centrés patients ». Si l’échange puis le partage des données constituent des changements profonds, l’évaluation des pratiques personnelles l’est tout autant : innovation profonde qui constitue une des missions essentielles de la Haute Autorité de Santé en coopération avec les URML. Les pouvoirs publics essaient d’associer les acteurs et notamment les médecins aux réformes en cours. Le rôle des DAM (délégués de l’assurance maladie) qui s’est généralisé au printemps 2005 est d’associer les médecins de ville pour en faire des partenaires responsabilisés de la maîtrise des prescriptions et donc des dépenses. Le contexte global de la rencontre des réseaux de santé et du DMP est donc celui de grands changements reposant largement sur une meilleure utilisation de l’information et une communication améliorée. C’est pour cela que le récent rapport très critique de l’IGAS (Inspection Générale des Affaires Sociales) jugeant les « réseaux de santé plus que décevants » notamment en termes de « service médical rendu aux personnes malades » conseille néanmoins de continuer leur expérimentation car « ils restent potentiellement intéressants» et demande même d’inciter plus fortement les professionnels de santé à s’engager dans ce nouveau mode d’organisation des soins (28). Ses rédacteurs sont conscients que les réseaux de santé correspondent à l’émergence progressive de nouvelles pratiques professionnelles et de « logiques sociales » qui, comme l’a montré B. Miège, se construisent sur la longue durée (29). Conclusion Les réseaux de santé constituent un champ de rechercheaction prometteur à l’articulation de l’information et de la communication, dont l’intérêt est accentué par la rencontre avec le dossier médical personnel (DMP). Ils permettent une approche de l’innovation à travers la double médiation par le social et la technique, en étudiant la formation des usages sociaux des nouveaux outils. Les changements en cours supposent le partage de l’information et l’évaluation des pratiques personnelles, ce qui va considérablement modifier les conditions d’exercice des professions de santé, dans le domaine de la médecine de ville mais aussi de l’hôpital, les réseaux de santé se situant à l’articulation de ces deux mondes trop longtemps séparés. Ils constituent des organisations « hologrammatiques » intégrant la plupart des défis auxquels est confronté le système de santé et ouvrant des possibilités de réponses innovantes. Ils relèvent d’une approche « dialogique » de la complexité : complémentarité du local et du global dans le cadre d’une gestion davantage régionalisée, complémentarité du public et privé avec un nouveau rôle pour les institutions publiques (incitatrices et évaluatrices). Comme l’ensemble du système de santé français, les réseaux de santé sont à un tournant : seront-ils de simples variables d’ajustement ou des vecteurs majeurs de recomposition ? La réponse dépend largement de la confiance des acteurs (professionnels comme patients) et de leur appropriation des nouveaux outils proposés, notamment le DMP, et donc de la construction sur la longue durée de nouvelles pratiques professionnelles avec le patient et sa famille. Références 1) Mucchielli A., Noy C., Etude des communications : Approches constructivistes, Paris, A. Colin, 2005, p. 113-152. 2 ) Poutout G., « Réseaux de santé : créer du lien pour donner du sens », in Cabé M.-H. coord., La santé en réseaux Quelles innovations ?, Sociologies Pratiques, PUF, n°11, 2005, p. 44. 3 ) idem, p. 53 4) Zarifian P., 2001. Le modèle de la compétence, Paris , Liaisons, 2001. 5) Bourret C., “ Réseaux de santé et nouveaux métiers de l’information ”, Documentaliste - Sciences de l’information, volume 41, n° 3, juin 2004, p. 174 - 181. Coudreau D., « Les « autres » métiers de la santé. Hébergeur de données médicales, un nouvel acteur de la régulation de soins ? », Sève, n° 10, printemps 2006, p. 51-57. 6) Miège B., L’information-communication objet de connaissance, De Boeck, Bruxelles, 2004, p. 18 , 64, 111. 7) Le Coadic Y.-F., La science de l’information, Paris : PUF, 2004, p. 110-113. 8) Schweyer F.-X., « Le travail en réseau : un consensus ambigu et un manque d’outils », in Cabé, p. 89 -92. 9) Elghozi B. « Réseau de santé et activité professionnelle », in Cabé, p. 17 – 20. 10) Fieschi M. dir., « Les données du patient partagées : la culture du partage et de la qualité des informations pour améliorer la qualité des soins », Rapport remis au ministre de la santé, 2003, 55 p. 11) Paquel N., in I Médicale, Le Guide de l’Informatique médicale, MEDEC 2006, Paris, p. 28 - 30. 12) Coudreau D., art. cit. p. 52. 13) Jégou J.-J., Rapport L’informatisation dans le secteur de la santé, Sénat, 2005, 65 p. « Le dossier médical rend malade le ministre de la santé », Le Canard Enchaîné, 24 mai 2006. 14) Evin C., in Cabé, p. 13. 15) I Médicale, op. cit. p. 36-37. 16) Jouet J., « Retour critique sur la sociologie des usages », Communiquer à l’ère des réseaux, Flichy P. et Quéré L. coord., Revue Réseaux, vol. 18, n° 100, Paris, Hermès, 2000, p. 489-521. 17) Bellier S., Isaac H., Josserand E., Kalika M., Leroy I., Le emanagement : vers l’entreprise virtuelle ? L’impact des TIC sur l’organisation et la gestion des compétences, Paris, Liaisons – Cegos, 2002, p. 25. 18) Grosjean M., Henry J., Barcet A., Bonamy J, « La négociation constitutive et instituante. Les co-configurations du service en réseaux de soins », Négociations, 2004, 2, pp. 75 – 90. 19) Bourret C., « Construction de sens dans les organisations en réseaux du domaine de la santé ... », Actes du XIVe Congrès de la SFSIC, Université Montpellier III (Béziers), 2004, p. 627 – 634. 20) Transposition francisée notamment au Québec de la notion anglosaxonne d’ « empowerment », Réseaux de Santé : la qualité en pratique, Coordination nationale des réseaux de santé, Paris, 2005, p. 43 21) Chossegros P., in I Médicale, p. 11 22) Morin E., Le Moigne J.-L., L’intelligence de la complexité, L’Harmattan, 2003. 23) Sicard D., La médecine sans le corps, Plon, 2002. 24) Evenou D. et Pelca D., « Le réseau bronchiolite Ile-de-France une dynamique en constant renouvellement » in Cabé, p. 73-88. 25) Motel Y., in I Médicale, p. 11 26) Lesteven P., in I Médicale, p. 67. 27) SAP : Systems, Applications and Products in data processing. 28) “Les réseaux de santé “plus que décevants”, Le Monde, 18 mai 2006, p. 13. 29) Miège B., op. cit., p. 198. 76 77 Usage des TIC et la recherche d’une nouvelle conception de l’espace du travail et des nouvelles relations communicationnelles et socioprofessionnelles Le cas des entreprises de presse tunisiennes Samah CHABBEH GRESEC / Université Grenoble 3 [email protected] Mots clés : TIC, espace de travail, communication, presse tunisienne Introduction Nous assistons aujourd’hui à un développement rapide des Techniques d’Information et de Communication, abrégées TIC, et en particulier celui d’Internet. Ce dernier a envahi quasiment tous les secteurs d’activités dont celui de l’information. Pour faire face aux nouveaux défis et pour réaliser leurs objectifs, les entreprises tendent vers l’introduction et l’usage de ces outils. Nous constatons aussi une logique d’usage élargie de ces TIC dans différents domaines. Ce phénomène se vérifie également dans le secteur de la presse en Tunisie, pays ayant des caractéristiques socioéconomique, politiques et culturelles propres et où le pluralisme politique et celui de la presse sont récents. L’insertion des TIC dans l’espace professionnel des journalistes suscite un débat autour de leurs usages, et les relations communicationnelles et socio-professionnelles qui peuvent s’y développer. La question du rapport de l’usager aux techniques d’information et de communication est largement abordée dans les sciences de l’information et de la communication. L’une des questions posées est la suivante : en quoi les usagers des TIC contribuent-ils à la redéfinition des formes de l’échange social et des relations personnelles et professionnelles? Ce lien « recouvre toute une palette de formes de relations, de situations d’interaction » [P. Chambat, 1992, p. 17]. Nous allons étudier, dans une approche communicationnelle, les nouveaux rapports entre les différents acteurs internes de l’entreprise de presse ainsi que les relations de communication qui émergent au sein du l’espace professionnel des journalistes tunisiens. Elle consiste en une forme spécifique aux journalistes tunisiens qui est néée du mélange de certaines pratiques socio-économiques et professionnelles (usages différents des TIC, manque de moyens, insuffisance des compétences en matière des TIC, différents intérêts d’acteurs, etc.) Nous nous demanderons dans quelle mesure l’usage des TIC dans les entreprises de presse tunisiennes constitue une 77 78 nouvelle source de coopération, d’une nouvelle relation d’échange de communication et d’interaction entre les différents acteurs. Autrement dit, nous demanderons en quoi l’usage des TIC dans l’espace professionnel des journalistes tunisiens peut amener à une redéfinition de celui-ci, des situations de communications, des rapports d’acteurs et du rôle de la négociation dans l’aboutissement de la coopération afin d’atteindre les objectifs ? 1. Considérations méthodologiques et théoriques Afin de conduire à bien ce travail, nous avons exploité des les résultats des entretiens semi-directifs que nous avons effectué entre 2001 et 2004, auprès de plus d’une vingtaine journalistes, de secrétaires de rédaction, de rédacteurs en chef et de techniciens. Ces entretiens ont été effectués dans quatre entreprises de presse tunisiennes : La Presse de Tunisie, AsSahafa, Le Temps et As-Sabah. Ainsi, nous nous sommes basés sur l’observation directe qui a permis de cerner les particularités de nouvelles pratiques, de nouvelles utilisations, les manières de s’approprier les TIC, les rapports d’acteurs et leurs manières d’agir en exerçant leur activité journalistique. La méthode d’enquête par entretiens a été privilégiée tant auprès des journalistes qu’auprès des autres acteurs. Cette méthode permet de reconstruire un discours avec les personnes interviewées. « Entant que processus interlocutoire, l’entretien est un instrument d’investigation spécifique, qui aide donc à mettre en évidence des faits particuliers. L’enquête par entretien est l’instrument privilégié de l’exploration des faits dont la parole est le vecteur principal » [A. Blanchet, A. Gotman, 1992, p. 25]. 2. Les TIC dans les salles de rédactions et l’arrivée de nouveaux acteurs Depuis des années, les procédés de fabrication du journal ont considérablement évolué. Une chaîne de production héritée de Gutenberg fait place à un monde de production fortement marqué par l’informatique. Une informatique qui aide à l’apparition de nouvelles tâches, de nouveaux métiers dans la presse et de nouveaux acteurs. Aujourd’hui, l’informatique peut toucher l’ensemble de processus de fabrication des journaux, du recueil d’information brute, l’acquisition des textes et des photos jusqu’à la photocomposition. Cette nouvelle situation est imposée par la nécessité de travailler avec ces nouveaux outils et d’améliorer les conditions de travail, voire « la qualité » du produit final destiné au grand public. Les responsables de presse et les professionnels qui pensent que l’introduction et la bonne appropriation des TIC permet d’améliorer les conditions de travail, le rendement de journaux, le gain de temps, de papier et de l’effectif sont nombreux. Avec l’arrivée des techniques d’information et de communication, le journaliste occupe de plus en plus des nouvelles responsabilités et de nouvelles spécialités techniques dans l’entreprise de presse. B. Miège constate « des déplacements dans la répartition des responsabilités professionnelles et même parfois des remises en cause assez profondes des hiérarchies professionnelles, auxquelles les directions ne peuvent s’opposer frontalement » [B. Miège, 2004, p. 40]. Par exemple, l’observation de l’émergence de la presse en ligne met clairement en évidence que le terme de professionnel de l’information tend à s’élargir à d’autres catégories plurielles qui recoupent « l’amateurisme, le militantisme, l’engagement personnel et qui renvoient à une pratique individuelle ou collective de participation à l’espace public» [R. Ringoot, J-M. Utard, 2005, p. 197]. En outre, l’insertion des TIC dans les entreprises de presse tunisiennes a fait émerger de nouveaux acteurs qui sont les techniciens et les informaticiens. Ces derniers, n’ayant pas une formation en matière de techniques journalistiques, vont pouvoir s’approprier les tâches rédactionnelles et utiliseront les nouveaux outils. Ils joueront un rôle important dans la phase de construction de l’usage et des rapports de communication et d’échange entre les différents acteurs internes de l’entreprise de presse. 2. 1. Usages différents des TIC et évolution des pratiques Pendant ces dernières années, la profession de journaliste ne cesse d’évoluer. Certains spécialistes comme Jean Charon et Jean De Bonville soulignent que l’activité journalistique s’est trouvée transformé : les techniques d’information et de communication ont connu une évolution et les supports se sont multipliés [J. Charon et J. De Bonville, 1996, pp. 15-49]. En effet, avec l’introduction des techniques d’information et de communication au sein des entreprises de presse, particulièrement au sein des salles de rédaction, une sorte de perturbation a émergé dans les pratiques professionnelles des journalistes. De plus en plus, le journaliste doit saisir ses textes, composer ses articles, collaborer et participer à la réalisation de nouvelles tâches. Avec l’introduction des TIC dans le milieu professionnel des journalistes, certaines tâches disparaissent et d’autres apparaissent en tant que nouvelles pratiques : infographiste, webmaster, journaliste informaticien ou technicien, développeur de contenu en ligne, etc. Autrement dit, le journaliste doit participer à la nouvelle forme du journalisme et à la nouvelle manière de l’écriture et de la mise en forme de l’information afin de la diffuser auprès du grand public. A partir des années quatre-vingt, le texte est composé sur écran et stocké dans un logiciel de traitement de texte sur un micro-ordinateur. Le montage des pages continue en revanche à se faire à la main. Plus tard, dans les années quatre-vingt-dix, la publication assistée par ordinateur permet d’écrire et de faire le montage et la mise en page se fait sur écran. La Publication Assistée Par Ordinateur (PAO) est un élément révélateur dans la presse tunisienne. Contrairement à ce que pensent certains, la technique toute seule ne réalise pas le développement de la presse. La PAO ne fabrique pas un journal, mais c’est « un instrument pratique de travail qui autorise une souplesse dans le travail et réduit de moitié les délais traditionnels de fabrication » [H. Jeridi, 1993, p. 26]. Après l’insertion des TIC dans les entreprises de presse tunisiennes en particulier dans la rédaction, les acteurs internes de l’entreprise de presse essayent de profiter de l’offre technique qui leur y est présentée. En effet, l’usage des TIC diffère d’un acteur à un autre. Chacun essaye de mettre en place des méthodes et des “tactiques” pour les utiliser. Chacun tente de les découvrir et de les s’approprier à sa manière. Dans ce cas, « l’usage se construit dans le temps selon un processus d’appropriation fondé sur la découverte », a constaté Josiane Jouët lors de son enquête réalisée auprès des utilisateurs de la micro-informatique et du minitel [J. Jouët, 1987, p. 29]. Il faut noter que cette étape est intéressante dans l’établissement du rapport des usagers aux TIC, c’est-à-dire dans l’élaboration des relations entre TIC, journalistes et leur dépendance vis-à-vis des autres acteurs (notamment ceux qui maîtrisent l’usage de ces outils). La période de découverte des outils joue un rôle important dans la construction de savoirfaire technique. Cette période est qualifiée de période “d’apprentissage” pour l’acquisition des savoir-faire informatique ou technique. Les enquêtés parlent d’apprentissage et de découverte des techniques d’information et de communication qui se font dans les centres publics d’Internet (Publinets)35 avec l’aide des amis 35 Les Publinets sont des centres publics d’accès à Internet. Ce modèle de cyberespace public est une synthèse de l’imbrication typiquement tunisienne entre service public, initiative privée et agissement politico-économique et sociale. Ces 78 79 (en dehors de lieu de travail) ou avec l’aide d’un collègue (sur le lieu de travail). L’une des journalistes interviewés a dit : « Je vais chez une amie pour envoyer des messages électroniques ou pour apprendre l’utilisation de ces outils. Par contre, quand il s’agit de l’information en ligne, je demande aux personnes du service technique de notre journal de chercher l’information dont j’ai besoin pour l’enrichissement de mes articles » [Journaliste, Le Renouveaux, Tunis]. Ayant vécu cette expérience, les enquêtés insistent sur l’avantage de l’utilisation antérieure de ces outils. Ils sont intéressés par l’acquisition d’un minimum de savoir-faire, mais ils restent tout de même dépendants des autres collègues quand il s’agit de l’utilisation de TIC pour un intérêt professionnel ou autre. Après l’étape de découverte de la nouvelle technique, le journaliste va pouvoir l’utiliser à sa manière. L’appropriation de ces outils ne se fait pas à partir des pratiques et des conceptions individuelles, mais elle se construit dans un cadre général, celui de l’entreprise de presse quotidienne et de sa culture. Il s’agit d’une appropriation définie et conçue par le sommet hiérarchique de l’entreprise de presse. Ce sont les directions des journaux qui décident de l’usage. Il y a une sorte de configuration de l’outil pour réaliser des activités professionnelles. Par exemple, dans certaines rédactions, il faut avoir un code pour pouvoir accéder au réseau Internet ou pour ouvrir une session d’Internet. Cette pratique signifie que les journalistes et les autres acteurs internes n’ont l’éventualité d’utiliser les techniques d’information et de communication que pour l’intérêt professionnel et selon ce que la direction leur demande. Nous avons pu en déduire que l’usage professionnel est souvent prescrit par leur direction. Cela entre dans le programme prédéfini par leur dirigeant. Comme a témoigné l’interviewé suivant : « Notre objectif est de généraliser ces outils afin que les journalistes puissent les utiliser dans l’exercice de leur métier » [Rédacteur en chef, Le Renouveaux, Tunis]. Dans ce cadre de l’usage professionnel des dispositifs techniques, certains journalistes participent à la production d’articles en exerçant des tâches techniques, traditionnellement réservées aux informaticiens et aux techniciens. Ils collaborent à la mise en page de leurs articles, au montage, au traitement des photos, etc. Comme l’expriment d’ailleurs les personnes interviewées : « J’ai la possibilité de participer à la mise en page de mes travaux quand le temps le permet » [Journaliste reporter, As-Sabah, Tunis]. « Je peux participer à la mise en page et autres tâches techniques, n’oubliant pas que j’ai été un technicien et informaticien à la base, donc je n’ai aucun problème pour réaliser ces tâches » [Journaliste, Le Temps, Tunis]. Si certains interlocuteurs ont pu participer à ces fonctions techniques et ont eu la possibilité de saisir leurs textes, d’autres n’ont pas pu collaborer à ces tâches. Pour des raisons liées soit à la pénurie du matériel informatique, soit à la non compétence technique et informatique ou à d’autres raisons. Entre la collaboration et la non participation à des tâches techniques, il existe une autre catégorie qui peut facilement saisir ces textes et collaborer à la production de ses articles en général, mais qui pourtant nécessite d’être autonome dans la espaces sont exclusivement réservés aux services d’Internet. réalisation de son activité. Ces propos traduisent une réalité sur l’usage des TIC par les journalistes (saisie, mise en page, montage, etc.) qui demeure limitée chez certains journalistes. En effet, à la suite de l’introduction des techniques d’information et de communication, la question de pratiquer des tâches techniques et de participer à la production d’articles nécessite une bonne maîtrise de ces outils et une spécialisation accrue, d’où le souci de recruter des spécialistes dans le domaine. Tandis que les journalistes non spécialisé en informatique, cherchent d’autres moyens pour acquérir de savoir-faire et des connaissances en matière de l’utilisation des TIC. Ils collaborent avec les autres techniciens et les informaticiens afin d’atteindre cet objectif. Dans cet espace professionnel, l’usage des TIC est selon la plupart des acteurs interviewés, améliore les conditions de travail et participe à l’évolution de l’activité journalistique. Il faut noter que quelques journalistes vont pouvoir respecter les directives de leurs dirigeants et utiliseront les outils nouveaux pour l’intérêt du travail. D’autres détourneront de temps en temps leurs usages pour des intérêts personnels et privés. Face à l’accélération du rythme de travail quotidien et au stress, les journalistes et les différents acteurs internes des quotidiens cherchent un nouveau mode de communication afin de s’évader et d’établir des rencontres et des nouvelles relations sociales. Dans l’usage de la messagerie électronique, de nouvelles pratiques apparaissent dont le but est de partager avec les autres : échanger à propos des loisirs, d’intérêts communs, discuter, établir des relations affective. Les outils techniques sont devenus des moyens de communication pour s’exprimer autrement. De plus, l’usage des TIC sur le lieu de travail à des fins personnelles a re-découpé les frontières entre la vie privée et la vie professionnelle ou publique. De ce fait, les TIC se situent donc dans « l’entre-deux des espaces publics et privés » [J. Jouët, 1993, p. 113]. Les messageries électroniques brouillent les frontières entre les sphères publique et privée et les TIC « participent de la redéfinition de la frontière entre public et privé » [P. Chambat, 1995, p. 74]. Enfin, le nouveau mode de communication se caractérise par un mélange de relations personnelles directes au travail et par des relations interpersonnelles indirectes. Le fait d’utiliser ces outils de communication sur le lieu de travail pour entrer en relation avec des personnes permet d’observer une sorte d’entremêlement entre les deux espaces privé et professionnel. Néanmoins, malgré la capacité de certains journalistes à utiliser les outils d’information et de communication à des fins professionnelles et malgré la spécialisation technique d’autres journalistes et leur capacité à détourner les usages, ces journalistes rencontrent des difficultés au niveau de l’utilisation des outils. Ces difficultés se résument en un manque du matériel informatique et manque des compétences chez la majorité des journalistes. 2. 2. Manque des moyens et de compétences Faute d’outils de travail en quantité suffisante (ordinateurs), quelques rares journalistes, s’orientent vers l’usage collectif d’un même outil. L’enquête montre que dans des journaux comme As-Shafa, et As-Sabah, plusieurs journalistes utilisent un seul ordinateur en même temps. Ils s’arrangent entre eux afin de pouvoir profiter de cet outil, comme le confirme l’interviewé suivant : « Dans notre journal, nous n’avons pas tous la possibilité d’avoir accès à Internet pendant les heures de travail, car il existe un seul ordinateur qui est connecté au réseau Internet. Nous sommes obligés de travailler ensemble afin de pouvoir contacter nos sources d’information » [Journaliste secrétaire de rédaction, La Presse, Tunis]. 79 80 L’usage de ces outils diffère d’un journal à un autre et selon les moyens disponibles et les encouragements. Dans quelques quotidiens comme La Presse de Tunisie et Le Temps, les journalistes utilisent souvent ces outils dans la réalisation de leurs taches rédactionnelles (écriture directement sur écran, participation à la mise en page, montage, recherche d’information, etc.). La part croissante prise par les usages professionnels a été observée dans les quotidiens qui ont des moyens et des dispositifs techniques (un ordinateur pour chaque journaliste, connexion au réseau accessible au quasi totalité des journalistes et les acteurs internes de l’entreprise de presse …). Nous avons compté un seul quotidien Le Temps sur huit ayant mis un poste d’ordinateur à la disposition de chaque journaliste, les autres sont soit en étape de généralisation des moyens, soit n’ont pas suffisamment d’outils. Cela explique en quelque sorte le faible usage professionnel. La question des compétences concernant l’utilisation des TIC est abordée par plus de la moitié des journalistes interviewés. En effet, ces derniers ont rencontré des difficultés au niveau de l’utilisation de ces moyens techniques : ils ne maîtrisent pas (ou peu) certaines fonctions et procédures techniques. En cas de panne technique simple (blocage de la machine par exemple), ces derniers se trouvent dans l’incapacité de résoudre le problème. Certains journalistes ne savent même pas ouvrir une session web ou chercher une information en ligne. Dans le même ordre d’idée une journaliste du quotidien As-Sabah indique qu’elle demande de l’aide à son collègue pour pouvoir naviguer sur Internet. Elle dit : « Je sais qu’il y a trois étapes pour pouvoir accéder à Internet, mais je ne les connais pas » [Journaliste, Le Temps, Tunis]. Il s’agit dans ce cas d’une appropriation collective d’un même outil. Le journaliste fait confiance aux techniciens et va demander de l’aide pour obtenir ce dont il a besoin pour son article. Les collègues du journaliste disent aussi que : « Comme beaucoup d’autres journalistes je ne maîtrise pas l’utilisation de ces techniques d’information et de communication. Je rencontre aussi des difficultés au niveau de l’utilisation de tous les logiciels, même le traitement de texte » [Journaliste secrétaire de rédaction, As-Sahafa, Tunis]. « La grande difficulté pour moi est la non maîtrise de ces outils » [Journaliste rédacteur, As-Sabah, Tunis]. Ainsi, nous constatons que la non maîtrise de ces outils peut constituer un obstacle à l’évolution des pratiques journalistiques. Car, comme l’écrit J-M. Charon, « la bonne maîtrise de l’innovation technologique aura des fortes répercussions sur l’avenir des titres, interférant aussi bien sur les coûts que sur la compétitivité des journaux. Cette maîtrise comporte comportait une dimension purement technologique, mais aussi humaine (formation) et sociale (diminution et évolution des effectifs et des compétences) » [J-M. Charon, 2005, p. 51]. Face au manque de compétences et de savoir-faire technique et informatique, certains journalistes demandent de l’aide. Ils coopèrent avec les nouveaux acteurs (techniciens et informaticiens) afin d’apprendre quelques aspects techniques et les manières d’utiliser certains logiciels pour la fabrication du journal. Ici, le processus de communication s’avère intéressant afin d’établir des relations d’échange d’information, de savoir-faire et d’expérience. 3. L’espace de travail comme espace hétérogène et communiquant Depuis quelques temps, la question de la conception de l’espace de travail se pose en des termes nouveaux qui sont étroitement liés aux caractéristiques de ces nouveaux dispositifs techniques. Dans ce cadre, il est proposé de préférer une approche d’interdépendance entre les techniques, la communication, les relations socio-professionnelles et l’organisation de l’entreprise. C’est pourquoi nous nous proposons de nous placer d’emblée dans un cadre conceptuel d’action qui dépasse la seule approche technique. Nous allons analyser cette question des relations qui peuvent exister entre les différents acteurs de l’entreprise de presse tunisienne, notamment face à l’insuffisance du matériel et au manque de compétence en matière de TIC. 3. 1. Les différents acteurs dans une nouvelle situation de communication et de collaboration L’introduction et l’usage des TIC dans la rédaction favorise des usages différents et la création de nouvelles pratiques chez les journalistes, mais elle invite aussi à repenser les relations entre ces derniers et les autres acteurs internes de l’entreprise. Les propos des journalistes et des acteurs interviewés montrent que l’introduction des TIC dans l’espace de travail favorise la communication face à face et l’échange des idées, des expériences et des compétences. En outre l’insertion de ces outils dans les entreprises de presse aide à la multiplication d’acteurs et d’intervenants souhaitant exercer le métier. Du jour au lendemain, il n’y a plus seulement des journalistes qui pratiquent le métier de journaliste, mais aussi d’autres acteurs qui interviennent pour produire de l’information. En ce sens, le journaliste ne représente pas l’exclusivité du métier, mais d’autres acteurs interviennent dans le processus de production de l’information. La croissance des intervenants dans le domaine de la presse fait émerger des nouvelles logiques de communications, des logiques économiques et politiques. Dans une entreprise de presse, il ne faut pas se contenter de la vision d’un idéal organisationnel, où chaque acteur est compétent dans son domaine, connaît ses devoirs et les tâches qu’il est amené à réaliser au sein de l’entreprise. Bien au contraire, chaque acteur est amené à aider son collègue, à partager des connaissances et à coopérer afin de réaliser leur objectif. Les TIC permettent à leurs utilisateurs de créer des espaces de communication et de se distraire, mais aussi de partager les mêmes intérêts et objectifs. Cet usage des TIC dans les entreprises de presse tunisiennes requiert un minimum de compétence et de savoirfaire technique et informatique. Mais la question de la compétence technique suppose que les journalistes et ceux qui détiennent ces outils soient capables de les utiliser. Dans notre cas, il s’agit d’établir une négociation entre les techniciens et informaticiens et les journalistes afin d’atteindre leur objectifs. Plus précisément, ces différents acteurs doivent établir une relation d’échange de compétences et des expériences. La négociation apparaît comme « une relation d’échange, donc de négociation dans laquelle deux personnes au moins sont engagées » [M. Crozier et E. Friedberg, 1977, p. 66]. Tous ces changements dans l’espace de travail ont donné lieu à une négociation permanente entre les différents acteurs consistant à redéfinir la compétence des journalistes « comme produit d’un accord entre les parties » [D. Reullan, 1997, p.148]. Autrement dit comme produit d’accord entre les différents acteurs et différents intérêts. Les différents acteurs internes doivent développer des accommodements bénéfiques pour eux : apprendre à 80 81 communiquer entre eux et à vivre ensemble dans un même espace de travail. Ils doivent trouver des arrangements de coopération. Une journaliste du quotidien As-Sahafa mentionne qu’elle a besoin de l’aide de son collègue pour chercher une information sur Internet : « Je demande souvent à mon collègue de m’aider à me connecter sur Internet » [Journaliste, As-Sahaf, Tunis]. En effet, la négociation apparaît, aussi bien pour les journalistes que pour les techniciens, comme une stratégie efficace afin d’acquérir une nouvelle compétence informatique surtout si l’entreprise de presse ne peut assurer la formation en matière de TIC que pour quelques journalistes. Ces derniers coopèrent avec les informaticiens afin d’apprendre à se servir des nouveaux outils. Ils doivent créer de relations de confiance, du lien social et d’échange avec les différents acteurs internes de l’entreprise. Autrement dit, ils doivent communiquer avec les différents acteurs afin d’atteindre leur objectifs. Nous nous référerons aux travaux de Yves de La Haye pour expliquer la situation de communication au sein des quotidiens. L’auteur relève que «la situation de communication dans la presse quotidienne est caractérisée par ailleurs par une grande variété des types d’agents de production interne à l’institution » [Y. De la Haye, 1985, p. 86]. 3. 2. Vers un service rédactionnel hétérogène et communiquant Il est nécessaire de prendre en considération l’aspect communicationnel dans l’organisation, car « la communication est au cœur d’un procès de réorganisation profonde du management du travail, plus précisément du modèle d’organisation scientifique du travail » [B. Miège, 1996, p. 55]. Depuis l’époque de l’industrialisation, les modèles d’organisation n’arrêtent pas d’évoluer vers une complexité de plus en plus élevée. Et ceci, en raison d’un changement dans les canaux et les manières de circulation de l’information au sein de l’entreprise et entre l’entreprise et son environnement général. Depuis des années, la circulation des informations à l’intérieur de l’entreprise est marquée par une logique basée sur la structure pyramidale, la centralisation des décisions. L’introduction des TIC dans la rédaction de presse est l’occasion d’une réorganisation du travail, redistribution des tâches et même des relations hiérarchiques. Telle est l’entrée que nous proposons pour aborder cet ensemble encore peu structuré et multiforme qu’est la communication dans la rédaction. L’introduction de ces outils dans les salles de rédaction nécessite un réaménagement de l’espace afin d’organiser le travail et de développer une communication entre les différents acteurs internes de l’entreprise. La communication, au sens où les gens l’utilisent aujourd’hui, a connu son grand essor dans les pays occidentaux. Elle n’a pris sens dans les pays en développement qu’à partir de la fin des années quatre-vingt-dix. Pour le cas tunisien, la communication se fait parfois d’une manière aléatoire. Il existe des canaux formels et informels ou la communication intime. En ce sens les TIC n’apportent pas un grand intérêt pour la communication institutionnelle. Concernant le cas de la presse tunisienne, certains journalistes, secrétaires de rédaction et mêmes des directeurs affirment que les TIC aident à la naissance d’une nouvelle forme de communication entre les journalistes « camarades ». Ils veulent dire que la communication est beaucoup facilitée non par les TIC, mais par le rapport social (amitié, voisinage, confiance, usage collectif d’un même outil, entraide…) établi entre eux. Mais, si certains acteurs parlent d’une nouvelle forme de communication qui est née au sein de la rédaction, d’autres dénoncent la non communication. Bien au contraire, ces TIC accompagnent le conflit entre les différents acteurs. Parfois, elle augmente le phénomène d’égoïsme entre les journalistes. Ce conflit sera augmenté surtout avec l’entrée de nouveaux acteurs dans la rédaction. La thèse que les TIC augmente le phénomène communicationnel dans les entreprises de presse entre les différents acteurs prouve ses limites. Conclusion Le rapport de l’usager aux TIC est largement étudié dans les sciences de l’information et de la communication. Nous l’avons abordé sous un angle nouveau, en considérant le groupe professionnel des journalistes dans son rapport à ces outils, comme acteur de production de nouvelles relations de communication. Cette dernière consiste en une forme spécifique aux journalistes tunisiens. Elle est née du mélange de certaines pratiques et mécanismes : usages différents des TIC, manque d’outils et de moyens, coût élevé des matériels et logiciels informatiques, manque de compétences en matière de TIC, besoin de divertissement et de rencontre. « Les pratiques des nouvelles technologies ne mettent pas seulement en jeu la relation de l’individu à ces objets mais revêtent aussi un sens social » [J. Jouët, 1987, p. 78]. Autrement dit, il y a un désir de créer du lien social et d’échange entre les différentes personnes appartenant à un même espace de travail ou parfois même avec d’autres personnes appartenant à des territoires autres. A partir de cette analyse sur l’usage des TIC et les rapports d’acteurs, nous avons pu relever combien dans cette situation d’échange, d’usage collectif et d’entraide, le processus de communication s’impose. Les différents membres du groupe communiquent et échangent des relations entre eux. Comme a dit un journaliste : « Quand il s’agit de l’usage collectif de ces outils, il y a toujours un contenu conversationnel à échanger » [Journaliste, le Temps, Tunis]. Ainsi, c’est en recourant aux réponses formulées par les journalistes dans le cadre de notre enquête que nous déduisons que l’utilisation des TIC diffère selon la situation du journal, selon les moyens qu’il dispose et selon les motivations de chaque acteur de se servir de ces outils. Il apparaît que la majorité des journalistes s’intéressent aux techniques d’information et de communication. Ils ont une avidité à les découvrir et de les utiliser. Ces techniques représentent des moyens pour faciliter la tâche de l’écriture, du recueil d’informations, de la mise en page, de documentation, d’enregistrement des données et de montage des photos. Ces outils participent à l’évolution de l’activité journalistique en Tunisie et l’amélioration des conditions de travail. Mais elle est caractérisée par un certain nombre d’éléments comme l’usage collectif, manque des outils, pénurie des moyens de financement et de formation, insuffisance des compétences, etc. Enfin, ce serait une erreur conceptuelle de privilégier la technique et de dire qu’elle a profondément modifié les méthodes de travail, les relations de communication et socioprofessionnelles dans cet espace de travail collectif. En effet, d’autres éléments peuvent entrer en jeu, telles que la culture d’entreprise, la politique socio-économique et la démarche politique du pays dans lequel ils se trouvent. 81 82 Références bibliographiques BLANCHET Alain, GOTMAN Anne, L’enquête et ses méthodes : l’entretien, éd. Nathan, Paris, 1992, 125 p. CHAMBAT Pierre, « Espace public, espace privé : le rôle de la médiation technique », in PAILLIART Isabelle (dir.), L’espace public et l’emprise de la communication, éd. ELLUG, Grenoble 1995, p. 74. CHAMBAT Pierre, « Usages des technologies de l'information et de la communication : évolution des problématiques », in Technologies de l’information et société, n° 3, éd. Dunod, 1994. CHAMBAT Pierre (dir.), Communication et lien social : usage des machines à communiquer, éd. Descartes, Paris, 1992, 281 p. CHARON Jean-Marie, La presse quotidienne, éd. La Découverte, (nouvelle édition), Paris, 2005, 122 p. CHARRON Jean, DE BONVILLE Jean, « Présentation. Journalisme en mutation. Perspectives de recherche et orientations méthodologiques », in Communication, Vol.17, n° 2, décembre 1996, pp. 15-49. CROZIER Michel, FRIEDBERG Erhard, L’acteur et le système, éd. Du Seuil, Paris, 1977, 500 p. (Collection « Points essais »). DE LA HAYE Yves, Journalisme, mode d’emploi : des manières d’écrire l’actualité, éd. ELLUG, Grenoble, 1985, 216 p. (Collection « La Pensée Sauvage ») JERIDI Hajer, L’informatisation de la presse tunisienne : enquête sociologique, Mémoire de fin d’études en journalisme, sous la direction de AOUSSA Mohamed Lamine, Université de Tunis I, IPSI, 1993, p. 26. JOUËT Josiane, « Pratiques de communication et figures de la médiation », in Réseaux, n° 60, éd. CNET, Paris, 1993, pp. 101-119. JOUËT Josiane, L’écran apprivoisé. Télématique et informatique à domicile, éd. CNET, Paris, 1987, p. 29. MIÈGE Bernard, L’information-communication, objet de connaissance, éd. De Boeck, Bruxelles, 2004, 242 p. MIÈGE Bernard, La société conquise par la communication- 1. Logiques sociales, éd. PUG, Grenoble, 1996, 226 p. (Collection « Communication, Médias et Sociétés »). RINGOOT Roselyne, UTARD Jean,-Michel, Le journalisme en invention. Nouvelles pratiques, nouveaux acteurs, éd. Presse Universitaire de Rennes, Rennes 2005, 215 p. RUELLAN Denis, « Groupe professionnel et marché de travail du journalisme », in Réseaux, n° 81, éd. CNET, Paris, 1997, pp. 137-151. RUELLAN Denis, Les « pro » du journalisme. De l’état au statut, la construction d’un espace professionnel, Thèse de doctorat en Sciences de l’information et de la Communication, Université de Rennes1, Rennes, 1996, 299 p. RUELLAN Denis, Le professionnalisme des reporters. Espace de travail et modes de production, Thèse de doctorat en sciences de l’information et de la communication, sous la direction de MATTELART Armand, Université de Rennes II, Hautes Bretagne, Rennes II, 1992, 455 p. Télé-Présence avec Images et Sons (T-PIS) et communication organisationnelle Guislaine CHABERT IREGE / Université de Savoie, [email protected] et Jacques IBANEZ-BUENO IREGE / Université de Savoie, [email protected] Introduction Comme de nombreuses T.I.C, les technologies de la Télé- Présence avec Images et Sons (T-PIS36) ont une histoire jalonnée d’échecs, d’espoirs et d’expérimentations. Il est 36 Prononciation : [Tipi] 82 83 possible de distinguer différentes étapes dans l’histoire des recherches sur la visiocommunication que l’on peut définir comme “technique permettant la communication visuelle et audio via un réseau” (Cardon, de la Vega, Licoppe, Pujalte, 1999). Tout d’abord, les premières recherches convergent vers le même constat d’échec de la machine à communiquer « visiophone » et établissent le bilan d’une offre prééminente et idéalisée par rapport à la demande, tant dans la sphère privée que dans la sphère professionnelle. Indépendamment des logiques des fabricants de matériels et des opérateurs de télécommunications, les approches centrées sur les usages constatent la faible demande sociale autour de cette forme de communication à distance (Perriault, 1989). A partir de 1984, on expérimente à Biarritz en première mondiale un dispositif de visiophonie basé sur un des premiers réseaux de fibre optique. Des usages “pionniers” émergent durant les années d’expérimentation et sont observés dans certains travaux précurseurs portant sur les “usages domestiques du visiophone” (Jauréguiberry, 1989) ou encore sur les caractéristiques de “l’interaction visiophonique” (De Fornel, 1989). Mais il faut attendre le 21ème siècle pour que l’offre de visioconférence trouve un marché dans les domaines éducatif et organisationnel. Actuellement, de nouvelles expérimentations en visiophonie se déroulent au sein des organisations publiques37. Parallèlement, la miniaturisation des matériels de captation de l’image et du son, la faiblesse des coûts des matériels et leur facilité d’utilisation et, surtout la remise en cause d’une tarification à la durée des réseaux de communication adaptés au large débit permettent une réelle offre grand public de communication, de type visiophone via Internet. Les organisations sont perméables à une offre dont elles peuvent aussi être les bénéficiaires. L’évolution des “formes organisationnelles” (élargissement des communautés organisationnelles, délocalisation, internationalisation) a pu également accentuer le besoin de vision à distance et d’économie de déplacements (en kilomètres, frais et risques). L’organisation d’une visioréunion ne nécessite plus forcément un matériel lourd et coûteux et la présence de deux techniciens. Par exemple, la technologie nécessaire peut être intégrée dans un matériel polyvalent tels le PC et le mobile téléphonique multimédia. Forts des enseignements de ces premières recherches, nous rendons compte ici des premiers résultats d’une recherche portant sur les usages de la visiocommunication dans les contextes organisationnels. Nous nous intéressons plus spécifiquement aux contraintes rituelles actualisées par ces technologies dans les contextes organisationnels, aux relations entre ces technologies à distance et les technologies d’information et communication préexistantes, et enfin aux modalités de cette visiocommunication (qui réintroduit par exemple du non verbal dans l’échange à distance). Les travaux de recherche sur la “coprésence” notamment établie par les logiciels de messageries instantanées insistent surtout sur le mode strictement “écrit”, “dépouillé des nombreux indices non verbaux de la rencontre en face-à-face” de ce mode de communication (Denis, Licoppe, 2005) au détriment du mode “visuel” et “audio” de cette activité communicationnelle. Par ailleurs, les moyens de communication dont il est question ici (notamment le dispositif webcams et internet) ont la particularité d’être présents dans l’entreprise pour un usage professionnel et privé ou, à domicile pour un usage privé et professionnel. En effet, aujourd’hui les recherches convergent vers l’idée que “les trois principales sphères de pratiques de 37 Par exemple, « Points Visio-publics » se déroule depuis 2005 en Auvergne. Il s’agit de bornes France Télécom installées dans des lieux publics qui permettent, grâce à un système de visiophonie intégrée, d’entrer en contact visuellement avec des agents de l’ANPE. communication identifiées par les marchés des opérateurs de télécommunication (domestique, professionnelle et personnelle) apparaissent de plus en plus enchevêtrées” (Proulx, 2005). De récentes études montrent ainsi “l’interpénétration des sociabilités personnelles et professionnelles sous l’effet de la contraction des agendas, de la mobilité des personnes et de la portabilité des outils de communication” (Cardon, Smoreda, Beaudoin, in Proulx, 2005) et nous souhaiterions observer de près ces “entrelacements” d’usages des moyens de communication multi-sphères. Dans ce contexte, le groupe de chercheurs s’intéresse aux mêmes technologies dans la sphère privée et pourra ainsi provoquer une résonance pour des usages multisphères (Flichy, 2005). Cette mise en relation correspond à l’utilité d’une “évaluation publique permanente des pratiques professionnelles et une perpétuelle dislocation/redéfinition des limites entre les sphères publiques, privées, professionnelles” (Le Moenne, 2003) au sein de la recherche interdisciplinaire sur les logiques et les enjeux de la communication organisationnelle. Quelle T-PIS? Le travail présenté ici rend compte des débuts d’une recherche planifiée sur au moins 18 mois et dont l’objet est l’usage de la télé-présence avec images et sons (T-PIS) et ses pratiques émergentes au sein d’un échantillon d’entreprises. Dans le cadre d’un Bonus Qualité Recherche de l’Université de Savoie38 soutenu par l’Assemblée des Pays de Savoie, nous avons bénéficié d’une convention entre l’Institut de Management de l’Université de Savoie (IMUS) et le Club des Entreprises de l’IMUS. Cette convention facilite la recherche universitaire et les collaborations avec un groupe d’une quarantaine d’entreprises privées qui ont leur siège en HauteSavoie ou Savoie (ou un lieu de production ou de services dans ces mêmes départements)39. A partir de la définition de Weissberg (1999 : 1340) nous considérons qu’il y a télé-présence avec image et sons (T-PIS) dans l’entreprise lorsque tous les critères suivants sont réunis : - présence d’au moins deux acteurs membres d’une ou plusieurs entreprises et distants dans le dispositif de communication - chaque acteur est émetteur-récepteur dans le cadre d’une communication réellement bi-directionnelle avec possibilité réciproque d’agir sur le dispositif - captation permanente d’images animées pour chaque acteur - captation permanente de sons pour chaque acteur - représentation visuelle des deux émetteurs-récepteurs (sans avatar) - diffusion et réception synchrone La réunion cumulée de ces critères permet d’intégrer au sein des T-PIS les usages de la visioréunion et de la visiophonie. Pour cette dernière, sont concernés les équipements légers avec ordinateurs, webcams et logiciels tels Messenger, Skype, Net-meeting ou IChat (Apple). Sont également concernés les téléphones mobiles de dernière génération (3G). La visioconférence (schéma de la conférence avec un émetteur principal doté d’un statut de locuteur proche du conférencier) est intégrée en tant que T-PIS, si le public en 38 avec la participation de Jean Moscarola, professeur des Universités en gestion. 39 Les entreprises de communication (exemple : agence de publicité) ont été exclues volontairement de l’échantillon. 40 « Dupliquer non seulement l’apparence de la réalité mais sa mise en disponibilité – c’est à dire le mode d’accès à cette réalité transposée -, telle pourrait être la définition de la Téléprésence » 83 84 plus de l’émission permanente de messages iconiques (fenêtre du public sur l’écran du locuteur principal) a la possibilité d’une transmission sonore même réduite en temps de parole. Il est à noter, que dans la pratique relevée dans les entreprises observées, le terme de visioconférence est appliquée à la place de visioréunion. Bien évidemment, un dispositif de vidéosurveillance est exclu des T-PIS. Il en est de même pour une captation d’images de salariés au travail ou circulant dans des lieux de passages retransmis sur des écrans (de type écran plat avec images et informations scripturales diffusées par un service communication). Orientations méthodologiques Seront combinées, pour l’analyse des usages des T-PIS, des données quantitatives (questionnaires diffusés en ligne, analyses via le logiciel Sphinx-Online et études documentaires et statistiques) et des données plus qualitatives (entretiens approfondis). Les méthodes propres à la sociologie traditionnelle (entretien de salariés) adaptées à la connaissance des usages technologiques seront complétées par des outils issus de la sémiotique et de la phénoménologie appliquées au multimédia et aux réseaux. A titre d’exemple, les entretiens pourront être filmés à distance via des webcams en reprenant des principes de l’anthropologie visuelle. Les croisements méthodologiques doivent amener à un traitement des différents contenus et à des propositions de catégorisation des comportements corporels dans la communication organisationnelle à distance. L’évolution des technologies à distance oblige le chercheur à innover au niveau méthodologique. C’est pourquoi, face à ce champ en construction que représente l’appropriation de ces nouvelles technologies de télé-présence et les interrogations qu’il entraîne, les travaux relatifs à la « virtual ethnography » seront sollicités (Hine, 2000). Bien sûr, il ne s’agit pas ici de prétendre à une quelconque rupture méthodologique mais à l’introduction d’éléments innovants dans le sens de la définition suivante de l’innovation méthodologique (Jankowski, 1999 : 368) : “ basic definition of methodological innovation might serve as a good starting point for understanding what is meant by the term: “Methodological innovation refers to the use of original or modification of conventional research approaches, designs and methods in the study of new media”. Cette méthodologie paraît innovante dans la mesure où elle permet de dépasser le simple niveau de déclaration des usagers (…) par, d’une part, “le recueil de données croisées concernant l’usage parallèle de plusieurs supports ” et d’autre part “l’observation du maniement des dispositifs en situation d’usage avec verbalisation de l’usager et enregistrement vidéo” (Proulx, 2005 : 13). En effet, nous estimons que la communication à distance impose au chercheur d’adopter des postures réflexives et en miroir à une dimension fondamentale de forme de communication : la télé-présence. Nous ajouterons en fin de recherche des éléments méthodologiques complémentaires à une analyse « réelle », et sur site, de matériaux par des éléments méthodologiques virtuels. Un premier « questionnaire d’équipement » a été diffusé auprès des entreprises partenaires du Club des Entreprises. Une quinzaine d’entreprises a répondu à ce questionnaire d’équipement administré exclusivement via internet41. Les résultats obtenus nous ont permis de distinguer les entreprises se déclarant équipées (5/14) des entreprises se déclarant nonéquipées (9/14), ou encore les entreprises déclarant ne plus être équipées (cas unique d’une entreprise « déçue » à l’usage 41 Le questionnaire peut être consulté à http://www.sphinxonline.net/gsica/telepresence/index.htm. cette adresse : par ces technologies ?) des entreprises déclarant souhaiter investir dans ces technologies (6/9). Les 5 entreprises équipées le sont depuis plus de 2 ans, ce qui laisse penser qu’elles le sont surtout pour des équipements de type visioconférences technologiquement performants depuis plus de 2 ans, alors que les services de visiocommunication via webcams et logiciels de « webconferencing » sont arrivés sur le marché plus récemment. Enfin, pour 3 d’entre elles la pratique est fréquente et installée. La prise en compte d’informations sur le contexte organisationnel (services, statut professionnel des répondants, activité multi-site ou mono-site des organisations, coordonnées des répondants) a été utile à l’élaboration de l’échantillon. Trois entretiens exploratoires approfondis (entre une heure et une heure trente) ont été effectués auprès des usagers de trois entreprises déclarant être utilisatrices des T-PIS dans le questionnaire d’équipement. Cet échantillon exploratoire est ainsi composé d’un responsable du service organisation d’une société privée de services, du Directeur des Ressources Humaines d’un groupe industriel privé savoyard et enfin du responsable de la communication interne d’un groupe industriel privé haut-savoyard. Ces entretiens visaient à retracer les usages des différents moyens de communication à distance avec images et sons dans chacune des organisations. Les entretiens ont été réalisés dans les entreprises concernées et pour l’un deux dans la salle même de visioréunion du site. La visiophonie mobile (via téléphone 3G) n’étant pas un mode de communication en pratique dans les trois entreprises observées42, nous rendons compte ici des résultats concernant les usages de la visiophonie via webcam et de la visioréunion en contexte organisationnel. Des usages stabilisés de la visioréunion dans les organisations Les systèmes nommés communément “visioconférences” sont utilisés à des fins de “visioréunions” dans les trois organisations observées. Les usagers “font des visios” indiquant par l’appropriation et le détournement du terme que le système s’est totalement banalisé. En effet, les visioréunions donnent lieu dans les trois entreprises à des usages stabilisés, au sens d’une forme de coopération à distance. Cette dernière possède aujourd’hui une stabilité et se manifeste de façon habituelle et normalisée comme “pratique sociale que l’ancienneté ou la fréquence rend normale dans une culture donnée”43. Les échanges y favorisent une téléprésence visuelle et sonore avec des collègues éloignés géographiquement (situés dans d’autres sites nationaux ou internationaux). L’usage qui en découle reste néanmoins pour le moment strictement interne (la visioréunion n’est pas utilisée pour le recrutement par exemple) et transversal (peu d’échanges vertico-hiérarchiques). Les remarques négatives formulées par les salariés vis à vis de ces T-PIS peuvent être tout à fait complémentaires à l’adhésion critique des personnels au « management rationnel » (Lamizet, 2001) Pour ce qui est de la nature des visioréunions, les trois salariés interviewés évoquent des échanges orientés vers la démarche projet (état d’avancement dans un projet) et considèrent que la visioréunion est adaptée à une démarche d’explications et de clarifications, ou au partage de savoirsfaire TIC par exemple (système informatique commun utilisé, 42 De nombreuses campagnes publicitaires réalisées en 2006 soulignent les possibilités liées à la visiophonie mobile plutôt dans le domaine privé (“les images parlent mieux que les mots”, SFR). Sans que cette technologie soit utilisée dans les environnements professionnels de l’étude, on peut néanmoins constater qu’il y a veille technologique effectuée par les personnels « capteurs » dans les entreprises puisque les arguments mis en avant par les interviewés sont que la qualité de l’image n’est pas encore assez bonne en visiophonie. 43 Définition de “l’usage” in Dictionnaire de Sociologie, André Akoun, Pierre Ansart. Le Robert, Seuil, 1999. 84 85 téléphonie sous IP…). La communication à distance favorisée ici semble également appropriée à des réunions-produits lorsque apparaît le besoin de montrer de nouveaux produits, ou de voir de nouveaux produits selon que l’on se place d’un côté ou de l’autre de la relation. En revanche, la visioréunion n’est pas un mode de communication adapté à la prise de décision. En phase décisionnelle, les réunions en face à face sont jugées plus adaptées (comme si l’image ou la distance introduisaient une difficulté supplémentaire à la négociation). La visiocommunication est considérée par les interviewés comme étant “efficace”, dans le sens où il y a centrage rapide sur l’ordre du jour de la réunion mais en contrepartie elle est aussi vécue comme “structurante”. Cette forme de coopération à distance suppose ainsi des rapports plus abstraits et plus formels. De plus, et même si les freins techniques ou cognitifs observés initialement lors des premières études ont disparu des discours des usagers, l’image semble imposer de nouvelles règles voire des limites à cette forme de communication interpersonnelle en contexte organisationnel : elle impose une certaine “retenue”, exige une répartition disciplinée de la parole, contraint à dépassionner les débats et à perdre de la sorte en convivialité. La visiocommunication offre “la possibilité d’une expérience de communication où l’on se verrait communiquer” (Jauréguiberry, 1989 : 94) et où l’on pourrait contrôler l’image projetée de soi, or il serait intéressant dans le cadre des relations professionnelles d’observer si cette “fonction miroir” peut être repérée dans la pratique des visioréunions. Enfin, l’usage de la visioréunion en contexte organisationnel est généralement collectif (avec des variations sur le nombre d’individus selon les organisations). Deux entreprises évoquent des réunions faites en visio à deux interlocuteurs. Dans ce cas, elle est préférée au média téléphone pour des réunions censées durer et pour apporter “plus de confort” aux usagers (indépendamment de la fatigue pouvant être ressentie par nécessité d’attention accrue). L’image dans ce cas semble apporter un “plus” non négligeable dans le contexte des échanges interpersonnels professionnels. Les salariés semblent intégrer la communication de T-PIS comme une autre forme de communication en tant compétence nécessaire « sens du contact, qualités relationnelles, disponibilité, adaptation…» (Olivesi, 2002) Dans les trois entreprises, la visiocommunication reste une activité qui ne se substitue pas à des interactions en face à face. Tous les usagers interviewés insistent sur la nécessité de se rendre en parallèle régulièrement sur le terrain, de maintenir des échanges collectifs en présentiel, ou de “sentir le produit” dans le cadre de réunions-produits. Le soutien de la direction à ce niveau semble acquis, à tel point que contrairement au leitmotiv du gain de temps et d’argent ayant concouru au succès initial de ce mode d’échanges à distance, la visioréunion n’est utilisée aujourd’hui dans certains cas que “par défaut” lorsque les acteurs d’un projet dans l’entreprise ne peuvent pas se voir. Ce constat converge avec de nombreux travaux réalisés en sociologie des usages qui montrent sans ambiguïté, d’une part qu’il n’y a pas de concurrence entre les médias mais “entrelacement” de pratiques (Cardon, Smoreda, Beaudoin, 2005 in Proulx, 2005) et que, d’autre part l’usage se stabilise toujours après une phase d’idéalisation pour “revenir à sa juste place”. Cette position de non possible substitution revêt un caractère proche de Palo Alto dans le sens qu’on ne peut faire l’économie d’une relation continue ou discontinue entre individus. Dans cette relation indispensable, il est possible qu’à certains moments aucune information ne circule, si ce n’est que sur le fait d’être ensemble et de communiquer sur le fait d’être ensemble. Une visioréunion sans rencontre directe permet difficilement une communication analogique et la fonction phatique de la communication (Jakobson) s’opère faiblement. Il serait intéressant de vérifier l’hypothèse d’une possible diffusion de ces idées (désormais largement enseignées dans les formations de haut niveau) par les directions de la communication des entreprises les plus importantes en termes de nombre de salariés. La crainte des webcams Deux des entreprises semblent avoir des positions craintives quant au développement de relation bidirectionnelle entre les individus. Le mot « interdit » est venu immédiatement lorsque nous avons questionné sur l’existence de PC avec Webcam. L’argument de la sécurité informatique est apparu immédiatement dans les entretiens. Cette posture craintive se doit d’être comparée aux débuts de la mise en place des accès directs à Internet pour les salariés (sites + messageries). Le discours du moment s’apparentait à une peur des dirigeants au sujet des salariés supposés être distraits par des pages écran de loisirs ou érotiques, ou d’avoir des communications à caractère intime à une période où le taux d’équipement des ménages demeurait encore très faible. La peur affichée du virus informatique entraîne une forte réduction des fichiers diffusés et une configuration quasi-identique des logiciels. Cette uniformisation, le contrôle des configurations logicielles, l’hésitation à distribuer des webcams et le refus d’introduire des logiciels comme Messenger ou Netmeeting peuvent également être analysés comme une interdiction d’un mode interpersonnel de communication associant l’image et le son. L’hypothèse formulée serait un refus diffus d’un usage multisphère (à la fois professionnel et privé) par les dirigeants. Ce discours teinté de craintes illustre une position pessimiste souvent observée en sociologie critique de l’innovation lors de l’émergence d’une technologie et symptomatique d’une exagération des dangers liés aux nouvelles technologies : insécurité, surveillance, isolement accru par le réseau, désocialisation... Une des entreprises prévoit toutefois d’équiper prochainement certains personnels de mini-caméras et de portables PC à l’occasion de la diversification de ses activités en Chine. Cette pratique est par ailleurs déjà installée puisque les acheteurs du groupe en visite en Chine ont pris l’habitude de communiquer avec l’organisation durant leur séjour par le biais de webcams et d’ordinateurs accédant à l’internet haut débit. Ce n’est pas ici la recherche d’une « téléprésence » qui justifie précisément que l’échange se fasse par « webcommunication » mais plutôt la nature de la mission des acheteurs qui porte souvent sur des problèmes techniques et pour lesquels le contact visuel est nécessaire. Ils peuvent en effet présenter à leur hiérarchie de nouveaux produits susceptibles d’être fabriqués et commercialisés par le groupe via leurs webcams. Ce n’est donc pas la nécessité de l’image projetée ou reçue des personnes qui est mise en avant ici mais plutôt celle des produits. En effet, une forme de communication tournant autour de l’objet et de sa monstration semble s’imposer à l’interaction visiophonique professionnelle et devrait être explorée à l’avenir. L’intérêt du visiophone pour cette communication-produit a déjà été souligné dans le cadre d’échanges de particuliers à professionnels (commerçants ou administratifs) où “on ne visiophone pas pour se montrer mais pour voir ou pour exhiber un objet” (Jauréguiberry, 1989 : 95). De plus, le net parallèle fait dans le discours de notre interviewé entre l’utilisation des webcams dans l’entreprise et l’ouverture au marché chinois invite également à se poser la question du rôle de l’interculturel dans le choix de cette technologie à distance. N’y a-t-il pas ici une sorte d’acculturation technologique au modernisme communicationnel chinois ? 85 86 Quelles interactions corporelles ? Dans la suite de cette recherche, dans le cadre d’une approche centrée sur les usages il est prévu d’interviewer des utilisateurs de T-PIS sans oublier d’interviewer des nonutilisateurs. Ces derniers seront choisis bien évidemment parmi les salariés qui potentiellement sont susceptibles d’être des utilisateurs du fait de leur activité et de leur équipement informatique habituel de travail (Favoriser par exemple les cadres distants géographiquement par rapport au personnel d’exécution non équipé en T-PIS au sein de la production) pour cerner au mieux les postures de résistance si elles existent. De même, des personnels demandeurs de matériels en T-PIS (exemple : webcam) et travaillant dans des unités éclatées géographiquement distantes pourront être questionnés sur la nature et les motivations de leur demande. La pratique réelle de T-PIS sera observée et filmée sur site dans une démarche s’inspirant de l’anthropologie visuelle en tant que discipline du sensible (De France, 1998). Des matériaux uniques pourront ainsi être récupérés et décryptés. Une des ambitions consiste à catégoriser un certain nombre de postures corporelles repérées à plusieurs reprises sans en formuler des interprétations. Ce repérage dans un premier temps ne serait que de nature descriptive dans la logique d’un refus d’une sémiotique du corps (Caune, 2000). A partir d’une grille d’analyse d’inspiration sémiotique et phénoménologique, les matériaux iconiques et sonores seraient ensuite traités. Dans la tradition phénoménologique , la question sur le comment « being-in-the- world » se pose et donc du comment « être dans l’entreprise », la place du corps étant centrale dans les problématiques de l’entreprise (Casey 2000 : 65). Ce traitement s’appuyant également sur le repérage des interactions doit permettre d’obtenir des résultats à différents niveaux : visées supposées du personnel ; rituel avec reproduction des postures corporelles ; ordre systématisé des postures ; création symbolique d’un nouveau lieu de travail ; gestion des apparences par des conventions ; modalités corporelles de l’interaction à distance et sur la face (Goffman) ; développement de compétences interactionnelles nouvelles ; etc. Une part de la captation d’images et de sons serait doublée d’une seconde captation en simultané pour les autres locuteurs distants. Les entretiens semi-directifs seront effectués à distance en utilisant également une technologie de T-PIS qui devraient faciliter le dialogue entre chercheur et usager. Le partage des T-PIS (chercheur / usager) apporte des éléments nouveaux dans la connaissance des modalités d’usage. Ce partage est considéré comme une implication de nature anthropologique pour le chercheur dans le milieu de l’observé avec les effets productifs attendus de cette approche méthodologique (Hine, 2000). Ces outils complémentaires répondent ainsi à un des principes de la « virtual ethnography » (Hine, 2000) qui considère que le seul face à face n’est pas la seule forme d’interaction à être prise en compte. De plus, le chercheur peut continuer son travail qu’il soit absent ou présent. Se dégage une forme « virtuelle » de permanence du chercheur dans le champ considéré même en cas d’absence de celui-ci. Les limites méthodologiques ne seront pas éludées malgré le caractère indispensable de l’observation in situ des situations d’utilisations des T-PIS. Le questionnement sur la représentativité des données recueillies se doit d’être permanent Lépine, 2005). (Guyot, Bouillon, Durampart, Références Cardon, D. Smoreda, Z. Beaudoin, V. (2005). Sociabilités et entrelacement des médias, texte inédit, Paris, Laboratoire SUSI, France Telecom R αD. Cardon, D. de la Vega, J. Licoppe, C. Pujalte, A. (1999). Les usages de la visiocommunication : de la téléréunion à la coopération, L’écho des recherches n °173. Casey, C. (2000). Sociology Sensing the Body : Revitalizing a Dissociative Discourse. In Hassard, J. Holliday, R. Willmott. H. (Eds.), Body and organization, London : Sage Publications Caune, J. (2002). Tout vient du corps. in Actes du Colloque Médiations du corps, Grenoble : Université Stendhal (http://w3.ugrenoble3.fr/les_enjeux/2002/Caune/index.php). Chabert, G. (2005). Les usages du cartable électronique par les familles, Actes du Colloque international EUTIC « Enjeux et usages des TIC » aspects sociaux et culturels, Bordeaux, 22-24 septembre 2005, tome2, pp 245-253. Denis, J. Licoppe, C.(2005). La coprésence équipée : usages de la messagerie instantanée en entreprise, in Bidet, A. Borzeix, T.Pillon, G. Rot, F. Vatin (eds), Sociologie du travail et activité, Toulouse Octarés (à paraître). De Fornel, M. (1994). Le cadre interactionnel de l’échange visiophonique, Réseaux n°64, De CNET, pp 107-132. De France, C. (1998). Cinéma et anthropologie, Maison des sciences de l’Homme, Paris Flichy, P. (2005). Comment étudier l’usage des TIC ?, conférence plénière, Colloque international Enjeux et Usages des T.I.C (EUTIC) : aspects sociaux et culturels, Bordeaux 3. Guyot B., Bouillon, J-L. Durampart, M. Lépine, V. (2005). Méthodes et techniques de recueil de données : le cas d’un outil de gestion de projets in Méthodologies et techniques de recueil des données en communication organisationnelle, Journées d’études Org & Co, SFSIC, 23-24 mai Hine, C. (2000). Virtual Ethnography, Sage publications, London Hine, C. (Edited by). (2005). Virtual methods. Issues in Social Research on the Internet, Berg, Oxford-New York. Ibanez Bueno, J. (2006). Création d’un hypermédia virtuel et ethnologique. L’exemple d’une recherche sur les internautes suisses et français in Du cinéma ethnographique à l’anthropologie visuelle : bilan, nouvelles technologies, nouveaux terrains, nouveaux langages, Colloque International : Vingt-cinquième bilan du film ethnographique, Musée de l’Homme, Paris. Jankowski, N. W. (1999). In Search of Methodological Innovation in New Media Research, Communications: The European Journal of Communication Research,24(3): 367-374. Jauréguiberry, F. (1989). Usages domestiques du visiophone, TIS, vol 2, n°2. Lamizet, B. (2001). le miroir social des institutions. Théorie de la construction de l’espace médiaté des organisations in Paul-Cavallier, M., Walter, J., L’Harmattan, Paris, pp. 271-282 Le Moenne, C. (2003). Quelle conception de la communication interne à l’heure de la dislocation spatio-temporelle des entreprises ? in Société Française des Sciences de l’Information et de la Communication, Groupe Org & Co, Bulletin, Octobre 2003, pp. 4-24 Olivesi, S. (2002). La communication au travail, Presses Universitaires de Grenoble, Grenoble. Perriault, J. (1989). la logique de l’usage -Essais sur les machines à communiquer, Paris, Flammarion, 253 p. Proulx, S. (2005). Penser les usages des TIC aujourd’hui : enjeuxmodèles-tendances , conférence plénière, colloque international Enjeux et Usages des T.I.C (EUTIC) : aspects sociaux et culturels, Bordeaux 3, septembre 2005, tome1, pp 7-20. Weissberg, J.L. (1999). Présences à distance – déplacement virtuel et réseaux numériques, L’harmattan Communication, 303 p. 86 87 De l’informatisation des processus au travail informationnel en miettes. Isabelle Bazet, LERASS et CERTOP UMR 5044 CNRS, Université de Toulouse III. [email protected] Les travaux récents visant à ré-explorer la notion de système d’information n’ont pas fondamentalement transformé la perspective des définitions premières (Roux, 2004). Cependant, ils interrogent fort utilement les translations sémantiques venues des champs professionnels, en premier lieu ceux des professionnels de l’informatique, qui ont 87 88 progressivement érodé la notion, et fait que le chercheur se doit de reconstruire cette catégorie, comme celles d’information et de communication, « de son point de vue comme des concepts circonscrits » (Floris, 2004). La nécessité du travail sur ces notions se fait d’autant plus sentir que les phénomènes en cause connaissent des transformations profondes, à travers un processus de rationalisation et la recherche d’une interchangeabilité des processus informationnels et communicationnels. Cette évolution passe notamment par le déploiement des ERP44 (Enterprise Resource Planning) et interroge sur « la forme de médiatisation des processus de travail » (Cotte, 2005) mais aussi sur les formes de régulation qui interviennent. Durant trois années, nous avons suivi de manière discontinue les acteurs projet d’un grand groupe internationalisé devant implémenter ce type de dispositif (25 entretiens) et nous avons parallèlement réalisé des entretiens intensifs avec des consultants (10 entretiens). Notre objectif était en croisant ces deux « ancrages » de s’écarter de la singularité de la situation industrielle envisagée et de pouvoir ainsi interroger les promesses de l’outil, relayées par les méthodologies d’accompagnement, issues du domaine du consulting. En somme, ce que nous souhaitons interroger dans un premier temps c’est la fabrique standard de l’information ou encore ce qui relève de l’informatisation des processus, en établissant que s’opère à cette occasion « une rationalisation cognitive », (Bouillon, 2004 ; Cotte, 2005). Nous nous proposons de revenir sur ces éléments à la fois au travers du croisement des recherches sur les ERP et à la fois à l’aune de nos propres résultats.45 Dans un premier temps nous reviendrons sur les questions que posent ces technologies du point de vue de l’organisation. Il s’agira comme nous le propose Guyot (2002) de saisir la rationalisation qui s’opère en « revenant sur les recherches sur l’activité de travail et de système d’information en les resituant dans un contexte en évolution ». Ensuite, nous reviendrons sur l’association récurrente entre processus et ERP pour interroger la dimension normative de ces dispositifs et des méthodologies qui l’accompagnent. Nous nous intéresserons enfin à la dimension politique de tels dispositifs. Questions posées par les ERP : dispersion ou intégration organisationnelle ? Pourquoi les ERP ont-ils retenu l’attention des chercheurs ? La raison peut-être à rechercher dans le fait que ce sont des systèmes qui intègrent des formes d’actions différentes, qui modifient toutes les composantes de l’activité, rapprochent l’information de la décision, bouleversent les modes d’organisation fondés sur la hiérarchie. Ces technologies remettent en cause des frontières antérieurement établies et considérées comme infranchissables. Premièrement, on assiste à une généralisation des technologies d’accompagnement de la coopération qui touchent tous les univers professionnels : entreprises et administrations voient leur processus recodés et harmonisés sur un schéma standard. Deuxièmement, les processus coopératifs qui définissaient jusqu’à présent la limite de toute modélisation vont en devenir la matière première : l’implicite 44 Ces dispositifs logiciels apparaissent aussi sous la dénomination de Progiciels de Gestion Intégrés (PGI). 45 Une partie des éléments avancés dans cette communication s’appuie sur les formalisations proposées dans le cadre d’un ouvrage collectif et résultant d’une réflexion interdisciplinaire sur la question des ERP, notamment. Ces échanges se sont déroulés dans le cadre du programme « Société de l’information » du CNRS et associaient des chercheurs issus des Sciences de l’Information et de la communication, de la sociologie, des sciences de gestion, et des sciences pour l’ingénieur. Terssac de, G., Bazet, I., Rapp, L., (Coordination), 2006, Rationalisations des activités dans les entreprises : le cas des technologies coopératives, Coll. Le travail en débats, Editions Octarès, Toulouse (sous presse) dans les transactions sera décrit, le non-dit ou le dissimulé dans les échanges sera explicité, l’intime et ce qui est « à soi » dans la coopération fera l’objet d’une formalisation portée sur la place publique. Troisièmement, le principe hiérarchique qui divisait le fonctionnement des univers organisés se voit remplacé par une coopération synchrone. Les frontières internes entre fonctions, services et bureaux sont abolies, comme si tout d’un coup les cloisons tombaient, donnant à voir une équivalence des fonctionnalités ; la paye, les achats, la gestion financière, la fabrication, la gestion des hommes sont énoncés dans un langage unique comme des processus comparables, alors qu’on avait fait, par exemple, de la gestion des hommes et des machines deux réalités incommensurables. Quatrièmement, les frontières de l’organisation professionnelle et de son environnement sont revues au profit d’une redistribution des compétences et des attributions des différents acteurs : l’actionnaire, le dirigeant, le client et le salarié sont mis bout à bout ou face à face, alors qu’ils étaient cantonnés dans des univers séparés ; on assiste à une extension des échanges et des communications entre niveaux de décision (global-local), à une synchronisation accrue des agendas, à une intégration de données hétérogènes ; les territoires spécifiques de compétences et d’attributions sont remis en question. Définition des processus et « procès » de mise en oeuvre Le Dictionnaire historique de la langue française (Rey, 1998) circonscrit l’apparition du terme processus dans le domaine de l’anatomie au sens de « prolongement d’un organe, d’une structure, d’un tissu ». L’idée de continuité est donc dans un premier sens associée à celle de processus. Les extensions de sens attribueront par la suite une dimension « qualitative » au terme de processus puisqu’il sera doté du sens abstrait de « progrès, développement » plus particulièrement dans le domaine des sciences (philosophie, sciences humaines, psychologie et psychiatrie et dans les sciences exactes). Ensuite, concurrençant procès, il est passé dans l’usage courant en parlant d’un ensemble de phénomènes se déroulant dans le même ordre. La spécialisation plus technique de « suite ordonnée d’opérations aboutissant à un résultat » (1926, processus de fabrication) empiète sur l’aire de l’emploi de procédure. Les empiètements relevés dans cette définition entre processus, procès et procédure jouent aussi de la même proximité, voir même de la synonymie, dans les propos de nos interlocuteurs. Lorsque l’on franchit un pas supplémentaire et que l’on s’intéresse à la littérature proposée par les consultants, on obtient quelques éléments sur ce que « recouvrent » ces processus. Ainsi Tomas (2002) décline les processus en deux éléments distincts, d’un côté les processus élémentaires, et d’un autre côté les processus opérationnels. L’auteur explique « qu’afin d’être configuré sur l’ERP, chaque processus opérationnel majeur de l’entreprise doit être décomposé. Cette décomposition se trouve nécessaire afin d’identifier les composants – appelés processus élémentaires – qui, assemblés les uns aux autres, constitueront ses processus majeurs. » L’auteur précise que « le même processus élémentaire peut apparaître dans la composition de plusieurs processus majeurs. Exemple de processus élémentaires : création automatique des ordres d’achat, création de données marketing d’un client » (p. 300). Ce que révèle d’emblée cette large définition d’un processus élémentaire c’est qu’elle repose sur une logique de « top down » puisqu’il s’agit bien de se plier – au sens de mise au pli – à la logique de l’ERP pour que les processus puissent se loger dans le design de l’outil (Alsène, 1994). Ajoutons que si les effets d’articulation entre processus sont pointés dans cette définition, nous n’apprenons que peu de choses sur la nature exacte desdits processus. 88 89 Penchons-nous maintenant, sur ce qui relève des processus opérationnels. Ils regroupent « l’ensemble des activités plus ou moins large exécuté dans l’entreprise afin de pouvoir offrir le service ou le produit commandé par un client. ( …) Un processus opérationnel peut appartenir à une unité opérationnelle ou bien traverser plusieurs unités opérationnelles. Exemple de processus opérationnels majeurs : commande client allant de la cotation à la facturation, ordre d’achat fournisseur allant de la demande de cotation au paiement » (p. 300). Ce que l’on comprend au travers de ces définitions, c’est que le processus est envisagé comme un chaînage d’action, de briques informationnelles qu’il s’agit d’identifier et d’emboîter. Mais quid dans cette définition de ce qui relève des contextes dans lesquels l’information est produite et des savoirs mobilisés par les acteurs pour se faire ? Valérie Botta-Genoulaz (et alii, 2005 ; 2006) nous propose une définition constitutive d’une première facette des ERP . Cette technologie informatique modulaire et intégrative requiert une re-conception des processus traduite dans un référentiel unique, c’est « une application informatique paramétrable, modulaire, intégrée et ouverte, qui vise à fédérer et à optimiser les processus de gestion de l’entreprise en proposant un référentiel unique et en s’appuyant sur des règles de gestion standard ». Retenons que la première facette de cette technologie est d’être fondée sur une modélisation de la réalité au cours de laquelle on recodifie toute la gestion de l’entreprise sous forme de processus traduits dans un référentiel permettant d’édicter des règles standard. Ce système d’information unifié ne représente pas seulement la dimension cognitive de cette technologie, mais aussi sa dimension normative, puisque le référentiel sert à élaborer des principes d’action et des règles. La première facette de cette technologie renvoie à la dimension cognitive, qui se présente comme un système d’information unifié prétendu cohérent avec les pratiques en vigueur. Les ERP se présentent comme des logiciels dont la signification n’est pas unilatérale, puisqu’ils combinent deux tendances contradictoires, comme le montre V. BottaGenoulaz, la cohérence et la rigidité. À l’origine, l’auteur montre qu’il s’agit pour les entreprises d’harmoniser et d’intégrer une pluralité de flux informationnels hétérogènes. En effet, les ERP ont pour objet de résoudre un problème, celui de la communication éclatée qui rend la coordination difficile ; il s’agit donc d’assurer une fluidité informationnelle entre toutes les composantes d’une entreprise, mais aussi avec les acteurs de leur environnement afin de diminuer les coûts de transaction et de maîtriser les dépenses. Ces logiciels reposent sur un système d’élaboration, de traitement, de transmission et de stockage d’informations, qui combine des données commerciales, de production, financières et des données de gestion des ressources humaines. On l’aura compris, les divisions de l’entreprise sont remises en cause, sous l’influence de cette informatique de groupe qui repose sur une base de données unique, qui fait des données individuelles une ressource collective. De plus, l’auteur nous rappelle l’existence d’un « lignage technologique » ou l’existence d’une « parentèle » entre technologies qui s’emboîtent pour donner lieu à une génération qui ambitionne de gérer toutes les composantes des entreprises. Selon l’auteur, les prémisses étaient annoncés par les logiciels de planification MRP II (Material Requirement Planing) qui calculaient les besoins en composants de chaque entité, incluant la gestion des ressources matérielles et humaines : la voie était ouverte pour l’intégration des processus, ce que la société SAP comprendra aisément ; de plus, la notion de CIM (Computer Integrated Manufacturing) fait alors son apparition dans les années 80, qui sera prolongée dans les années 90 par la notion de processus. La relation avec le client devient essentielle et génère de nouvelles applications type CRM (Customer Relationship Management). Assiste-t-on à une optimisation effective des processus telle que les concepteurs l’ont imaginée ou bien s’enfonce-t-on dans une réalité imaginaire ? Dans cette phase d’identification des processus, les entreprises font souvent appel à des expertises extérieures à savoir celle de consultants. Comment se régule ce jeu de l’altérité ? La main passe : la redistribution de l’initiative Dans l’élaboration de ce nouveau mode de pilotage des entreprises et des administrations, la phase d’analyse, de reconception des processus, de prototypage nécessite le recours à des consultants pour assurer la coordination de différents spécialistes et apporter une contribution dont on évalue à 25% le coût de leur intervention. La connaissance de l’organisation est élaborée par le consultant et entre ses mains, ainsi que la maîtrise des délais : le client ne va-t-il pas dépendre du consultant et le consultant ne va-t-il pas tirer avantage de son expertise pour imposer ses choix ? Thine (2006) attire notre attention sur cette autre facette cachée de la dimension politique des ERP : les relations entre les protagonistes (clients et consultants) sont des relations de pouvoir et chacun tente de les tirer à son avantage. En effet, pour des raisons de compétences et de temps, les entreprises ont recours à des consultants pour implanter ces logiciels : « Les consultants vendent des outils qu’ils présentent comme indispensables et se vendent eux-mêmes comme modes d’emploi indissociables de ces produits ». Analysant le cas d’un ERP implanté à dans une grande entreprise du secteur de l’énergie, il montre que progressivement la relation du client à son fournisseur va s’inverser et le pouvoir de décision et de contrôle va en partie échapper au client, pour passer dans les mains de la société de service. Les consultants voient leur importance grandir et le client voit sa position s’affaiblir, quand il n’est pas « marginalisé », comme le dira l’un des consultants. Certes, il ne s’agit pas d’un « coup d’état », puisque ce glissement du pouvoir se traduit par une redistribution du pouvoir d’initiative mutuellement consentie ou tolérée. D’une part, les clients perdent le contrôle des décisions techniques et d’autre part, les clients s’engagent à fournir les informations et les méthodes au consultant au bon moment, à former les futurs utilisateurs et surtout à faire en sorte que le projet soit accepté par les cadres et par les salariés. Le pilotage passe des mains du client à la société de service et si l’on retrouve les différents protagonistes identifiés précédemment (key-user46 et pilote), c’est bien leur relation qui change, ce que montre clairement Thine (ibid) : « Pour le chef de projet ERP d’une de ces directions, la société de conseil pilote et réalise, alors que le client relaie en interne et est subordonné à la société de conseil. Le chef de projet a donc un rôle d’animation morale par la recherche de l’adhésion des utilisateurs et réalise les conditions qui rendront possible le bon déroulement du projet pour le consultant ». Au total, ce qui est structurant ici, ce n’est pas ce qui est stabilisé, mais ce qui change : ce n’est pas l’outil qui est l’occasion pour les consultants de stabiliser un référentiel, mais le changement des sources d’initiatives et de pouvoir qui passent de main en main. Aux consultants le soin de mettre en place une solution qui marche et donc une solution efficace, au client le soin de faire que la solution soit acceptable et donc réponde au critère de légitimité ; en revanche les deux ont en charge d’anticiper sur le devenir de l’entreprise en fournissant 46 Key-user ou utilisateur clef : ces utilisateurs ont pour « rôle » de tester les différentes versions de l’outil avant son implémentation. 89 90 à ses dirigeants les outils de management du changement de statut de l’entreprise. Le registre des dépendances externes identifié ici, interroge en retour un autre versant de la dimension politique à savoir celui du redoublement du contrôle pesant sur les individus à des fins stratégiques. L’utopie du continuum : la dimension politique L’idée que l’approche par processus ne se traduit pas mécaniquement par une intégration de ces processus se retrouve dans nos précédents travaux (Bazet, Mayère, 2006). En effet, à l’occasion de la recherche menée auprès de consultants et visant à comprendre l’outillage managérial associé à de telles implantations, nous montrons de quelle manière les processus peuvent êtres couplés ou découplés selon la rationalisation visée, ici ce que les consultants nomment la valeur ajoutée. Nous entrons dès lors dans la dimension politique de l’outil qui sert de support aux décisions d’intégration ou d’exclusion de processus et qui constitue l’une des facettes de cette technologie. Suivons le cas de la gestion des personnels ou celui de la paie, que l’on cherche à optimiser à l’aide d’un ERP et de ses deux modules qui poursuivent ce que nous avons appelé « le lignage technologique » : d’un côté le BPR (le Business Process Re-ingénierie) sert à codifier les activités et à les cartographier en processus et d’un autre côté le BPO (Business Process Outsourcing) sert à décider de l’externalisation de certaines activités, en fonction de la valeur ajoutée à l’entreprise. Premièrement, nous considérons que l’outil est enfermé dans une conception fonctionnaliste : la fonction de niveau supérieur ou agrégée (le global) commande et dirige la fonction de niveau inférieur ou détaillé (le local). Dans cette perspective, « on postule en somme que les ordres d’information requis par le global “conviennent” au pilotage local », en niant que le processus d’échanges et de communications est lié à la singularité des situations, requiert de l’interprétation, se propage par allers et retours et non de manière séquentielle. Deuxièmement, cette manière de voir « organiciste » conduit les consultants à égaliser les processus en les mettant sur le même pied d’égalité: cette égalisation s’accompagne d’une « métrise » du processus de gestion des ressources humaines, mais cette mise en calcul n’assure en aucune manière la « maîtrise effective » du processus. D’un côté, l’information au travers des ERP doit exister en ellemême, comme ressource mobilisable à chaque étape avec la fiabilité requise ; et d’un autre côté, la complexité des organisations, leur « tension » à force de flux tendus et de fonctionnement économe les rendent particulièrement vulnérables aux aléas. L’élimination de toutes les redondances, y compris informationnelles, pour réduire les coûts, rend l’organisation d’autant plus vulnérable que son personnel n’est plus nécessairement à même d’assurer la permanence. Cette approche occulte la question de la formation du sens. Ainsi parmi les avatars recensés, évoquons celui de l’externalisation de la gestion des ressources humaines, estimé standard. L’entreprise à décidé initialement d’externaliser la gestion des ressources humaines plutôt que de laisser un responsable du personnel pour réguler les dysfonctionnements dans les processus coopératifs qui relèvent des différends entre les humains ; mais dans le cas de la paie, l’entreprise a décidé de réintégrer la gestion de ses activités et se retrouve confrontée à un problème juridique pour définir qui est le propriétaire des données : l’ancien sous-traitant ou le nouveau ? En conclusion, il nous semble que le entre information et organisation mérite d’être questionné. En effet, il nous semble que cette nouvelle génération de technologie peut être interprétée comme une « technologie d’organisation ». D’abord, parce que cette technologie n’est pas uniquement technique puisque sa matière première touche les relations entre les personnes et qu’il s’agit de les ré-agencer sous l’impulsion du dogme de « l’efficacité ». En ce sens cette technologie requiert une formalisation des interactions, une explicitation des savoirs collectifs qui se forment et qui circulent au sein de collectifs, d’une traçabilité des contacts, d’une analyse des formes d’échanges et de coopération. Ensuite, la conception de cette technologie est singulière : il ne s’agit pas d’implanter un logiciel en formant les utilisateurs, ni même d’analyser une réalité pour concevoir un outil dédié à cette situation, encore moins d’ajouter un outil supplémentaire, mais bien d’optimiser les interactions entre systèmes, entre acteurs, entre niveaux de décision, entre intérieur et extérieur. C’est en ce sens un « méta-outil » qui va jusqu’à mettre en discussion la notion d’entreprise, entendue comme lieu d’initiatives ou la notion d’organisation productive structurée au travers du paradigme hiérarchique. Enfin, c’est une technologie d’organisation qui remet en cause l’ordre structuré qui efface d’un trait les construits antérieurs, propose une vision différente de la réalité. Bien entendu, cette technologie ne fonctionne pas seule et ne se propulse pas d’elle-même : elle s’incruste dans l’ordre établi par des acteurs qui la soutiennent et entrent parfois en conflit avec les acteurs locaux ; elle propose une vision hétéronome, homogénéisée et intégrée de l’entreprise, mais n’arrive pas pour autant à annuler les autres visions de l’entreprise. Elle prétend résoudre les incohérences, mais introduit des rigidités. Bibliographie Bazet I., Mayère A., 2006. « Rationalisations des activités dans les entreprises : le cas des technologies coopératives, Terssac de, G., Bazet, I., Rapp, L., (Coordination), Coll. Le travail en débats, Editions Octarès, Toulouse (sous presse). Botta-Genoulaz V., Millet PA., Grabot B., 2005. « A survey on the recent research literature on ERP systems », Computers in industry, Elsevier, Amsterdam. Botta-Genoulaz V., 2006. « Rationalisations des activités dans les entreprises : le cas des technologies coopératives, Terssac de, G., Bazet, I., Rapp, L., (Coordination), Coll. Le travail en débats, Editions Octarès, Toulouse (sous presse). Bouillon JL., 2005, « Autonomie professionnelle et rationalisation cognitive : les paradoxes dissimulés des organisations postdisciplinaires », Etudes et Communications, n° 28, pp 91-105. Coninck de, F., 1995. Travail intégré. Société éclatée, Coll. Le sociologue, PUF, Paris. Gaulejac de, V., 2005. La société malade de la gestion. Idéologie gestionnaire, pouvoir managérial et harcèlement social, Editions du Seuil, Paris. Guyot, B., 2002. « Mettre en ordre les activités d’information, nouvelle forme de rationalisation organisationnelle », http://w3.ugrenoble3.fr/les_enjeux/2002/Guyot/index.php Tomas, JL., 2002. ERP et progiciels de gestion intégrés. Séléction, déploiement et utilisation opérationnelle. Les bases du SCM et du CRM, Coll. InfoPro, Dunod, Paris. Thine S., 2004. « L'espace du conseil sous l'effet des ERP », Le mythe de l'organisation intégrée - Les progiciels de gestion, Segrestin D., Trompette P., Darréon JL., (coord.), Sciences de la société, n° 61, PUM, Toulouse. Thine S., 2006. « Rationalisations des activités dans les entreprises : le cas des technologies coopératives, Terssac de, G., Bazet, I., Rapp, L., (Coordination), Coll. Le travail en débats, Editions Octarès, Toulouse (sous presse). rapport 90 91 Les communautés littéraires : de l’organisation apprenante à l’intelligence collective. Brigitte CHAPELAIN CRIS SERIES / Université Paris 10 [email protected] 91 92 « On appelle « intelligence collective » la capacité des collectivités humaines de coopérer sur le plan intellectuel pour créer, innover, inventer »47. S ‘interroger sur les pratiques d’intelligence collective dans les communautés littéraires en ligne ne relève pas d’une vision techniciste de la création et de la culture Il s’agit de prendre en compte des phénomènes organisationnels et cognitifs qui se développent de plus en plus dans notre société grâce à des modes de communication interactifs, collectifs et décentralisés.Le champ littéraire n’échappe pas à cette évolution.Ignorer ces pratiques et ne pas réinterroger les modalités de leur morphogénèse ,sous prétexte qu’elles n’ont rien à voir avec le champ littéraire traditionnel, peut conduire à deux excès dans l’analyse culturelle de l’ère des réseaux : penser qu’on puisse analyser de nouveaux phénomènes avec des critères anciens et qu’en matière de culture, et plus particulièrement de littérature, les nouveaux outils d’écriture et de lecture provoquent des ruptures avec la tradition. Nous nous appuyons en particulier sur les travaux de la FING, sur les théories constructivistes de l’apprentissage et sur les recherches menées dans le domaine de la CMO (communication médiatisée par ordinateur). Dans des travaux antérieurs48 nous avons utilisé les concepts de communautés de pratique de Wenger et d’organisation apprenante pour analyser et caractériser certaines de ces communautés. La problématique de l’intelligence collective nous parait pertinente pour aborder d’autres dimensions propres à ces communautés et renforcer un cadre théorique en construction qui permettrait de mieux cerner les formes communicationnelles et organisationnelles ainsi que les activités cognitives qui les constituent . Avant d’analyser ces manifestations d’intelligence collective en observant plus spécialement des communautés de pratique comme certains blogs d’écrivains, nous rappellerons l’évolution du concept de communauté littéraire et certaines catégories que nous avons distinguées. À quelles émergences assistons-nous d’un point de vue organisationnel : émergences de rôles, de conduites, de normes et de logiques d’apprentissage49 ? Quelles représentations et quels statuts de l’auteur, du lecteur ,de l’œuvre, de l’écriture et de la littérature développent ces pratiques? Quelles incidences les nouvelles formes organisationnelles et les nouvelles inscriptions communicationnelles de la littérature exercentelles sur le contexte culturel actuel et de quelles manières sontelles partie prenante de cette culture de la virtualité réelle dont parle Castells ? Telles sont les questions auxquelles nous essaierons de répondre. 1.Communautés littéraires en ligne. partageant un but commun et des activités en coopération sur les réseaux. Pour S.Proulx51 la virtualité doit être utilisée comme une catégorie qui permet de repenser le lien social. Dans le sillage de la CMO52, on constate que le développement des pratiques d’écriture sur le réseau fait émerger un phénomène de renouveau communautaire (Castells, 2002) Pour André Lemos53, les communautés virtuelles fonctionneraient comme toute communauté autour d’un projet: mais celui-ci introduit la technique dans la culture; la proximité y’est caractérisée par une territorialité symbolique et l’engagement s’appuie sur un intérêt commun ponctuel. Le terme virtuel, trop souvent présenté comme l’inverse de réel, s’est éloigné de la signification philosophique classique qui signifie en puissance. Chez Deleuze, par exemple,le virtuel ne s’oppose pas au réel, mais il est dans la recherche de son actualisation. Plus généralement les membres de communautés virtuelles ne se contentent pas de communiquer, mais de conduire une demarche qualifiante:“de participer à la réalisation collective d’une démarche pour l’atteinte d’un but commun”54. Serge Proulx et Lazlo Toth55 ont remis en perspective l’évolution de la notion de communauté virtuelle en distinguant trois périodes. Les années soixante-dix voient éclore dans une ambiance de contre-culture l’utopie des « on line communities », dont l’idée et l’appellation reviennent à Licklider et à Taylor : “Ce seront des communautés reposant non pas sur une localisation commune, mais sur un intérêt commun... »56. Pour ces deux innovateurs il s’agit d’une communication productive et du bonheur de parvenir à des interactions souhaitées. À la fin des années quatre-vingt-un, se manifeste une vision « désenchantée » et méfiante des communautés virtuelles, comme celle d’une partie de la communication sur Internet, dont on souligne les dangers éthiques, idéologiques et économiques. Pendant les années quatre-vingt-dix domine une conception organisationnelle des communautés, en particulier celles relevant du e-learning, de la consultance et du commerce électronique. 1.2.L’organisation apprenante et la communauté de pratiques. C’est à cette époque que d’un modèle rigide émerge une organisation en processus et en mutation qui s’appuie sur des systèmes techniques. L’importance de la gestion des connaissances et de l’intelligence économique dans le management vont donner aux collectifs professionnels, aux savoirs et aux resssources une importance accrue.L’apprentissage organisationnel désigne des dispositifs qui favorisent le développement de l’apprentissage collectif au profit de l’apprentissage individuel rejoignant en cela les 51 Les communautés littéraires construisent-elles du lien social? Colloque International “L’organisation media.. Dispositifs médiatiques, sémiotiques et de médiations de l’organisation”, Université Jean Moulin , Lyon, 19-20 Novembre 2004. 52 1.1.Évolution du concept de communautés virtuelles. Le terme de communauté virtuelle50 s’est imposé à partir de la fin des années 80 pour désigner des groupes sociaux 47 Dossier collective glossaire http://www.autrans. crao.net/index.-php/intelligence 48 B.Chapelain , Les communautés littéraires comme organisations apprenantes, in Communiquer virtuelles : penser et agir en réseau , S.Proulx, L.Poissant, M.Senecal (dir), PUQ, Septembre 2006. 49 B.Chapelain,« Internet : coexistence des courants classiques et de nouvelles logiques d’apprentissage » in Formation des salariés : quels choix pédagogiques aujourd’hui ?, Actualité de la formation permanente, Juillet-Août 2004, n°191 . 50 On emploie aussi les termes de communauté en ligne ou de e-communautés. Communication médiatisée par ordinateur. 53 André Lémos, “Les communautés virtuelles”, Sociétés n°45 in J.F.Marcotte , Résumé des Communautés virtuelles d’André Lemos, http://jfm.ovh.org/communautes virtuelles/theorique.html. 54 France Henri,Béatrice Pudelko, La recherché sur la communauté asynchrone in Les communautés délocalisées d’enseignants, A. Daele, B.Charlier (Coord), PNER,http://www1.msh-paris.fr 55 “Communautés virtuelles? Nécessité d’une clarification conceptuelle” in Actes du collooue Communautés virtuelles.Penser et agir en réseau, Novembre 2003, www.comvirtu.uqam.ca 56 “The computer as a communication” in Device , sciences and technology,Avril 1968 cité par Alexandre Serres, “Regard sur les origines des communautés virtuelle:les communautés en ligne et le temps partagé;un exemple d’hybride socio-technique”, Colloque Écritures en ligne et communautés, Université de Rennes 2, Septembre 2002. 92 93 théories socio-constructivistes.L’idée d’une organisation qualifiante ou apprenante “forme organisationnelle permettant à ses membres de se qualifier (d’apprendre) en permanence”57 fait son chemin, et peut être transposée dans l’analyse des commmunautés virtuelles, comme les communautés littéraires, en prenant en compte leurs activités et les savoirs en jeu. En effet qu’il s’agisse de communautés d’écriture collaborative ou collective (poésie, roman, journal intime, nouvelles…) réinventant des processus peu connus d’écriture, de sites d’information, et de documentation scientifique donnant accés à des archives et à l’actualité de la litterature ou encore des blogs littéraires offrant de nouvelles formes d’interactivité et de contenus , et plus particulièrement les blogs d’auteur réinventant la discussion et le journalisme littéraire sont bien des formes organisationnelles qui permettent à chacun des membres en interaction avec des outils et d’autres membres de mettre en commun leurs compétences pour créer de nouveaux savoirs et savoir faires dans le domaine. Nous retrouvons dans ces différentes formes de communauté les deux aspects d’une organisation apprenante : “une organisation qui apprend et une organisation qui encourage l’apprentissage de ses membres” 58 L’apprentissage organisationnel est une des dimensions de la réflexion que Wenger59 développe sur les communautés de pratique.Pour Wenger le théoricien des communautés de pratique trois dimensions caractérisent les communautés: l’engagement mutuel, le répertoire partagé et l’entreprise commune qui est le résultat d’un processus collectif de négociation. Le concept de communautés de pratiques appliqué aux communautés littéraires qu’elles soient des communautés d’écriture, de discussion ou des communautés d’information et de documentation littéraires en facilite l’analyse et la compréhension. L’engagement mutuel représente “la complémentarité des compétences” et “la capacité des individus à relier efficacement leurs connaissances avec celles des autres”60. “Ici peu import que l’on soit normalien , prof, toubib ou taulard ou femme au foyer , ce qui compte , c’est ce que l’on écrit” écrit Anne à Lise qui vient de rentrer dans la liste d’écriture yahoogroupes61 . Dans les communautés littéraires qu’il s’agisse d’écrire collectivement, de participer à un blog d’écrivains ou encore de consulter Fabula.org les membres s’investissent avec des compétences différentes (culturelles, créatives , cognitives et techniques ). L’entreprise commune est bien plus que l’objectif fixé au départ elle comprend aussi les régles qui sont négociées en permanence par le collectif. La liste de discussion LITOR62 qui se donne pour objectif “de réfléchir collectivement aux usages, avantages, incconvénients, et expériences de l’ordinateur dans le cadre des études littéraires” montre qu’elle doit fonctionner par les échanges de ses membres.63 Le répertoire partagé est la troisième dimension d’une communauté de pratiques; il s’agit d’un certain nombre de réferences, d’outils et symbôles que les membres partagent et construisent en commun et qui est mobilisable à tout moment. Le répertoire partagé se développe et évolue au cours du 57 François Beaujolin , Vers une organisation apprenante, Éditions Liaisons, 2001. 58 Handy, 1989 cité in Daniel Belet, Devenir une entreprise apprenante , Les meilleures pratiques, Éditions de l’organisation , 2003. 59 E.W enger, Communities of Practice : The key to a Knowledge Strategy in Knowledg directions, vol 1, Fall, 1999. 60 E.Soulier, Les communautés de pratique pour la gestion des connaissances, In management des connaissances en entreprise, Imed Boughzala, Jean Louis Hermine, Hermés Science 2004. 61 [email protected] 62 Liste de discussion francophone sur les études littéraires et l’ordinateur. 63 Un grand nombre de listes peut être cité :Dramatica, Mélusine, Dix Neuf. temps. Ainsi les membres de la liste “Lire” de Yahoosgroupes”64 sont réunis sur une large conviction que “la lecture c’est la moitié de la culture.” 1.3.Figures de communautés littéraires. En partant des communautés de pratique on peut distinguer d’autres figures de communautés en fonction du projet, du degré de collectivité dans les tâches et des répertoires partagés. Les communautés d’intérêt s’investissent davantage dans l’échange d’analyses autour de livres et d’écrivains, que dans la relation aux autres membres et les solutions recherchées sont plus personnelles que collectives.65 La communauté d’intérêt intelligente “se crée dans un contexte spécifique pour répondre à un besoin ciblé , pour résoudre un problème particulier, pour définir ou réaliser un projet.”66Sa durée est temporaire. Au printemps 2003, devant la décision de l’état de ne pas racheter l’héritage d’André Breton, une communauté littéraire de circonstance s’est constituée sur Internet. Celle-ci rassemblait des membres différents: gens de lettres, artistes, enseignants, et amateurs de surréalisme. Cette communauté s’affichait comme militante: elle voulait obliger l’état à créer une fondation où l’héritage Breton aurait été conservé à la portée du public et des chercheurs ;par ses méthodes, ses actions, et certains de ses propos elle témoignait ou prolongeait l’esprit surréaliste. Très vite une pétition a circulé sur Internet. Chaque nom était intégré à la liste de diffusion. La communauté se construisait autour de celle-ci en rendant compte au jour le jour de chaque événement nouveau : articles, manifestations, textes, déclarations de personnalités, démarches, lettres… François Bon et Mathieu Bénézet, qui ont pris la tête de l’initiative, ont ainsi permis à des individus reliés uniquement par le réseau, de soutenir un engagement , en lisant et en échangeant des mails pendant quelques semaines pour sauvegarder un patrimoine littéraire, et artistique. Bien sûr,l’État n’a pas cédé, mais il a été considérablement gêné par ce mouvement. Ce phénomène a montré que le réseau permettait une mobilisation quasi immédiate de citoyens de culture et de continents différents autour du devenir d’œuvres d’art, et d’une cause aussi désuète, semblait-il, que celle du surréalisme. Les communautés d’apprentissage se développent dans des créations collectives, comme des romans collectifs ou des ateliers d’écriture, dont certaines peuvent être menées dans un contexte scolaire67. Bruner68 souligne que c’est l’externalisation en œuvres collectives qui aident à construire une communauté, et à constituer des modes de pensée partagés et négociés. Dans ces pratiques concrètes on retrouve des étapes de l’apprentissage issu des théories constructivistes, comme le conflit socio-cognitif et l’apprentisssage coopératif où la convergence des savoirs du collectif interfèrent avec ceux de l’individu et créent de nouvelles représentations et de nouveaux savoirs. Chaque année,sous le patronage de France Télécom Education, sept romans virtuels collaboratifs sont écrits en plusieurs langues par des élèves de dix-huit pays différents. Cette expérience rend bien compte des activités d’une communauté d’apprentissage, et elle traduit les 64 65 fr.groups.yahoo.com Jean Benoît,Des objectifs 2000,www.tact.fse.ulaval.ca communs, des valeurs partagées, 66 France Henri, Béatrice Pudelko , La recherche sur la communauté asynchrone in Les communautés délocalisées d’enseignants, A. Daele, B.Charlier (Coord), PNER, http://www1.msh-paris.fr 67 L’exemple le plus récent et le plus abouti est l’atelier d’écriture en ligne de François Bon sur le thème de la mer. Actu.remue.net.atelier 68 Jérôme Bruner, L’éducation entrée dans la culture, Retz, 1996. 93 94 conceptions précises de l’apprentissage qui la fondent : apprentissage collaboratif et pédagogie de projet. Histoires virtuelles 2003 développe des communautés d’apprentissage où l’exercice de l’écriture va de pair avec l’apprentissage de la communauté.Isabelle Rieusset -Lemarié69 considère que les Simulations globales sont des communautés éducatives fondées sur la pratique de la mimesis. « L’œuvre n’est pas tant le roman écrit que l’expérience même de cette communauté d’écriture où les personnages en interaction sont en train de tisser une fiction. ». La liste d’écritures Yahoo groupes est un autre exemple de communauté d’apprentissage collectif.L’écriture représente l’intérêt principal et permet l’établissement d’un lien social. Un théme d’écriture est lancé chaque semaine : chacun écrit individuellement et soumet son texte aux autres membres qui émettent des critiques positives ou négatives étayées d’arguments; des textes sont aussi écrits collectivement.C’est par l’écriture que les membres de la liste se perçoivent et apprennent à se connaître : « J’aime beaucoup faire un petit tour dans ton monde où le soleil te regarde de son œil violet, les arbres papotent, les fleurs s’alanguissent….. (Anna à Bozena) .Lire l’autre renvoie à sa propre créativité : « Ton chant donne envie de chanter, Tous mes doigts m’en démangent,Je vais écrire »(Francis à Anna) . L’organisation apprenante, ou qualifiante, est une forme organisationnelle qui permet à ses membres de se qualifier, d’apprendre, d’apprendre à apprendre et de développer des capacités d’innovation et de créativité. Elle se traduit par une réflexion sur les modes d’organisation et les procédures de travail. Les diverses communautés littéraires que nous venons d’analyser tendent vers cette forme organisationnelle car, qu’elles soient documentaires, ou poïétiques, elles relèvent d’une volonté de partage et de développement des connaissances et de la création, et de structures de gestion qui atténuent les marques de hiérarchie. 2.L’intelligence collective. 2.1.Évolution du concept. L’intelligence collective et les communautés ont en commun le fait qu’elles sont à la fois un mythe et un concept. « On appelle ,intelligence collective la capacité humaine de coopérer sur le plan intellectuel pour créer innover, inventer. Dans la mesure où notre société devient de plus en plus dépendante du savoir, cette faculté collective prend une importance fondamentale. »Telle est la définition posée par le groupe intelligence collective de la FING lors de sa mise en place. L’intelligence collective est un concept travaillé depuis une quarantaine d’années70. Dans un article intitulé « Le jeu de l’intelligence collective » Pierre Lévy 71 désigne l’intelligence collective humaine techniquement augmentée comme un nouveau champ de recherche interdisciplinaire. Projetant de fabriquer un logiciel JIC72 à l’intention des communautés pour leur permettre de mieux évaluer leur intelligence collective et leur fonctionnement, P.Levy distingue sur le plan de la 69 La médiation de la mimesis dans l’expérience éducative d’une communauté virtuelle, Colloque Écritures en ligne et communautés, Université de Rennes 2, Septembre 2002. pragmatique quatre sous-réseaux constituant l’intelligence collective d’une communauté : d’abord « un réseau de personnes » constituant le capital social de la communauté qui représente la qualité des relations qui lient entre eux les membres ; « un réseau d’infrastructures physiques et techniques » constituant le capital technique et relevant de la pertinence des liens et de la performance technique; un réseau de documentation et d’archives, constituant le capital culturel de la communauté ; et un capital intellectuel qui est le résultat des trois précédents alors que ceux-ci sont les moteurs de son activité. P.Lévy décompose le capital intellectuel en trois puissances : la puissance réflexive désigne les représentations et la mémoire de la communauté ; la puissance de décision est constituée par « les principes abstraits et critères » qui conduisent les activités de la communauté ; la puissance pratique comprend « le réseau des compétences, savoir-faire et connaissances procédurales » qui nourrissent les pratiques de ces communautés. C’est bien sous l’angle pragmatique que nous nous interrogerons les pratiques d’intelligence collective des communautés littéraires. J.M Penalva73 propose quatre approches de l’intelligence collective : l’approche communicationnelle puisqu’il s’agit de dispositifs sociaux techniques qui permettent de construire du sens et de dynamiser les connaissances ; une approche socio organisationnelle que les formes d’organisation, de règles et d’enjeux appellent et enfin une approche de la cognition sociale que représentent la co-construction des savoirs et l’utilisation de connaissances et références communes. Pour J.M .Penalva74 l’intelligence collective est une hypothèse portant sur la capacité d’un collectif à fabriquer de l’organisation et de la connaissance et dont le résultat sera plus performant que celle additionnée de l’ensemble des membres. En effet les interactions qui se développent au sein des différents capitaux définis par P.Lévy produisent de la plusvalue . J.M.Penalva75 à propos de l’intelligence collective distingue trois processus : « les processus cognitifs » d’apprentissage, de représentation, de décision , « les processus sociaux » de partage, d’échange , de négociation et d’auto organisation, ainsi que « de processus relationnels » (ou de socialisation) de reconnaissance , de compétition et d’implication qui évalueront les capacités de ces collectifs à contribuer à une plue value cognitive et créatrice. Nous allons affiner l’analyse de certaines communautés littéraires en reprenant les dimensions de l’intelligence collective proposées par P.Levy et J.M.Penalva et voir en quoi celles-ci nous permettent de mieux comprendre le fonctionnement, la dynamique et les activités cognitives qui les constituent . 2.2.L’intelligence collective dans les blogs d’écrivains? En s’appuyant sur les quatre distinctions de Pierre Lévy ( capital social, capital technique , capital culturel et capital intellectuel ) examinons de plus prés un type de communautés de pratique que sont les blogs d’écrivains . Les blogs d’écrivains français apparus sur le web à partir de 2004 sont beaucoup moins nombreux que ceux des 73 70 Ce concept peut être décliné successivement : Noosphère de Teilhard de Chardin, Écologie de l’esprit de Gregory Bateson, Écologie des représentations de Dan Sperber , Sujet collectif de Michel Serres, Cybionte de Joël de Rosnay, Hive Mind de Kevin Kelly, Intelligence connective de Derrick de Kerkchove, Super brain de H.Bloom, intelligence émergente de Steven Johhnson.Qu’est-ce que l’intelligence collective ? Philippe Durance (Coordination), Internet actu -Fing- Inist/CNRS L’intelligence collective, http://a-com.com/paper/penalva ,mais aussi Typologie du travail collaboratif. Variations autour des collectifs en action in Intelligence collective Rencontres 2006, Collection sciences économiques et sociales,Éd Mines Paris Les Presses, Paris 2006. 74 Le jeu de l’intelligence collective in Sociétés, Revue des sciences humaines et sociales, N°79, 2003/1, Réseaux, communautés, Identités, Ed De Boëck. L’intelligence collective, http://a-com.com/paper/penalva ,mais aussi Typologie du travail collaboratif. Variations autour des collectifs en action in Intelligence collective Rencontres 2006, Collection sciences économiques et sociales,Éd Mines Paris Les Presses, Paris 2006. 72 75 71 Jeu de l’intelligence collective http://a-com.com/paper/penalva 94 95 journalistes qui prolifèrent, des managers, des entreprises ou ceux en augmentation des hommes politiques.Nous nous appuierons sur six d’entre eux 76. Le blog de Pierre Assouline la République des livres est sans conteste le blog d’écrivain le plus fréquenté et le plus connu dans la blogosphère littéraire . Fondé en Octobre 2004 Pierre Assouline comptait le 3 Août 2004 son trente millième commentaire de blogueur après 655 billets écrits de sa main .L’écrivain rappelle que des commentateurs républicains et lettrés enrichissent ce blog « d’informations originales, de précisions excentriques, d’humour décalé ,d’analyses pertinentes , de culture spécifique, perspectives inattendues, voire même de leur délire » . Ce mélange désigné de savoirs, de réflexion et de comportements personnels résume assez les pratiques de ces blogs littéraires. Le capital social tel que le définit Pierre Lévy concerne ici les membres de ces blogs ou commentateurs ainsi que la qualité des relations établies entre eux. L’intérêt et la passion pour la littérature et la lecture guident l’intervention et l’appartenance à un blog. Plus que des communautés d’intérêt intelligente, il s’agit de communautés de pratiques. L’ensemble des membres de ces blogs sont des amateurs avisés, voire des spécialistes de la littérature. Beaucoup d’enseignants, d’étudiants, quelques écrivains et des spécialistes, mais aussi des lecteurs cultivés souvent francophones et européens, comme nous l’indique cette réflexion d’un bloggeur 77 : « Je n’écris pas de thèse , je ne suis qu’un vulgaire liseur de Proust et des autres, vulgaire au sens latin du terme, en bref, je ne suis pas un professionnel, et pourtant comme une péripatéticienne fait la Rue St Denis , j’arpente le trottoir de la littérature ». Les membres peuvent appartenir à des cultures étrangères comme les africains francophones qui interviennent dans le blog de l’écrivain d’origine congolaise Alain Mabanctou,ou encore les commentateurs et les référents souvent anglophones de Tatiana de Rosnay. L’écriture assidue des billets et le nombre de commentaires traduit souvent une forme de dynamique de ces blogs. Celui de Pierre Assouline en est un très bon exemple. Le week-end du 15 Août après un billet de l’auteur portant sur la révélation de Günter Grass lors de la parution de son autobiographie de son engagement dans la Waffen SS, en trois jours 200 commentaires réagissent sur le blog de la République des livres, et le débat en écho a des retentissements moindres, mais non négligeables sur d’autres blogs écrits parfois par des commentateurs s’étant déjà exprimé sur celui de Pierre Assouline. Les membres des blogs observés sont pour une majorité d’entre eux en interaction et en réciprocité, non pas seulement parce que comme nous le verrons par la suite il y’a échanges de savoirs et débats , mais parce que se développent entre eux une certaine qualité de communication que traduisent des relations vivantes, studieuses et parfois militantes : attention aux propos de l’autre, rapidité des réponses, interjections , exclamations , pointes d’humour , expression d’agressivité, excuses et mises au point. Comme l’écrit Pierre Assouline78 : « Sur un blog plus qu’ailleurs le commentaire est là pour rappeler comment ne pas le taire ! » .Certains membres sont fidèles à plusieurs sites 79: ils font alors référence aux discussions ou aux débats qui ont lieu dans l’autre site. En ce qui concerne le capital technique c’est à dire les infrastructures technologiques, leur performance et la 76 Alain Mabanckou www.congopage;com ,Irène Delse www.irenedelse.com , Pierre Assouline passouline .blog.lemonde.fr , Denis Robert www.ladominationdumonde.blogspot.com , Tatiane de Rosnay www.yansor.blogs.psychologies.com , Philippe Sollers lalitterature.blogspot.com 77 Mateus 17/08/06 22H04 Blog de P.Assouline 78 3 Août 2006 79 Sites Assouline, Mabanckou, Tatiana de Rosnay. pertinence des liens, il faut tenir compte de la spécificité de l’outil Blog qu’on ne peut comparer à des sites ou des wikis. Sur les six blogs observés cinq utilisent réellement la technologie du weblog80 : liens, système de syndication avec un format RSS qui permet aux personnes abonnés au fil du carnet une lecture immédiate, moteurs de recherche. Des moteurs de recherche interne ne sont présents que sur le blog d’Irene Delse et sur celui de P.Assouline « pour retrouver des notes perdues ». Les moteurs de recherche des autres blogs ne servent qu’à donner d’autres adresses sur la plateforme utilisée. Les rubriques de chacun d’entre eux sont communes :présentation de l’auteur et de l’œuvre avec parfois quelques complaisances narcissiques, photos , billets à l’usage unique du blog et liens sur les commentaires, archives parfois classées par catégories, commentaires récents, quelques annonces publicitaires concernant leur maison d’édition et leur production littéraire et des annonces Google, liens avec d’autres sites d’écrivains , sites littéraires, blogs littéraires. Le plus complet dans sa liste de liens est celui de Tatiana de Rosnay qui signale de nombreux sites avec des catégories plus subjectives81. Des liens assez fréquents sont exploités dans les billets d’Irene Delse et de Tatiana de Rosnay offrant aux lecteurs de riches encyclopédies. Le capital culturel concerne la documentation et les archives qui sont en accès et qui constituent les activités présentes et passées, c’est- à- dire essentiellement les textes écrits par l’auteur du blog et les bloggeurs : billets et commentaires. Les blogs de Tatiana de Rosnay et d’Irene Delse se présentent d’une certaine façon comme les plus documentés car de nombreux liens sont établis dans leurs textes consacrés pour l’une à la lecture d’ouvrages francophones et anglophones , et pour l’autre à la science fiction et à la fantaisie ainsi qu’aux événements portant sur ces deux genres. Le capital culturel mis en accès et en débat peut se distinguer entre les catégories suivantes : - l’actualité littéraire informe sur les livres , les écrivains et les questions du moment ; - les savoirs littéraires variés et imposants portent sur la littérature mondiale , francophone et anglophone, traitant autant de la littérature de ville que d’une analyse de la beauté noire chez Baudelaire ou encore d’ écrivains marginaux ou laissés dans l’ombre; - la connaissance et le travail sur la littérature témoignent d’une réflexion et d’une argumentation souvent érudites sur des questions littéraires comme les genres, les éditions critiques et les dictionnaires ; - la controverse littéraire désigne les discussions suivies et contradictoires sur une question : il peut s’agir de controverses sur des écrivains surmédiatisés, mais aussi de controverses plus confidentielles comme la place des jurés noirs dans les prix littéraires, ou encore de controverses relevant de l’histoire littéraire; - la critique d’une certaine vision de la littérature se développe dans tous les blogs : les commentateurs rejettent une littérature « «gallimardeuse » , franco-française, et narcissique sans hésiter à remettre en question certaines réactions des écrivains responsables de blogs qui ne sont pas toujours de bons exemples dans ce domaine ; - certaines problématiques de la littérature parmi lesquelles l’écriture et son rapport avec la langue d’origine, l’engagement et la littérature ,les rapports de la littérature et du politique . Pour Pierre Lévy le capital intellectuel, résultante des trois capitaux précédemment définis, qui est développé dans l’intelligence collective se traduit par des capacités pratiques et 80 Le blog de Philipe Sollers reproduit ses billets écrits chaque semaine pour le journal du Dimanche. 81 Accro, Mes collègues, Dépendance sérieuse, Sites préférés. 95 96 réflexives.Nous venons de voir que les blogs d’écrivains étudiés en sont constitués. La multiplicité des points de vue, l’échange des savoirs et la mutualisation des différentes procédures d’argumentation forment ainsi une construction collective actualisée des ressources et des apprentissages littéraires qui produit pour le blogeur ou l’observateur une plue value d’intelligence. La puissance de décision de ces communautés fait également partie du capital intellectuel. Certains blogs d’écrivains ont été créé parfois pour des motifs publicitaires ou d’ « extimité » : il n’en demeure pas moins que d’autres comme celui de P.Assouline sont animés et pratiquent une vision exigeante de la littérature, sans être pédante et associée à des positions politiques affirmées.Ces blogs82 dépendent aussi de la notoriété de leurs auteurs et de l’importance et de la régularité du travail qu’ils y consacrent : en ce sens la hiérarchie perdure dans ce type d’organisation. www.orgnet C.Héber-Suffrin, Les savoirs , la réciprocité et le citoyen, Desclée de Brouwer, 1998. France Henri, Béatrice Pudelko , La recherche sur la communauté asynchrone in Les communautés délocalisées d’enseignants, A. Daele, B.Charlier (Coord), PNER, http://www1.msh-paris.fr P.Levy, L’intelligence collective , Pour une anthropologie du cyberespace, La Découverte , Paris 1994. P.Levy, Qu’est-ce que le virtuel ?, La Découverte, Paris 1995. J.M.Penalva(Coor), Intelligence collective Rencontres 2006, Ed Mines Paris Les presses, 2006. C.Szylar, L’apprentissage dans les organisations, Ed Hermés/Lavoisier, 2006. Réseaux, communautés, Identités, Sociétés, Revue des sciences humaines et sociales, N°79, 2003/1, Ed De Boëck. Conclusion Les blogs d’écrivains que nous avons analysés présentent bien des formes d’organisation sociale et cognitive qui relèvent de l’intelligence collective, même si leur fonctionnement demeure assez vertical puisque les écrivains choisissent les sujets de leurs commentaires et en assurent la rédaction.Pourtant la participation active à ces blogs ou leur lecture attentive produit une plue value de communication, de réflexion et de connaissance dans le domaine littéraire. L’approche de l’intelligence collective permet de mieux comprendre ce qui relève du social, du communicationnel et du cognitif dans ces blogs et d’en voir les limites.D’autres analyses restent à faire dans ce sens pour d’autres catégories de communautés littéraires .L’intelligence collective place cellesci dans la perspective d’une intelligence de réseau englobant plus largement l’art et la culture sur Internet. Rheingold dés 1993 avançait la thèse de la reconquête du social par les communautés ; on pourrait s’interroger sur une reconquête de la culture littéraire par l’offre d’Internet. À l’heure où la presse généraliste réduit les pages littéraires à des articles qui ressemblent le plus souvent à des compte rendus de lecture ou à des interviews promotionnels, où la télévision propose des émissions dont le concept n’a guère changé depuis cinquante ans et où la radio reste marquée par un ton érudit et universitaire et parfois fortement parisien, ces blogs d’auteurs ainsi que d’autres communautés réinventent la conversation et le débat littéraire : des citoyens prennent le temps dans des interactions et des relations virtuelles animées de constituer un collectif qui va développer leurs connaissances et leurs réflexions dans un domaine qu’ils privilégient ou qu’ils vont appprendre à privilégier. Qui l’eut cru ? La littérature a tout à gagner avec Internet . Bibliographie de base : N.Giroux , Le nouage des savoirs en organisation , 2004, 82 Assouline, Mabanctou,Tatiana de Rosnay 96 97 Les TIC, actants du changement organisationnel Une approche discursive de la structuration des organisations Benoit Cordelier [email protected] Mots clés : changement organisationnel, approche discursive, projet, TIC, régulations Le travail présenté dans cet article s’appuie sur une étude menée dans le cadre d’une Convention Industrielle pour la Formation et la Recherche, et porte sur les efforts de réorganisation menés chez Marie Brizard & Roger International. En 1999, cette entreprise a connu, en effet, une grave crise financière et managériale qui a remis sérieusement en cause la structure de l’entreprise familiale, et en particulier le système et les méthodes de management. La mise en place d’une nouvelle équipe dirigeante depuis 2001 a alors non seulement permis d’affronter les nouveaux enjeux commerciaux, mais également, et surtout, de réaliser des choix organisationnels et des efforts de modernisation des systèmes d’information afin d’échapper à une faillite annoncée. La crise aura été à l’origine – c’est notre première hypothèse – de ce postulat managérial selon lequel, devant la menace du pire, les négociations sont plutôt favorables au changement : c’est en tout cas ce sur quoi ce sont appuyés les dirigeants pour faire valoir une stratégie de modernisation globale fondée sur l’implantation de progiciels de gestion intégrés. Contraints d’accepter une solution fonctionnelle très normative, les salariés auront dû renoncer aux formes anciennes de leur socialisation dans l’entreprise : des formes de coopération basées sur la reconnaissance mutuelle et tacite de savoir-faire professionnels et de compétences « métier ». Cette conception du changement, basée sur les fonctionnalités de l’outil, justifierait le recours au paradigme fonctionnaliste : de fait, la technologie est conçue comme un système normatif, un acteur « holiste », intégrant des fonctions de service, des instructions de mise en œuvre, des normes de fonctionnement. Au postulat de départ sur l’acceptation paradoxale (ou « contrainte »), il faut ajouter maintenant l’hypothèse fonctionnaliste : le logiciel et son système d’intégration « contient » la manière dont il doit être implanté, mis en état de fonctionnement et utilisé. Il « contient » surtout la manière dont ses utilisateurs vont devoir coopérer, c’est-à-dire échanger des informations utiles dans des structures d’interaction clairement modélisées. Ceci est maintenant une évidence : la T.I.C. est conçue comme un système programmé des meilleures pratiques en terme d’opérations et de coopération, à la manière d’un schéma actantiel susceptible de rendre compte d’un parcours narratif dont le dénouement est programmé de manière à satisfaire les souhaits du Destinateur. De quelle liberté d’interagir, de communiquer, de construire, les salariés jouissent-ils dans ce système global de prescriptions ? Quelles sont les modalités communicationnelles susceptibles d’accompagner le changement ? Les modalités communicationnelles du changement La mise en œuvre du changement affecte les représentations organisationnelles des acteurs à travers des processus d’interactions sociales Comment se déroulent ces dernières ? Nous nous proposons ici d’insister sur la dimension communicationnelle de l’innovation et de son organisation (Gramaccia, 2000 ; Giroux, 2000 ; Taylor et al. 2000 ; Taylor, 1993). Pourtant, nous sommes davantage habitués à lire ou entendre des explications sur les deux pôles de l’innovation organisationnelle que sont le changement construit et le changement prescrit. Le premier serait le résultat d’une impulsion de la base, alors que le second est imposé par les dirigeants. Nous retrouvons bien ces deux modalités sur le terrain, mais il serait superficiel de croire qu’elles s’excluent mutuellement, même si l’une peut prendre le pas sur l’autre. Dans le contexte de notre étude, nous avons constaté que les interactions qui mènent au changement sont plus subtiles et intègrent un troisième élément dans un modèle qui comprendrait d’un côté une Direction polyphonique83 et de l’autre les employés : le(s) système(s) d’information. Celui-ci n’est en fait qu’un objet technique pouvant prendre diverses formes dont la plus spectaculaire est ici le progiciel de gestion (que ce soit Easysales/STAR ou, les différents modules de la suite de business intelligence, Cognos)84. Le changement prend forme dans notre cas grâce aux éléments communicationnels que partagent, que s’échangent les acteurs autour du système d’information qui va venir structurer l’organisation. Nous ne soutenons pas que l’outil est à lui seul structurant, mais plutôt que, au-delà du potentiel structurant qu’il représente, il concentre les interactions entre acteurs qui vont formuler le changement. Le système d’information est non seulement un outil fonctionnel qui va permettre d’articuler les processus de l’entreprise, mais il est également un enjeu pour les différents acteurs dans la narration du changement, car il devient le vecteur d’une vision organisationnelle et affecte par la même les représentations organisationnelles et leur construction. Nous sommes ici proche en fait de la distinction que fait Orlikowski (1995) entre « technology as artifact » et « technology-in-use »85 Le système d’information peut être considéré soit comme un ensemble d’éléments physiques et/ou conceptuels, soit comme la modélisation d’interactions situées entre des acteurs et l’objet technique. Il est également nécessaire de distinguer l’usage du système d’information stabilisé et consensuel de son instrumentalisation visant orienter la réalisation de la vision organisationnelle. Dans le premier cas, il représente le résultat des négociations entre acteurs pour stabiliser un mode de fonctionnement à partir de la proposition normative de l’outil. Dans le deuxième cas, certains acteurs, ici le dirigeant visionnaire, veulent se servir de cette proposition normative pour orienter le changement organisationnel ; ils ne confisquent pas forcément le débat qui mène à la production du système, mais ils cherchent à en réduire la portée. Le changement est certes impulsé par les acteurs, mais il se structure à travers le système techniques, les constitué de l’objet technique et d’éléments organisationnels et conceptuels, qui est l’enjeu des négociations entre acteurs. L’objet technique est un support de communication en ce qu’il concentre les débats aboutissant à la production du système en action.86 En effet, lors de la mise en œuvre de l’innovation organisationnelle, ce sont l’ensemble des acteurs qui 83 La Direction de Marie Brizard ne s’est pas présentée sous un front uni et tenant un seul discours. Les consensus étaient davantage de circonstance plutôt que le résultat d’un partage de convictions profondes. Des luttes de chefs influençaient fortement l’orientation des actions de changement. 84 Logiciels utilisés par MBRI pour construire son système d’information et structurer son activité. 85 W.J. Orlikowski, Action and artifact : the structuring of technology-in-use, Sloan school of management, Working paper, 1995. 86 Nous préférons utiliser le terme de « système » à celui de « technologie », car ce qui est en signifié dépasse la seule implantation d’un progiciel. Ce qui est négocié, mis en place, comprend également les procédures organisationnelles et les enjeux humains. L’expression « technologie » nous apparaît trop restrictive, exclusive de la dimension organisationnelle et humaine. 97 98 structurent le changement autour du déploiement du système d’information. Nous nous proposons donc ici d’explorer le lien entre la nature avant tout communicationnelle du changement et le rôle des acteurs et des outils qui jalonnent et formalisent la production du système d’information. Les approches classiques en théories des organisations tendent à négliger le rôle de la communication des acteurs qui pourtant participe de la structuration de l’organisation. L’approche communicationnelle que nous trouvons notamment dans la théorie des actes de langage (Gramaccia, 2001 ; Taylor, 1993) remet la communication au centre de la dynamique de changement. Les limites des approches normatives du changement La gestion du changement en entreprise est avant tout abordée de manière normative et prescriptive. Les sciences de gestion préemptent naturellement ce terrain et cherchent à y imposer une logique d’opérationnalité. « En effet, la gestion a longtemps été envisagée comme la recherche et la mise en place de modèles universels pouvant répondre de manière définitive aux problèmes de l'organisation. Dans cette conception l'efficacité et la pérennité de l'entreprise sont assurées par sa capacité à mettre en place un mode d'organisation stable et définitif et non pas par sa capacité à le modifier. »87 Les méthodologies proposées aux managers ainsi que l’essentiel des recherches en sciences de gestion abordent bien la communication dans leurs démarches. Mais, à notre connaissance, elles l’envisagent avant tout d’un point de vue instrumentalisant à travers des paradigmes fonctionnaliste, déterministe ou, plus récemment, interprétatif. L’approche fonctionnaliste nous propose une construction téléologique du fonctionnement de l’organisation et par conséquent de son changement. Le changement est décidé et conduit par le dirigeant. L’encadrement intermédiaire est en fait un outil de transmission de la volonté de ce dernier et, les membres de l’organisation se soumettent à la vision proposée. Le changement est donc prescrit, univoque. La communication ne sert qu’à optimiser la diffusion, la mise en œuvre du changement. Elle facilite la conformation des membres à l’évolution de l’organisation. La conception déterministe du changement organisationnel met en avant la perception de facteurs externes, notamment techniques. Le manager choisit alors une structure organisationnelle adaptée aux stimuli environnementaux. Il est le principal architecte de la construction de l’organisation et de ses évolutions qu’il envisage sous un angle avant tout technique. La dimension humaine, et par conséquent communicationnelle, est occultée. La « ressource humaine » n’est qu’une donnée du problème qu’il faut gérer. L’approche interprétative considère l’organisation comme un système de représentations construites à travers les interactions des acteurs. Un processus de construction de sens fait émerger une réalité sociale qui structure l’organisation. Le changement organisationnel est ici un processus qui doit aboutir à la redéfinition de ces représentations organisationnelles. La communication entre membres permet la construction collective des représentations. Le manager cherche alors à l’influencer par des actions de communication. Le paradigme interprétatif nous rapproche d’une conception émergentiste des dynamiques organisationnelles. La première critique que nous formaliserons à l’égard de ces approches est qu’elles accordent une trop grande importance à l’action du dirigeant et, que celui-ci est généralement considéré comme étant seul avec une action univoque. La place des autres acteurs y est en effet sous-estimée. De plus, comme nous avons pu le constater dans notre cas, le dirigeant n’est pas seul dans sa sphère. Celui qui est symboliquement appelé « dirigeant », « manager », « leader », voit son pouvoir limité dans l’entreprise par d’autres cadres dirigeants concernés par la transversalité de l’action du changement organisationnel. Le changement se fait à la fois avec l’ensemble des acteurs subordonnés ainsi qu’avec les autres dirigeants impliqués dans le processus de réorganisation. Deuxièmement, ces approches ignorent l’utilisation des objets techniques en tant qu’enjeux qui marquent les négociations du changement. Dans notre cas, le système d’information doit être envisagé comme un « système en action instrumentalisé ». Audelà de la normativité inhérente à un objet ou à un système technique, le système en action devient un objet de négociation dont la construction se fait par des échanges. Les traces en sont les réunions de co-conception (réunions d’analyse, de reengineering, de paramétrage,…) ainsi que les différents documents qui créent un cartographie du projet (cahier des charges fonctionnel et technique, rétroplanning, procédures formalisées,…). La troisième et dernière critique -peut-être la plus importante-, que nous voulons adresser ici à ces approches que nous venons de présenter très succinctement, concerne la façon d’aborder la communication. Celle-ci y permet la diffusion du changement ; elle aide les managers à vaincre la résistance au changement. Elle y est donc périphérique au changement. Il nous semble pourtant que son rôle est plus central. En cela nous suivons des auteurs qui se rattachent à la théorie des actes de langage et pour lesquels la parole structure l’action et l’organisation (Taylor, 1993 ; Gramaccia, 2000 ; Giroux, 2000). « L’hypothèse organisationnelle se dessine : l’organisation se révèle dans la conversation ; elle prend forme dans la progression dialogique, au fur et à mesure que les acteurs statuent de façon contractuelle sur la validité des règles et du succès (vs échec) de la transaction. J.M. Taylor définit la notion de transaction comme “une unité de communication qui comporte un échange de valeurs d’une personne à une autre ; toute communication est un système de création et de transmission de valeurs (et non pas simplement de messages)”. Cette idée est centrale dans la mesure où l’on considère que la conversation, qui constitue le cadre dynamique de l’échange, introduit, in situ, les conditions de la création ou plus exactement, de la valorisation de l’objet (un objet matériel, mais aussi bien de l’information) comme enjeu de l’échange. D’où le recours, par notre auteur, à la théorie des actes de langage de John Austin pour expliquer les mécanismes de cette transmutation si, et c’est une condition essentielle, selon la théorie, l’intention de réaliser un acte de langage par le locuteur est reconnue et interprétée comme telle par l’interlocuteur. »88 Les limites à l’appréhension du changement organisationnel que nous constatons dans ces paradigmes proviennent de leur conception limitée de la communication. Elle y est essentiellement envisagée comme un paramètre du changement. Au mieux, elle l’influence, mais plus généralement c’est un élément sur lequel doit agir le dirigeant. Cette conception instrumentale de la communication nous semble être le résultat de la centralité des dirigeants dans ces approches théoriques. L’envisager comme un processus de diffusion ou tout au plus une interaction n’est pas suffisant pour comprendre la dynamique qui se met en place. C’est minimiser l’importance des subordonnés et ignorer celle des objets et des systèmes techniques qui formalisent une 88 87 V. Perret, « La gestion du changement organisationnel : Articulation de représentations ambivalentes », in : Actes de la 5ème Conférence Internationale de management stratégique (AIMS), 1996. G. Gramaccia, La communication dans les projets d’innovation - Perspectives en communication organisationnelle, Note de synthèse pour l’Habilitation à Diriger des Recherches, université de Bordeaux 3, 2000, pp. 185-186. 98 99 dimension transactionnelle du changement. Les acteurs structurent, car ils participent (à différents degrés, certes) à une négociation. La communication est le vecteur immatériel de cette transaction. Les outils et les systèmes structurent, car ils sont normatifs. Ils matérialisent la communication en tant que développement et résultat d’une transaction. La performativité de la communication se révèle dans la mise en place d’un logiciel, par exemple. Elle s’appuie sur des objets techniques pour trouver une formalisation et produire des systèmes. La communication apparaît donc centrale dans la structuration des organisations. L’approche communicationnelle du changement organisationnel L’approche communicationnelle de l’organisation s’intéresse à la construction collective de l’organisation. Elle peut donc également être appliquée au changement organisationnel. L’originalité de cette approche, développée par un groupe de chercheurs canadiens autour de J.R. Taylor (avec notamment : N. Giroux, C. Groleau, D. Robichaud, E. Van Every, F. Cooren)89, est de nous présenter la structuration de l’organisation à travers la communication en nous proposant un modèle « discursif » autour d’une dualité texte/conversation. Cette approche nous intéresse au plus haut point, car elle est compatible avec d’autres postures théoriques issues notamment de l’individualisme méthodologiques et propose également un effort d’intégration des différents niveaux d’analyse de l’organisation (micro et macro). Elle va ainsi nous permettre de développer un modèle intégratif du changement organisationnel par le projet et les systèmes d’information. Nous allons, dans un premier temps, présenter l’approche communicationnelle pour, ensuite, montrer comment s’y articulent les rôles des acteurs et des objets techniques. ouvert, être interprétable pour laisser un surplus de sens (Weick, 1969)90. Dans le cas contraire, il étoufferait l’action dans une logique dominante littéralement incontestable et interdirait toute évolution, tout changement. Il existe une tension entre ces deux modalités (Taylor et al., 1996)91, puisque la conversation est évolutive et que le texte cherche à fixer l’organisation. Le texte formalise et la conversation actualise. Le passage de l’une à l’autre de ces formes se fait à travers une conversation réflexive, ou métaconversation (une conversation sur la conversation), dont l’objet est la structuration de l’organisation, la formalisation de son fonctionnement. Le texte y est alors produit par un processus d’abstraction et de généralisation qui va permettre d’aboutir à une modification des discours et de la cartographie (règlement, procédures, organigramme hiérarchique, fiches métier,…). Ces derniers vont alors redéfinir les représentations organisationnelles. Mais auparavant, ces discours doivent prendre la forme d’outils concrets servant de repères aux acteurs du changement. Ces outils (cahier des charges fonctionnel, GANNT, PERT,…) vont permettre l’opérationnalisation de la vision managériale. Ils vont participer à son transfert dans les représentations organisationnelles en fixant un contenu et un calendrier des transformations. Ils font partie d’une méthodologie de projet, d’une grammaire organisationnelle du changement. L’établissement de cette grammaire n’empêche pas pour autant l’apparition d’antinomies et de conflits entre les différents acteurs. Les spécificités du métier de chacun, son positionnement hiérarchique, ses objectifs et les temporalités qui en découlent créent des grilles de lecture différentes et par conséquent des problèmes d’interprétation. Rédiger dans l’absolu le texte de l’organisation idéale, c’est ignorer la réalité des régulations et des médiations locales. C’est modifier les arrangements particuliers qui facilitent la coopération des acteurs. La réalisation du texte peut donc être rapidement compromise car, soit il se heurte à la résistance des acteurs, soit il produit une organisation formelle incompréhensible et irréaliste. Le changement ne pourra alors être effectif, car la textualisation ne sera pas en phase avec la conversation : trop éloignée des nécessités ou des préoccupations des acteurs, elle ne parviendra pas à devenir effective, à restructurer l’organisation. Le texte ne parviendra pas alors à suivre le processus d’opérationnalisation. Le modèle discursif : une représentation constructiviste de l’action collective Le modèle proposé par J.R. Taylor évite les écueils à la fois fonctionnaliste et interprétatif. Le fonctionnalisme présente en effet l’organisation comme un ensemble structuré et figé ; et l’approche interprétative conçoit l’organisation simplement comme une construction sociale. Dans ce modèle, l'organisation est conçue comme une communauté discursive opérant selon deux modalités : le texte et la conversation. La conversation correspond au fonctionnement informel de l’organisation. Elle est éphémère et discontinue. Elle fait La distribution des rôles dans l’action collective et émerger le sens des interactions entre acteurs qui ajustent sans l’apparition de l’actant TIC cesse leurs comportements aux nouveaux éléments qui Giroux (1996) se demande si le lieu de la textualisation est interviennent dans la discussion. C’est non seulement un différent de celui de l’opérationnalisation, si les modalités sont processus relationnel qui co-oriente et ajuste les différentes, avec des acteurs eux aussi différents. Dans notre comportements, la discussion, au texte, mais c’est également cas, nous constatons que la métaconversation se déroule dans TEXTE un processus innovant, créatif, qui participe à l’évolution du le cadre du projet, selon les modalités du projet. Toutefois, le texte. La conversation aide également à la construction cycle en V adopté chez Marie Brizard Opérationnalisatio ne nécessite pas identitaire des membres de l’organisation et donc à l’intervention de tous les acteurs impliqués dans le projet sur n l’établissement d’une culture, ainsi qu’au maintien des l’ensemble des étapes du cycle. Ainsi, le dirigeant participe relations de pouvoir. essentiellement pour donner une impulsion. Il signifie METACONVERSATION Le texte en est donc la formalisation qui permet la l’orientation générale du projet en communiquant sur sa distanciation de l’acteur à l’organisation, l'extension de cette vision. L’expression des besoins fonctionnels se fait avec un dernière dans le temps et l'espace. Il est le résultat de chef de projet fonctionnel (maîtrise d’ouvrage) et un ou l’ensemble des conversations qui se déroulent dans la plusieurs acteurs métier détachés ou pas pour le projet. Le chef communauté discursive,Textualisation dans l’organisation. Il donne les de projet fonctionnel sert alors d’interface pour communiquer règles de fonctionnement et oriente l’action, autrement dit, il avec le chef de projet informatique (maîtrise d’œuvre) qui est à la fois contrainte et opportunité (Giroux, 1996). Il réalise la partie technique du projet. Des arbitrages auront lieu cherche à donner un cadre et une orientation générale d’action CONVERSATION en fonction des desideratas de la maîtrise d’ouvrage, des à travers le temps. Il doit donc pour cela rester paradoxalement 90 89 Cf. J.R. Taylor, O. Laborde, « Communication et la constitution de l’organisation : la perspective de “l’Ecole de de Montréal”, Bulletin de liaison, n° 16, Org&Co, juin 2006. K. Weick, The Social Psychology of Organizing. Reading, MA : Addison Westley, 1969. 91 J. R. Taylor et al., « The communicational basis of organization : between the conversation and the text », Communication Theory, vol. 5, n°1, 1996. 99 100 capacités de la maîtrise d’œuvre et, de la structure même du progiciel qui sera déployé. Les échanges se déroulent entre les dirigeants visionnaires, la maîtrise d’ouvrage, la maîtrise d’œuvre et le système d’information (ou système technique selon la terminologie que nous adoptons). Si le système technique ne peut pas tenir littéralement une conversation, il interagit néanmoins avec les acteurs, en ce qu’il la modèle à travers les contraintes normatives qu’il impose en tant que support. Il participe à la structuration de l’organisation ; et s’il n’est pas acteur, il peut néanmoins être considéré comme « actant » au sens de la sémiotique Greimassienne : « Les actants sont les êtres ou les choses qui, à un titre quelconque et de quelque façon que ce soit, même au titre de simples figurants et de la façon la plus passive participent au procès. […] Ainsi dans la phrase Alfred donne le livre à Charles, Charles, et même le livre, bien qu’ils n’agissent pas euxmêmes, n’en sont pas moins des actants au même titre qu’Alfred. » (Lucien Tesnière, 1959, Éléments de syntaxe structurale, Paris, Klinksieck, p. 102) Le système technique est donc une fonction syntaxique du discours du changement. C’est un élément qui, s’il ne peut directement agir, est porteur d’une force propositionnelle normative héritée de sa conception. Nous ne souhaitons pas pour l’instant nous engager plus avant dans ce rapprochement avec la sémiotique narrative de Greimas. En effet, l’idée est ici de pouvoir établir un objet technique comme un interlocuteur qui participe à la métaconversation dans un modèle discursif de l’organisation. Les relations entre les différents acteurs parties prenantes au projet sont de fait fortement contractualisées. Les documents qui servent à formaliser les projets et à communiquer entre les Directions (métier et informatique) sont les mêmes que ceux servant pour les prestataires extérieurs. Le geste symbolique est fort : la communication n’est pas seulement une interaction, elle est également un transaction. Le chef de projet fonctionnel, appelé « process owner » chez Marie Brizard, occupe un rôle primordial dans l’expression des besoins des acteurs métiers. Il se pose à la fois comme porte-parole, représentant de ses collègues opérationnels qui vont recevoir l’outil et, comme un des garants du respect de la vision managériale. Il a donc une double relation transactionnelle forte à la fois avec les membres de l’organisation qui vont devoir adopter le système technique et avec le dirigeant visionnaire. Il a également une relation transactionnelle plus faible avec les membres de la maîtrise d’œuvre, puisqu’il leur doit coopération et assistance dans la compréhension des caractéristiques fonctionnelles à paramétrer. Il doit donc être capable à la fois d’opérationnaliser et de textualiser, de diriger la métaconversation. A ces fins, il doit pouvoir prendre la mesure des contraintes matérielles, certes, et surtout fonctionnelles ou normatives des outils qui servent à structurer la narration du changement. Sans ça il ne pourra pas être l’interlocuteur, l’intermédiaire, privilégié entre les acteurs humains et l’actant technologique. Bibliographie Crozier M., Friedberg E., L’acteur et le système, Paris, Seuil, 1977. Friedberg E., Le pouvoir et la règle, Paris, Seuil 1997. Giroux N., La mise en œuvre discursive du changement, working paper, Université de Montréal, 1996. Gramaccia G., Les actes de langage dans les organisations, Paris, L’Harmattan, 2001. Jodelet D., « Représentation sociale : phénomènes, concept et théorie, in : S. Moscovici (dir.), Psychologie sociale, Paris, PUF, 2004 [1984]. Jodelet D. (dir.), Les représentations sociales, Paris, P.U.F. 1989. Kerbrat-Orecchioni C., Les actes de langage dans le discours, Paris, Armand Colin, 2005 Koenig G. et al., Le sens de l'action. Karl Weick : sociopsychologie de l'organisation, Paris, Vuibert, 2003. Orlikowski W.J., Action and artifact: the structuring of technology-in-use, Sloan school of management, working paper, 1995. Pesqueux Y., Tribulois B., La dérive organisationnelle, Paris, L’Harmattan, 2004. Reboul A., Moeschler J., La pragmatique aujourd’hui, Paris, Seuil 1998. Reynaud J.-D., Les règles du jeu, Paris, Armand Colin, 1997. Rowe F., « Cohérence, intégration informationnelle et changement : esquisse d’un programme de recherche à partir des Progiciels Intégrés de Gestion », Systèmes d'Information et Management, vol.4, n°4, 1999. Taylor J.R., « La dynamique de changement organisationnel. Une théorie conversation/texte de la communication et ses implications », in : Communication & Organisation n°3, GREC/O, Université Michel de Montaigne - Bordeaux 3, 1993. Taylor J.R., Laborde O., « Communication et la constitution de l’organisation : la perspective de “l’Ecole de de Montréal” », Bulletin de liaison, n°16, Org&Co, juin 2006. Figure : D’après « Le modèle discursif de l'organisation » (Giroux, 1996) 100 101 Logique documentaire et organisation d’entreprise, regards croisés depuis les SIC ? Dominique Cotte Laboratoire Geriico, Lille-3 [email protected] Introduction. L’utilisation de l’informatique dans les contextes de travail s’est progressivement étendue des aspects les plus calculables du procès de travail (informatique de gestion et de prodution) à la quasi-totalité de l’activité, incluant à ce titre des actions d’échange, de communication et de production documentaire. Après la « bureautique communicante » des années 1990, une nouvelle génération d’outils apparaît sous la forme des intranets, portails d’entreprise et systèmes de gestion de contenu. Au-delà de leur dénomination, qu’il importerait de préciser, toutes ces applications ont en commun de chercher à constituer un point d’entrée unique, un « bureau virtuel » qui concentre toutes les manipulations que fait le salarié dans le cadre de son activité quotidienne. C’est à partir de cette vocation hégémonique de l’intranet ou du portail, considéré à la fois comme lieu d’action et comme lieu d’accès aux documents que nous menons une réflexion sur les interactions entre les aspects documentaires et les aspects organisationnels. Cette réflexion, dont on présentera ici les présupposés méthodologiques et théoriques, a été nourrie par la conduite de plusieurs missions auprès d’entreprises pour l’évaluation ou la mise en œuvre de portails intranets. Menées pour un organisme interprofessionnel, et un établissement public, ces missions de terrain nous ont frappé dans ce qu’elles avaient de commun comme problématiques autour de l’organisation documentaire d’une part, mais aussi autour de la représentation symbolique des organisations. C’est le croisement entre ces deux aspects, dont nous pensons qu’il est particulièrement fécond en termes de réflexion et de problématique, que nous voudrions interroger ici. Quelques préalables méthodologiques. Il est convenu de désigner les SIC comme une pluri ou méta discipline afin d’en mettre en évidence la richesse et la multiplicité de points de vue. En même temps, il n’est pas facile de « tenir » ensemble des approches qui peuvent se révéler très différentes, de par leurs présupposés théoriques et méthodologiques, mais aussi de par leurs objets d’étude. Nos travaux s’intéressent, dans le cadre de collectifs de recherche pluri disciplinaires92, aux « métamorphoses médiatiques », c’est-à-dire à la façon dont les objets du sens se transforment en passant d’un cadre formel communicationnel à un autre. Nous constatons, en observant l’évolution des « médias informatisés » (Jeanneret, 2000) des phénomènes de brouillage et de transferts dont une partie est liée à l’évolution technologique et l’autre aux modifications des pratiques, les deux phénomènes étant bien sûr interdépendants. Ce brouillage rend mouvants les terrains de recherche spécialisés en raison de la modification des contours même des objets de l’analyse : un blog peut-il être étudié à partir des mêmes outils et méthodes d’analyse qu’un journal par exemple, un journal 92 Un premier travail a donné lieu à la réalisation de l’ouvrage collectif « Lire, écrire, récrire » (BPI, 2003) sous la direction d’Emmanuel Souchier, Yves Jeanneret, Joëlle Le Marec. Un second travail a donné lieu à la livraison d’un rapport final de recherche dans le cadre de l’ACI cognitique du programme société de l’information, rapport intitulé « Métamorphoses médiatiques, pratiques d’écriture et médiation des savoirs » (direction Yves Jeanneret). en ligne comme un journal papier, une séquence vidéo tournée sur un mobile comme un clip réalisé pour une chaîne du câble, un site web comme une plaquette de communication, un écran de base de données ou de portail comme un média ? Nous pensons que cette difficulté n’en est une que dans la mesure où on en reste à une conception verticaliste des études d’objets de la communication, en respectant une logique de filière médiatique, qui certes possède sa propre cohérence, mais qui est mise à mal par les évolutions récentes. La transversalité, la reprise des contenus sous des formes variées, l’usage « pointilliste » qui est fait des différents supports par les utilisateurs, les transferts médiatiques, nous paraissent devenir à leur tour des objets d’étude à part entière, ce qui oblige à les construire, dans un cadre de référence qui ne soit plus exclusivement dicté par l’identité du média d’origine. Dans ces conditions, un support médiatique sera « suivi » dans ses diverses et successives transformations afin d’essayer de rendre compte de l’enchevêtrement complexe des aspects matériels (en particulier lorsqu’ils sont ancrés dans des dispositifs techniques), symboliques, sémiotiques, anthropologiques qui le régissent. C’est justement dans la mesure où ils font intervenir de manière très claire une dimension à la fois symbolique (sémiotique), technologique et sociologique, les portails d’entreprise se révèlent un objet particulièrement fécond. Le document comme objet trivial, contraintes et métamorphoses. Nous interrogeons les intranets et portails d’enteprise à partir d’un double présupposé, celui-là même qui leur est assigné par leurs concepteurs et metteurs en œuvre : ils visent à la fois à constituer des cadres pour l’activité - et ils sont bien à ce titre des outils de travail -, et à organiser une matière documentaire considérée comme élément nécessaire pour accomplir cette même activité. De ce point de vue, ils ramènent l’objet document au cœur de la pratique organisationnelle. Repartir de la notion de document en tant que tel, n’est-il pas risqué dans la mesure où il s’agit d’un concept générique, pouvant s’incarner dans des formes et des supports multiples et constituant dès lors un champ trop vaste pour l’analyse ? Nous sommes conscients de ce risque et de cette contrainte, mais c’est précisément parce que la notion de document est aujourd’hui interrogée très largement par les SIC à partir de ses métamorphoses formelles, notamment comme « document numérique »93 que nous maintiendrons, dans un premier temps, cet angle d’attaque. Une première question pourrait être de s’interroger à partir de la signification de « document » pour les deux grandes « familles » composant les SIC. Si la notion de document est centrale dans les disciplines de la documentation, de la bibliothéconomie, dans l’histoire du livre…, elle s’efface relativement derrière la forme ou le contenu communiqué dans les disciplines de la communication, le journalisme, la 93 Signalons, entre autres et sans prétendre à l’exhaustivité, des manifestations (la semaine du document numérique à La Rochelle en 2005), des travaux collectifs (Textes signés Roger Pédauque du RTP-doc)), des dossiers et numéros de revue (Communications et Langages n° 140, Sciences de la société n°68), etc. 101 102 communication d’entreprise, les media studies… Dans les deux cas, le document ici analysé relève d’une sphère « noble » : il s’agit du livre, du journal, du média audiovisuel, de l’affiche… Notre intention est de partir, au contraire, du support formel et d’interroger ses avatars et sa circulation entre des domaines où à chaque fois il perd/gagne un nouveau format, une nouvelle identité. La réalité même de l’évolution technologique –entre autres- nous oblige au mouvement, à la confrontation des points de vue, à la dialectique. Il est certes possible d’isoler une forme documentaire donnée (et c’est même méthodologiquement souhaitable pour des études particulières) dans son état de « prêt à communiquer », mais on doit prendre en compte aussi le fait que cet état n’est plus aujourd’hui, ni définitif, ni stable. Une autre conséquence mesurable de l’évolution actuelle est l’accès au statut de document d’une multitude d’objets, de ressources, qui restaient jusqu’alors dans les limbes d’une pré ou d’une protodocumentation 94. Les outils de production documentaire et les pratiques sociales autour du document n’étaient pas encore axées vers cette mise au jour, cette mise à l’existence95 qui aujourd’hui aspire vers un espace public propre à l’organisation tout ce qui relevait de la production individuelle ou de l’échange inter-personnel (un post-it, une note griffonée sur un dossier, un papier passé au cours d’une réunion, deviennent des posts dans des blogs, des réponses à des courriels, des messages de validation dans des workflows, etc.) Cette multiplicité du document, cette surdocumentarisation96 amène, nous semble-t-il, la possibilité et la nécessité d’un nouveau regard, à la fois sur le document, mais aussi sur les contextes organisationnels dans lesquels s’insèrent ce matériau particulier. Si les univers dans lesquels circulent habituellement les documents traditionnels sont particulièrement identifiés, (on reliera le livre aux études sur les bibliothèques, l’image animée à l’analyse du film ou de la télévision, l’article aux études sur le journalisme, l’exploitation des contenus à l’analyse de discours, etc.), n’estil pas intéressant de repérer des lieux où ces catégories se répondent, s’estompent, se croisent, voire se délitent ? Il nous semble qu’à cet égard, l’interrogation de la façon dont les organisations d’entreprise sont interpellées par la nécessité d’une gestion documentaire bien élargie par rapport aux problématiques traditionnelles du « centre de documentation » peut être particulièrement fructueuse. « L’organisation » peut certes être considérée comme objet d’analyse, du point de vue de l’étude des flux de communication qui relèvent plus généralement de la sphère institutionnelle. Notre constat, et l’hypothèse de recherche qui en découle, est que la notion de document, dans sa dilution même, permet de questionner non seulement les approches classiques afférentes à la construction du sens par la maîtrise de la forme documentaire, mais également les concepts liés à l’organisation dans leur représentation. L’évolution des organisations vers une sorte de tissu où se multiplient l’entrelacs des réseaux de communication, l’échange des messages et des textes, bref la « documentarisation » de l’activité, rencontre forcément la problématique de l’organisation documentaire et de l’organisation tout court. De l’organisation de la masse documentaire….. 94 Pédauque 3 parle de « proto-documents », Brigitte Guyot et Marie-France Peyrelong (Guyot, 2006) s’interrogent sur ce moment où « un inscrit devient un document ». 95 96 Pierre Delcambre parle, dans un autre contexte de « mise à l’écriture ». Manuel Zacklad (Zacklad, 2004) parle de documentarisation pour désigner un processus constituant à « pérenniser le support matériel de la transaction (communicationnelle) et à le doter d’attributs permettant sa ré-exploitation. » Comme lieux d’activité humaine, les « organisations » produisent, autour des biens, marchandises, et services qui sont leur objet principal d’activité, des traces écrites, sonores, imagées, des signes organisés en documents. Cela n’est pas nouveau en soi et cette activité dans l’activité, peu valorisée et peu reconnue a été progressivement structurée en champ de recherche, par des groupes de chercheurs comme Langage et travail, Org and co… Si la dimension langagière et sémiotique est abordée, nous pensons que, de notre point de vue, il peut être fécond de croiser avec la dimension matérielle et technologique qui forme l’un des pôles de l’approche « sémiotechno-sociologique ». En effet, parmi les mouvements récents, nous pouvons noter d’une part l’accroissement quantitatif phénoménal de la production documentaire, le changement d’échelle de l’activité, traduit par une « surdocumentarisation », mais également le changement de statut de l’objet document en lui-même. L’approche consiste à montrer que, en saturant l’espace même de l’organisation, la multiplicité documentaire entraîne globalement une sémiotisation des activités (Despres, Cotte 2005), dans la mesure où les outils de travail eux-mêmes se présentent comme des documents. La messagerie (Despres, in Souchier 2003), le « bureau » de l’ordinateur, le portail ou l’intranet (Cotte 2005/Nice, 2005/Tours) sont à la fois des objets pour agir et des objets sémiotiques. Ils doivent être « lus » pour être compris, contrairement à l’idée répandue que l’usage des logiciels peut/doit être « intuitive » et « transparente ». Cette épaisseur du média le conduit à « absorber » en quelque sorte les strates, les agencements, les relations à l’œuvre dans l’organisation pour les restituer sous une forme métaphorisée et sémiotisée. De ce point de vue, nous pouvons prendre appui sur l’ensemble des études qui, depuis le début des années 1990, ont travaillé sur la mise en lumière du document dans les contextes de travail comme un objet digne d’étude et comme un prisme d’analyse des organisations. L’étude des « écrits au travail » (Delcambre, 1997) la compréhension du document comme un « analyseur d’action sociale » (Gaglio, Zacklad, 2006) la relation entre « langage et travail » ou « organisation et communication », l’analyse du document comme « forme, signe et medium » (Pedauque, 2003) sont autant de jalons vers la constitution d’un solide cadre de références théoriques pour poser les relations entre document et organisation. Faisant le bilan d’une partie de ces recherches, Brigitte Guyot et MarieFrance Peyrelong (Guyot, Peyrelong, 2006) évoquent deux « mises à l’épreuve successive » pour le document dans les environnements de travail : la première est celle de sa production proprement dite au cours d’un processus éditorial, la seconde celle de sa diffusion dans un autre contexte. A ces deux dimensions qui sont effectivement fondamentales, nous souhaiterions en ajouter une troisième, qui ne voit pas simplement le document ou même la collection du document produite dans l’action, mais qui prend aussi en compte le document dans sa masse, et la question de la gestion de cette masse documentaire à l’échelle d’un organisme tout entier. En effet, ce retour vers le document témoigne de l’impossibilité radicale d’évacuer la matérialité des supports de l’information. La logique de la « gestion de l’information » voulait croire et faire croire à la prédominance du flux, au prétexte que les technologies de l’information facilitent en premier lieu le transfert et la circulation. Mais flux et stock, loin de s’opposer comme deux termes d’une alternative, correspondent à deux moments d’une même réalité. L’explosion documentaire rend visible et nécessaire, à l’échelle des organistions entières, l’activité de sélection, de tri, d’indexation, de nommage, bref le traitement de la masse documenaire. Or, dès lors qu’elle est prise en compte comme masse, et ceci 102 103 à l’échelle globale de l’organisation, cette matière documentaire ne relève pas tant d’une problématique technique que politique et managériale. Son traitement induit une immixtion dans les pratiques personnelles de classement, de rangement, d’empilement (Fischler, Lalhou, 1995) sommées d’être normalisées dans le cadre de pratiques socialement définies. On peut voir un exemple de ces problématiques émergentes dans la montée récente du records management, lui-même héritier des problématiques documentaires liées au management par la qualité dans les années 1980. Derrière le records management, il y a une injonction de gestion (management), qui renvoie au producteur de l’information la responsabilité de gérer le document en anticipant son devenir (l’idée de « cycle de vie du document »). L’analyse de ce mouvement dépasse largement le cadre de cette communication mais rentre totalement dans le cadre de la problématique que nous défendons. En effet, dans son activité quotidienne, un salarié produit en vue et en sus de sa tâche, des flux que l’on pourrait qualifier d’information, mais qui se matérialisent dans des écrits, des supports, des documents, ou des ressources numériques (bases de données, blogs, intranets…). Le problème, - problème d’autant plus crucial que les systèmes eux-mêmes, ainsi que les procédures (Qualité, KM…) tendent à multiplier les sources d’émission et les flux documentaires - est l’accentuation du désordre et la nécessité de rationaliser et de contrôler le flux. A travers des entreprises comme le records management ou la proposition de plans de classement unifiés pour l’ensemble de la firme ce qui se manifeste c’est une activité qui est à la fois langagière et documentaire au sens strict du terme. La problématique de la classification, de la désignation, de l’indexation, des listes, n’est plus simplement appliquée à des corpus de documents reconnus dans des lieux donnés, comme les centres de documentation, elle est appelée à structurer un espace de dialogue et, mieux encore, l’espace de travail tout entier. Dès lors que, au moins dans les activités tertiaires97, l’écran de l’ordinateur a tendance à absorber la plupart des activités, son organisation spatiale, et pour tout dire son organisation sémiotique devient primordiale. Les intranets importent au sein des organisations les formes de structuration d’écrans qui ont été popularisées par les sites grand public : mise en page en mosaïque, menus déroulants, cadres d’action, formes ayant toutes pour but de gérer l’accès à une information foisonnante et multiple. Les études menées sur le comportement de « lecture » des internautes (Souchier 2003, Ghitalla 2003) ont montré que souvent ces derniers projetaient des représentations a priori (prédilection sémiotique) mais qu’ils pouvaient aussi être victimes de désorientation par rapport à ces nouvelles manières de se repérer dans un espace sémiotique dont les codes diffèrent des univers déjà connus98. A cette question reliée à la problématique de la lecture sur les nouveaux médias, s’ajoute celle de l’exhibition de l’organisation documentaire du dispositif, car, en théorie, l’ensemble des collaborateurs est invité à participer à l’alimentation de l’intranet ou du portail en émettant des documents et en les situant dans un espace donné. …à la documentarisation de l’organisation. Les intranets et portails sont à la fois des objets techniques puisqu’ils rassemblent des outils de travail, et des objets symboliques, auxquels l’idéologie managériale assigne un rôle 97 Mais dans l’industrie, les activités de contrôle et de maintenance se font aussi par la médiation des écrans de travail. 98 Une bonne part des analyses menées à propos des sites web peut être appliquée ici, avec prudence et à condition d’adapter le propos, aux systèmes d’information à l’œuvre dans les organisations. socialisateur et pacificateur. Ces applications sont investies de la mission impossible de rendre transparente, démocratique et efficace l’organisation dans le contexte pacifié d’un espace global de travail partagé. Ainsi le journal Les Echos présente-t-il des fiches sur les sites lauréats de son trophée « Intranet 2005 ». Les objectifs poursuivis sont exprimés sous la forme de quasi slogans et révèlent l’intention qui préside au projet. Hiérarchiser l’information pour répondre à la multiplication des contenus et éviter tout risque de saturation (Bouygues) Donner la bonne information à la bonne personne au bon moment (Bouygues) Motiver les équipes via l’atualité et les différentes nominations (Eurovia) Trier parti des investissements faits dans les progicies de gestion en utilisant et partageant les informations (SaintGobain vitrage) Permettre aux agents d’être acteurs à part entière de la vie du site intranet (Ratp bus) De leur côté, les discours commerciaux présentent une vision sans nuance des avantages qu’il y a à entrer dans l’ère de l’intranet : « La communication totale au sein de l’entreprise est enfin possible, gain de temps, amélioration du service au client, meilleure coordination, conservation de l’historique, communication entre services, diffusion de l’infomration, convivialité : le portail HONOLULU concourt à la réussite de votre entreprise. »99 Bien évidemment, ces discours commerciaux font bon marché de toute l’analyse due à la sociologie des organisations sur les écarts entre le réel et le prescrit et sur sa critique des visions outrancièrement rationalisatrices (Fridberg 1997)100. Mais on ne saurait non plus les évacuer purement et simplement au prétexte de cette différence attendue entre leur promesse et la réalité de leur application. Car cette promesse fait intégralement partie du jeu social complexe qui se pratique autour des outils, surtout lorsqu’il s’agit de gestion de l’information. Il faut reconnaître qu’au-delà du discours, l’intention managériale doit trouver un point d’appui concret et une base matérielle pour se manifester. L’intranet ou le portail ne peut pas être une simple coquille vide annonçant une nouvelle forme de travail et de nouveaux modes de partage. Il faut qu’il se corporifie dans quelque chose, au-delà même des outils de travail classiques qui assurent du lien social comme la messagerie ou les outils de travail collaboratif. Dans ces conditions, il est inévitable que l’intranet rencontre la masse documentaire, non seulement parce que celle-ci comme nous l’avons vu, a besoin d’être organisée et qu’elle peut trouver là un outil, mais encore parce qu’elle va pouvoir incarner, donner corps à une vision politique, au sens managérial du terme, induite par la construction du portail. La simple présentation d’un organigramme des services par exemple serait impuissante à fédérer cette communauté de travail qui est l’ambition avouée des portails d’entreprise. En s’appuyant sur la masse documentaire comme matériau de structuration de l’intranet ou du portail et de ses rubriques, le projet admet que cette production documentaire parle sur l’organisation, qu’elle est trace des activités, des relations sociales, des répartitions de territoires et de pouvoir. Dès lors les questions cruciales s’énoncent comme : « Qui alimente 99 www.pcsoft.fr/honolulu/index.html 100 On pourrait malgré tout ajouter à la position de Fridberg sur la nécessaire localisation du champ d’action, le fait qu’ici la norme extérieure intervient très fortement du fait de la contrainte de l’outil. Les éditeurs et concepteurs imposent leur propre vision selon des schémas pré-établis (ce que Yves Jeanneret appelle la « prétention informatique » et surtout modèlent un imaginaire qui renvoie aux grandes utopies de la communication (Flichy 1993 et 2001). 103 104 quoi ?», « qui donne à lire à qui ?» (ou « que doit-on ne pas donner à lire et à qui ? ») et les problématiques afférentes au classement, au rangement, à la mise en visibilité des documents deviennent des enjeux de discussion dans les projets. On peut voir par exemple un aspect de cette problématique dans la manière dont les moteurs de recherche sont intégrés dans les portails d’entreprise. Semblables dans leur fonctionnement aux outils utilisés sur le web (quand ce ne sont pas tout simplement les mêmes) ces outils sont utilisés dans un contexte différent, car ils se focalisent sur un nombre nettement plus restreint de documents, pour la plupart, intégrés dans une logique structurée et fortement portée par une identification typologique du document. En effet, la relation entre structuration documentaire et structuration organisationnelle remonte au moins à l’apparition des grandes organisations structurées de la firme au tournant du 20° siècle avec la mise en œuvre de premiers procédés de reprographie (dactylographie, papier carbone). Entre rapport, memorandum, note de service, note de direction, circulaire, règlement intérieur, compte-rendu de réunion, compte-rendu d’assemblée générale, document technique, document qualité… nous avons une typologie dont la forme parle avant même le contenu. Ce n’est pas la même chose de se référer à une note de direction ou à un compte-rendu de réunion de service. Avant même d’en avoir exploré le contenu, l’utilisateur aura fait sienne une représentation de la nature des arguments qu’il peut y trouver, de la validation et de l’autorité des contenus dont le document est porteur. Par conséquent, dans cette logique, la pratique d’un plan de classement est à la fois plus efficace et plus conforme à la représentation de l’organisation traditionnelle des stocks de papier que l’utilisation d’un moteur de recherches. Mais les intranets proposent le plus souvent les deux, ce qui ne constitue pas en soi une difficulté, mais le devient dès lors que les utilisateurs, qui ne sont pas des professionnels de la recherche documentaire, importent dans cet univers structuré les pratiques spontanées qu’ils ont (mal) acquises dans leur fréquentation des sites web (voir à ce sujet l’article de Marie Després-Lonnet sur les pratiques documentaires des étudiants en bibliothèque [Despres-Lonnet 2006]). Il est courant d’entendre exprimé par les utilisateurs des intranets que « le moteur de recherches est mauvais » et « qu’on ne retrouve rien sur cet intranet ». A notre sens, incriminer l’outil, le moteur en tant que tel est une fausse problématique – quelles que soient par ailleurs ses limites et performances réelles – dans la mesure où l’utilisateur ne se place plus dans la perspective de rechercher un document – alors que l’intranet peut être considéré comme une collection documentaire –, mais une information ou plus précisément la trace linguistique de cette information à travers un mot-clé101. Ainsi, dans une grande compagnie d’assurance, une personne, pourtant habituée au langage codifié, structuré de son organisme cherche une note de direction où il est question de « sécurité sociale » en tapant « sécu » dans le cartouche de recherches. Elle ne parvient pas à relier l’échec de sa requête au fait qu’elle a abandonné le langage « soutenu » en vigueur dans l’organisme pour utiliser un registre familier qui n’y a pas droit de cité. Il est probable que si elle cherchait ce document dans une armoire de bureau, elle ferait fonctionner d’autres indices relevant de l’organisation de l’espace (par exemple les notes de direction dans une chemise d’une couleur donnée) [Fischler, Lalhou 1995] et qu’un rapide feuilletage la guiderait plus sûrement vers le document attendu. Ainsi, loin de supprimer les pratiques « sauvages » liées à l’organisation de la documentation papier dans l’espace personnel du bureau, la numérisation des stocks documentaires en génère d’autres, 101 On sait que, sur le web, les utilisateurs travaillent en général à partir d’un seul mot-clé, parfois deux ou d’une locution complète. mais qui ne sont pas forcément plus efficaces. Quoiqu’il en soit, à travers le portail, l’organisation se cherche une représentation sémantique, en contraignant les flux informationnels à se ranger, se classer, se discipliner dans les bases de données, les archives et en en faisant les témoins d’une activité, présente et passée. Conclusion. Nous avons cherché à montrer que deux phénomènes qui pourraient s’analyser chacun à partir d’un présupposé théorique et méthodologique distinct (le traitement du document et la logique d’organisation) avaient partie liée. Bien qu’une recherche historique approfondie pourrait montrer sans doute en quoi cette double problématique existe dès les débuts de l’entreprise moderne, elle nous paraît particulièrement visible dans les dispositifs qui sont actuellement mis en place sous la forme des intranets et portails d’entreprise, dans la mesure où ils sont structurellement obligés, ET d’organisser informatiquement une représentation symbolique de l’entreprise, de ses départements et des ses réseaux, ET d’aider à gérer la masse documentaire produite par le fonctionnement moderne des organisations. Issus de la combinaison de plusieurs technologies, dont celles du web, mais intégrant également les apports de la Geide, du workflow et des bases de données, les intranets et portails nous obligent à prendre en compte l’inter-relation entre les effets structurants nécessairement produits par ses outils et les représentations organisationnelles qui sous-tendent leur mise en place et leur déploiement. Bibliographie. Bouillon J.-L., Pour une approche communicationnelle des processus de rationalisation cognitive des organisations : contours, enjeux et perspectives, Colloque Organisation media, Lyon, Université Jean Moulin, novembre 2004 (article consultable sur http://archivesic.ccsd.cnrs.fr) Carmes M., L’intranet : métaphore des relations de pouvoir dans l’organisation, Actes, 13° colloque de la SFIC, Marseille, Octobre 2002 Cotte D., Les portails d’entreprise, entre métaphorisation et sémiotisation des organisations, Colloque Culture des organisations et Distic, Nice, 2005a Cotte D., La structure comme index, Le rôle indiciel des interfaces documentaires. Colloque indice, index, indexation, Lille, 3-4 Novembre 2005, 2005b Despres-Lonnet, M. Écrits d'écran : le fatras sémiotique, Communication et Langages, n°143, 2004 Despres-Lonnet, M. Les étudiants et la documentation électronique, BBF, t.51, n°2, 2006 Fischler C., Lalhou, S., "Dossiers, piles d'attente et corbeilles - La gestion quotidienne de l'information au bureau." 58 pages. EDF, 1995 Gaglio G., Zacklad M., La circulation documentaire en entreprise comme analyseur de pratiques professionnelles. Une étude de cas, Sciences de la société, n°68, Mars 2006. Ghitalla F., Boullier D., et al. L’outre-lecture, Manipuler (s’) approprier, interpréter le web, BPI, 2003 Guyot, B., Sciences de l’information et activité professionnelle , Hermès, n°38, mai 2004 Guyot B., Peyrelong M.-F., le document dans une perspective organisationnelle. Un objet comme un autre ? Sciences de la société, n°68, Mars 2006 Jeanneret, Y., « La Trivialité comme évidence et comme problème : à propos de la querelle des impostures », Enjeux de l'Information et de la communication, Université Grenoble 3, décembre 1999 Jeanneret Y., Y a-t-il [vraiment] des technologies de l’information ?, Septentrion, 2000 Jeanneret, Y., Souchier, E., « Pour une poétique de l’écrit d’écran », Xoana, Paris, Jean-Michel Place, n°6, “Multimédia en recherche”, 1999, p. 97-107 Le Marec, J., Babou, I., De l’étude des usages à une théorie des « composites » : objets, relations et normes en bibliothèque, in. Souchier, et. al., Lire, écrire, récrire : Objets, signes et pratiques des médias informatisés, Bibliothèque publique d’information, 2003 104 105 Pedauque R., Document et modernités, 2006 Semprini A., La société de flux. Formes du sens et identité dans les sociétés contemporaines, L’Harmattan, 2003 Yates J., From Press Book and Pigeonhole to vertical filling : revolution in storage and access systems for correspondance, The journal of business communication, vol 19, 1982 Zacklad M., Processus de documentarisation dans les Documents pour l’Action (DopA) : statut des annotations et technologies de la coopération associées, actes du colloque “Le numérique impact sur le cycle de vie du document pour une analyse interdisciplinaire”, Montréal, Oct, 2004, Editions de l’Enssib. 105 106 La Gestion de l’Information des organisations : analyse de définitions et conceptualisation Jeremy DEPAUW Dpt des Sciences de l'Information et de la Communication (SIC) Université Libre de Bruxelles (ULB) [email protected] sic-IT: http://siculb.blogspot.com Résumé : Toute démarche de Gestion de l’Information (GI) fait désormais partie des enjeux stratégiques pour les organisations. De nombreux ouvrages proposent des méthodes variées pour l’appréhender, la comprendre et la mettre en place. Pourtant, malgré la profusion de termes, de concepts et de définitions qui gravitent autour d’elle, peu de travaux se sont attaché à clarifier les ambigüités et les imprécisions conceptuelles. Parmi les étiquettes qu’on lui attribue (Veille, Intelligence, etc.), chacune indique une même volonté d’appréhender l’information pertinente pour l’organisation en vue d’assurer sa pérennité. Mais aucun de ces termes n’est réellement interchangeable. L’objectif de cet article est d’identifier les dimensions du concept de GI et leurs composantes majeures afin de proposer une définition du concept de GI, construite à partir d’une revue de la littérature. Plutôt que d’envisager la Veille ou l’Intelligence comme des activités distinctes, cet article propose la GI comme un concept composé de trois dimensions majeures : la Surveillance, la Veille et l’Intelligence. Chacune de ces dimensions fait l’objet de nombreuses définitions dans la littérature, dont l’analyse des mots-clés montre la prédominance de certaines catégories sémantiques, mettant ainsi en évidence la cohérence et les points communs entre les nombreuses formulations. Cet article soutient l’idée que la GI pourrait être considérée comme un concept générique, utile à la description et la compréhension de l’ensemble des démarches visant à appréhender l’information, indépendamment des moyens ou des objectifs mobilisés par chacune. Mots-clés : Gestion de l’Information (surveillance – veille – intelligence), Organisations, Médiation, Surveillance, Aide à la décision, Action d’influence Introduction Gérer l’information constitue un impératif majeur pour les organisations soucieuses d’assurer leur pérennité. Michael Porter [1986] l’affirmait il y a 20 ans, il faut donner « la bonne information à la bonne personne, au bon moment » et ce, « pour prendre la bonne décision ». L’étude des organisations a été marquée par l’approche systémique et de nombreux auteurs ont participé à la construction de ce champ de recherche, en quête permanente de bases théoriques solides et d’une légitimité scientifique [Le Moigne, 1974, Le Moigne, 1977, Bartoli et Le Moigne, 1996, Tardieu, 1991]102. La Gestion de l’Information (GI) par les organisations s’insère dans ce contexte de recherche. Cet article a pour objectif de discuter les enjeux terminologiques et conceptuels liés à la prise en charge, par les organisations, de l’information issue de leur environnement. Le novice, autant que l’observateur averti et même le professionnel, qui se penche sur la littérature liée aux activités de GI ne peut que constater une instabilité des connaissances [Boizard, 2005] et un flou terminologique marqué [Cohen, 2004]. Corine Cohen explique ce constat par la relative jeunesse des concepts et la difficulté à concilier les contributions d’origines différentes. C’est le cas en particulier pour les traductions et transpositions entre les travaux anglosaxons et français. A ceci, le développement des activités comme outil stratégique peut être ajouté. Leur développement est toujours resté relativement confidentiel, malgré les initiatives d’ouverture (rapports publics, création d’associations professionnelles, etc.). Enfin, ancré dans la pratique, ce domaine d’activité a le plus souvent été porté et promu par ses praticiens, plus que par les théoriciens.103 102 Le lecteur trouvera un panorama synthétique et circonstancié à ce sujet dans GUYOT, Brigitte, « Système d’information : construction d’un objet de recherche », in : DELCAMBRE, Pierre, Communication Organisationnelle : Objets, Pratiques, Dispositifs, Rennes, Presse Universitaires de Rennes, 2000, pp. 81 à 94. 103 A ce sujet, Odile Boizard propose un panorama riche et documenté sur la question de l’articulation de la Veille et de l’IE, incontournable pour quiconque s’intéresse à ce sujet. BOIZARD, Odile, « Veille ou Intelligence Economique, faut-il choisir ? Retour d’expérience », Marseille, juin 2005 (consulté la dernière Il convient d’indiquer que les deux activités principales mobilisées dans cet article sont la Veille et l’Intelligence Economique (IE).104 A ce sujet, il est largement admis qu’il s’agit de notions aux frontières floues. Levet [2001] explique que depuis la définition de l’IE, donnée par le rapport Martre en 1994, les formulations nouvelles se sont multipliées, selon deux vagues successives : des descriptions en termes de processus et de techniques [Salles, 2000] suivies d’approches pluridisciplinaires, inscrites dans une perspective d’une économie de la connaissance. L’instabilité constatée se manifeste dans de nombreux aspects de l’étude des activités de GI. Dans le cadre de cet article, c’est le flou autour des définitions qui sera traité. Ce besoin s’est justifié dans le cadre d’une recherche plus large sur l’IE (DEA d’abord et thèse ensuite) qui n’a semblé pouvoir faire l’économie d’une remise en cause plus large [Boizard, 2005]. Ce flou est également préjudiciable pour les professionnels, qui, dans leurs pratiques quotidiennes, sont amenés à gérer de front un arsenal d'outils variés. Or, il est devenu difficile de savoir quel outil correspond à quelle pratique. Malgré tout, il serait excessif de dénoncer une absence totale de cohérence ou de consensus. Dès lors, le propos n’est pas ici de remettre en cause les travaux antérieurs, mais plutôt de tenter d’en extraire les éléments-clés, d’en identifier le fil rouge et d’en comprendre l’articulation afin de proposer une grille de lecture qui permette de pallier l’instabilité observée. Pour étayer et structurer cette approche, il semble utile de tirer profit de travaux antérieurs. Deux sources principales sont ici mobilisées : les travaux de Corine Cohen [2004] et ceux de Daniel Rouach [1996]. Corine Cohen a entrepris une analyse de fond de l’évolution du concept général de Surveillance (qui peut être fois le 28/06/2006, à l’adresse : http://www.euromedmarseille.com/index.jsp?id=7659 ) 104 Par souci de clarté, les majuscules aux termes GI, Veille, IE et Surveillance font référence à des activités communément utilisées pour décrire le travail de terrain. Ils se distinguent ainsi des catégories sémantiques mobilisées lors de l’analyse. 106 107 assimilé à notre concept de GI) depuis la fin des années ’60. Pour ce faire, elle a étudié les titres des ouvrages et articles publiés depuis 1967105. Elle a pu ainsi identifier trois phases dans le développement du concept et mettre en évidence le « retard » des travaux français/francophones d’une décennie par rapport aux travaux anglo-saxons. En outre, la typologie des concepts issus de la Surveillance suscite ici le plus grand intérêt. Elle peut se résumer de la manière suivante : • Scanning / Surveillance : une attitude d’observation attentive de l’environnement de l’organisation qui peut s’assimiler à un radar dont la fonction est de prévenir, d’alerter quand un évènement inhabituel survient. • La Veille : elle a une fonction plus anticipative à laquelle vient se greffer une fonction informative. Elle met en évidence les impacts d’évènements potentiels. Cohen la considère comme distante de la prise de décision. • L’Intelligence : elle agit au-delà de l’identification des impacts en faisant des recommandations ou en proposant des actions. Cohen insiste sur le fait que cette évolution du concept de Surveillance doit se comprendre comme une apparition de caractéristiques cumulatives (la Veille fait partie de l’Intelligence), marquant un passage chaque fois plus marqué dans le processus de décision et la proactivité. Daniel Rouach, pour sa part, a, depuis de nombreuses années, proposé une typologie des veilleurs106, proposant cinq types de professionnels, caractérisés par deux variables : leur degré de professionnalisme (axe des X) et le degré d’activité (axe des Y). Cette matrice permet de distinguer cinq types de veilleurs, du « dormeur » au « guerrier ». Cette typologie, appliquée au travail de Cohen, permet de caractériser les trois types d’activités, selon ces critères. La Surveillance reste passive, la Veille devient active et l’Intelligence nécessite des démarches offensives. De la même manière, le passage à l’Intelligence suggéré par Cohen requiert un plus grand professionnalisme de la part des organisations, tant de la part des théoriciens que des professionnels ; ces derniers ont vu leur rôle d’observateur et de médiateur prendre une place de plus en plus marquée dans les réseaux et les stratégies de gestion. Dès lors, la matrice de Rouach sera réduite ici à trois catégories d’items (passifs, actifs, proactifs) qui ne consistent pas en des acteurs mais en des activités, étiquetées selon la typologie de Cohen (Surveillance, Veille, IE). Le besoin de clarification à l’origine de cet article est particulièrement marqué dans les définitions que les auteurs donnent aux termes tels que « Veille » ou « IE ». Ainsi, un regard transversal sur la littérature traitant de GI met en évidence une série d’appellations différentes : Intelligence économique, Intelligence économique et stratégique, Veille, Veille stratégique, technologique, Scanning, Surveillance, Intelligence compétitive, Business Intelligence, etc. Tous ces termes se recoupent et sont liés, sans vraiment être interchangeables ; cela fragilise toute tentative de mise au point de bases stables à l’étude de la GI. Les ambigüités provoquent des malentendus et empêchent une interopérabilité des concepts entre les auteurs et les approches. C’est donc par l’intermédiaire des définitions et l’identification de leurs éléments majeurs qu’une définition générique des activités de GI sera proposée. 105 Pour une lecture détaillée de cette étude, cfr COHEN, Corine, Veille et intelligence stratégique, Lavoisier, Paris, 2004, pp. 45 à 66. 106 Pour une lecture détaillée de cette matrice, cfr ROUACH, Daniel, La veille technologique et l'intelligence économique, 1ère éd., Presses universitaires de France, Paris, 1996, p. 29 Etude de la littérature L’objectif de cette analyse est de définir la GI, en tenant compte des éléments-clés repris dans les définitions des différentes activités qui lui sont généralement attribuées. De manière schématique [Quivy et Van Campenoudt, 1995], le concept de GI est ici, a priori, considéré comme articulé autour de trois dimensions - Surveillance, Veille et IE – pour lesquelles nous voulons identifier les différentes composantes. Une exploration de la littérature a permis de recueillir un ensemble de définitions de la Surveillance, de la Veille et de l’IE (n=54). Sans être exhaustive, elle rassemble néanmoins la majeure partie de celles qui ont été produites, en français, ces dernières années. L’analyse consiste à isoler les mots-clés des définitions et à les classer selon cinq catégories sémantiques qu’une analyse exploratoire du corpus a permis de mettre en évidence. Lors de cette phase préliminaire d’analyse, les mots-clés ont pu être rassemblés d’emblée selon la typologie de Cohen (3 à 5). Les catégories 1 et 2 sont apparues comme pertinentes pour englober ceux qui n’entraient pas dans les premières. A elles cinq, ces catégories couvrent la quasi-totalité des termes et expressions riches de sens dans les définitions : • Les indications relatives à la médiation de l’information (1) • Les indications relatives à l’environnement de l’organisation (2) • Les indications relatives à l’action de surveillance (3) • Les indications relatives à l’action d’aide à la décision (4) • Les indications relatives à l’action d’influence (5) Ces catégories constituent autant de composantes potentielles des trois dimensions de la GI évoquées ci-dessus.107 C’est la proportion des occurrences des différentes catégories sémantiques qui détermine le poids des composantes dans chaque dimension. Il est important de signaler qu’il ne s’agit en aucun cas d’une analyse sémantique poussée. L’objectif est de formaliser la lecture des définitions pour les exploiter rigoureusement. La mise en œuvre de cette démarche a montré d’emblée que la structure des dimensions choisies comme base de travail est restée soutenable lors de sa mise à l’épreuve. De manière générale, l’analyse permet d'identifier les composantes qui dominent dans la formulation de chaque dimension de la GI, et de les représenter (figure 1) : • La Surveillance : elle est surtout définie par des indications relatives à l'action de surveillance, au sens large, de l'environnement • La Veille : elle est surtout définie par des indications relatives à la médiation de l’information et à l'aide à la décision. La surveillance et l'environnement restent importants malgré tout. • L'IE : Elle est surtout définie par des indications relatives à la médiation et à l'aide à la décision. En outre, c'est dans ces définitions que l'on retrouve la plus grande part d’occurrences relatives aux actions d'influence, inexistantes en Surveillance et anecdotiques en Veille. Figure 1 : Le concept de GI, ses dimensions et leurs composantes : 107 Exemple : La définition de la Veille par Francart, [Francart, 2002] : L’activité principale de recueil de l’information (1) dans le monde de l’entreprise (2). Elle a pour but de recueillir l’information (1) nécessaire à l’entretien du savoir (1) de l’entreprise et à sa transformation (1) pour améliorer la prise de décision. (4) Ici, la catégorie (4) n’apparait qu’une fois mais reste capitale puisqu’elle est présentée, selon Francart, comme le but final de la Veille. 107 108 Une observation plus détaillée apporte des enseignements importants : • Les indications liées à la médiation de l'information représentent la part la plus importante des mots-clés identifiés dans les définitions. A cette catégorie, s'ajoute celle des mots-clé liés à l'environnement, à son évolution, ses tendances, etc. A elles deux, ces catégories, indépendantes des objectifs de la Surveillance, de la Veille ou de l'IE, représentent une part significative (+ de 50%) des mots-clés. • La composante de l’action d’aide à la prise de décision n'est pas négligeable non plus. Ainsi, si la surveillance est présente, elle semble un objectif sur lequel l'accent est fort marqué. Il faut noter que cela ne signifie pas forcément que la détection des menaces et opportunités (environnement) soit considérée comme moins importante. L'évolution historique semble avoir conduit les auteurs à considérer cet aspect comme acquis et ils ont peut-être davantage insisté sur l'aspect décisionnel en le détaillant (d'où l'occurrence plus grande de mots-clés). L'analyse des proportions des composantes a également été menée individuellement pour les trois dimensions (types d'activités). Cette démarche apporte des nuances importantes par rapport à la vision globale, présentée ci-dessus : • La composante « médiation » augmente en occurrence lors d’un passage de la Surveillance à la Veille et de la Veille à l'IE. En effet, les définitions apportent plus de précisions et de détails sur cet aspect. Ici, cela pourrait être expliqué par le fait que les auteurs ont surtout travaillé sur l'aspect opérationnel de la GI (manuels, How to, etc.) plutôt que sur l'aspect conceptuel. • A l'inverse, la composante « environnement » diminue en importance. Ce à quoi on peut ajouter que la diminution de celle de surveillance renforce cette tendance. Mais elle reste omniprésente, ce qui semble indiquer qu'elle n'est pas négligée pour autant ; elle est plutôt « moins accentuée ». • Dans l'idée de la prédominance des travaux opérationnels, la prise de décision est presque équivalente dans les définitions de Veille et d'IE. Sa moindre présence en Surveillance semble coïncider avec la description de la Surveillance comme une activité passive, par rapport à la Veille (active) ou l'IE (proactive). • Enfin, la composante des actions d’influence apparaît de manière significative dans les définitions de l'IE, ce qui s’accorde avec la typologie soutenue à priori. Ce type de mots-clés, retrouvé dans les définitions de la veille (5%), ne constitue que des mots secondaires de cette composante. Jusque là, ces observations apportent des précisions sur la ventilation de chaque aspect des définitions, prises isolément, et ne contredit pas la typologie construite à partir des travaux de Cohen et de Rouach. En outre, Cohen présente l’évolution du concept de Surveillance dans le temps, suggérant ainsi une continuité entre les dimensions de la GI. Dès lors que l’on accepte ce postulat, il est possible de mettre les observations en perspective avec l’idée d’une accumulation progressive des objectifs et des composantes, sans affirmer pour autant que l’IE serait le dernier avatar du concept de Surveillance, trente ans après son apparition dans la littérature. Ce postulat tient donc du fait qu'il existe un lien entre les trois types d'activité et qu’on peut les considérer de manière cumulative. Cette perspective permet de confirmer certaines observations déjà abordées : • La tendance à la diminution de la proportion des indications sur l'environnement et de l'aspect surveillance est confirmée. Elles restent présentes, mais sont moins détaillées dans les formulations. • La tendance à l'augmentation de la proportion des indications relatives à la médiation, l’aide à la décision et aux actions d'influence est confirmée. En outre, l’approche groupée apporte des précisions intéressantes : • La proportion de mots-clés liés à l'environnement et à la surveillance est beaucoup plus forte dans la définition de la surveillance que dans les autres. Cela suggère que ces définitions sont assez identiques sur le fond comme sur la forme ; ce qu’une lecture globale confirmera. En outre, les parts d’aide à la décision et de médiation sont égales. • Les définitions de la Veille et de l'IE sont beaucoup moins équilibrées dans l'utilisation de leurs mots-clés. La plus faible proportion des mots pertinents par rapport à leur total semble indiquer une dispersion plus forte des formulations et un équilibre moins marqué. Cela peut sans doute s’expliquer par le nombre plus grand de définitions disponibles et d'auteurs qui se sont essayé à en formuler. On perçoit ici l'instabilité des connaissances, unanimement admise dans le domaine d'étude. Comment définir la GI ? Constater l’instabilité théorique, et en particulier terminologique, du domaine de la GI ne peut être une fin en soi. Ainsi, l’objectif poursuivi lors de l’analyse des définitions est de pouvoir mettre en évidence les composantes majeures des trois dimensions qui constituent ce concept. Cette nouvelle définition, du moins cette nouvelle formulation, recherchée d’abord dans un contexte restreint d’une thèse de doctorat sur le sujet, a pour vocation d’alimenter la réflexion sur les fondements théoriques de la GI. La méthode choisie consiste à exploiter les observations faites lors de l’analyse des définitions et à les rassembler dans celle du terme « Gestion de l’information », proposé dès lors comme terme générique pour l’ensemble des dimensions habituellement évoquées – Surveillance, Veille, IE. La Gestion de l’Information (GI) : Pour un individu ou une organisation, l'ensemble des démarches visant à prendre en charge l'information issue de l'environnement, pour anticiper une situation donnée ou une tendance plus large, à un moment donné, et s’y adapter en vue d'en tirer profit après un traitement et un relai adéquats. Il convient de préciser cette proposition de définition : • Pour un individu ou une organisation, l'ensemble des démarches… En adéquation avec l’objectif de généralisation, la définition s’oriente clairement vers une approche globale qui ne se restreint pas à un type d’acteurs ou de pratiques particuliers. • …visant à prendre en charge l'information issue de 108 109 l'environnement,… L’objet de la maîtrise définie ici porte sur l’information issue de l’environnement de l’acteur. Cette formulation prend en compte les informations provenant spontanément de l’environnement ainsi que celles que le système de maîtrise collecte volontairement. Il faut ajouter qu’on ne cherche pas à gérer « toute » l’information, mais uniquement celle qui est peut-être importante, dans le contexte en présence. • ... pour anticiper une situation donnée ou une tendance plus large, à un moment donné, et s’y adapter… La définition ajoute que la gestion a pour but de permettre à l’acteur d’adapter son comportement ou ses actes au contexte dans lequel il se trouve. La notion d’anticipation est ici présente. Les adaptations peuvent être de tous ordres : décisions, actions voire absence d’action. • ... en vue d'en tirer profit... D’une part, la définition insiste sur l’objectif de la gestion de l’information, qui vise à atteindre un gain. Le fait de ne pas préciser la nature du profit élargit le spectre à d’autres considérations que l’aspect financier. Et, comme l’a montré Jokobiak [1991], l’absence de perte peut constituer le « profit » dont il est question. D’autre part, elle indique l’importance du rôle joué par l’acteur concerné, sans le dissocier de la recherche de gain, dont l’appropriation de l’information reste l’élément clé. • …après un traitement et un relai adéquats. Par traitement, on peut entendre les actions telles que la collecte, la sélection ou la formulation sous d’autres formes, mais aussi la mémorisation (humaine ou informatique), le recoupement, la déclinaison, etc. des informations. La notion de relai permet d’insister sur le fait qu’une information traitée n’est utile que si elle parvient aux bons interlocuteurs, mais ne précise pas quelle implication prend l’acteur de GI dans les processus de décisions. En l’envisageant de la sorte, ce travail reste adaptable aux trois dimensions du concept. Sans cette démarche, il ne serait pas possible d’exploiter l’information. Cette formulation poursuit deux objectifs. D’un part, elle met la GI en contexte. Bien que large, le champ est circonscrit avec des indications sur les acteurs concernés (individu ou organisation) et sur ce dont il s’agit concrètement (prise en charge de l'information dans une situation donnée, à un moment donné et y réagir, pour en tirer profit). On y retrouve les deux composantes majeures, identifiées dans l’ensemble des définitions : la médiation de l'information (prendre en charge - collecter et diffuser – traiter de façon adaptée) et l’environnement de l’organisation. D’autre part, elle reste large pour constituer une définition "générique" qui pourra être précisée, à laquelle il pourra être fait référence comme "famille générale". L’identification des composantes s’avère ici très utile, puisqu’il est alors possible de préciser cette formulation en exploitant les trois restantes : l’action de surveillance, l’aide à la décision et les actions d’influence. Par ailleurs, l’analyse a aussi montré que ces composantes peuvent être comprises comme des « couches d’objectifs » et que ces dernières « s’accumulent » lors d’un passage d’une dimension à l’autre. Dès lors, la proposition de définition est la suivante : La Gestion de l’Information : Pour un individu ou une organisation, l'ensemble des démarches visant à prendre en charge l'information issue de l'environnement, pour anticiper une situation donnée ou une tendance plus large, à un moment donné, et s’y adapter en vue d'en tirer profit après un traitement et un relai adéquats. Ces démarches sont concrétisées à l'aide d'une médiation de l'information (recherche, collecte, traitement, distribution, etc.) et se différencient par leur objectif principal: la détection des menaces et des opportunités, l’aide à la prise de décision et les actions d'influence. Cette proposition a l’avantage de rendre compte de la cohérence extraite de l’analyse systématique d’une collection de définitions d’activités de GI. Les indications liées à la médiation de l’information et à l’environnement posent le contexte, qui est alors décliné selon les objectifs choisis par l’acteur qui envisage ou met en place la GI. Précisons que cette approche n’élude que temporairement l’importance de l’aspect toujours « situé » [Quéré, 1997] de ces actions, qui devra à terme pouvoir être pris en compte. L’intérêt de prendre l’initiative de formuler une définition tient au fait qu’elle pourra être utilisée de deux manières lors de recherches à venir. D’une part, la description permettra de baliser précisément le champ étudié, en profitant des limites du concept de GI ainsi que de sa structuration. D’autre part, elle contribuera à clarifier les spécificités de chacune des dimensions du concept, contribuant ainsi à une identification et une classification plus efficaces et transparentes des activités, des pratiques ou encore des outils. Le propos n’est pas ici de rejeter les travaux antérieurs. Au contraire, ils ont servi de base à cette démarche de formulation. Depuis 2003, et le rapport Carayon [Carayon, 2003], les professionnels semblent avoir orienté leurs efforts, et c’est légitime, vers la mise en place de politiques fortes et efficaces, au détriment sans doute des fondements théoriques. Face à ce constat, le chercheur, en quête de clarté et de bases solides, ne peut cependant faire l’économie d’une réflexion de fond sur les concepts et les modèles auxquels cet article se veut une contribution utile. Bibliographie ALEXIS, Henry, La communication des organisations à la croisée des chemins disciplinaires, GREC/O, I3M, L’Harmattan, Paris, 2005, 152 p. Bartoli, Jacques-André, Le Moigne, Jean-Louis (dir), Organisations Intelligentes et Système D’Information Stratégiques, Gestion, Ed. Economica, Paris, 1996, 284 p. BOIZARD, Odile, Veille ou Intelligence Economique, faut-il choisir ? Retour d’expérience, Marseille, juin 2005 (consulté la dernière fois le 28/06/2006 http://www.euromed-marseille.com/index.jsp?id=7659 ) BOUZON, Arlette, MEYER, Vincent, La communication organisationnelle en question : méthodes et méthodologies, Org§Co, Communication et civilisation, L’Harmattan, Paris, 2006, 210 p. CARAYON, Bernard, Intelligence économique, compétitivité et cohésion sociale, Rapport au premier ministre, Paris, 2003. Consulté sur le site http://www.bcarayon-ie.com/ (le 23/06/2006) Cohen, Corine, Veille et intelligence, Lavoisier, Paris, 2004, 286 p Davenport, Thomas H., Working knowledge: how organizations manage what they know, Mass: Harvard Business School Press, Boston, 1998, 199 p Goria, Stéphane, Knauf, Audrey., David, Amos., Geffroy, Philippe., Le processus d'Intelligence Economique : Une étude selon le point de vue de l'infomédiaire et des problématiques de recherche d'information, Communication avec actes. Colloque ATELIS ATELiers d'Intelligence Stratégique, Poitier, 24/01/2005, via ArchiveSIC. Dernière consultation : le 23/06/2006 GUYOT, Brigitte, Système d’information : construction d’un objet de recherche, in : DELACAMBRE, Pierre, Communications organisationnelles : objets, pratiques, diapositifs, Rennes, Presses universitaires de Rennes, 2000, 330 p. Francart, Loup, Infosphère et intelligence stratégique : les nouveaux défis, Economica, 2002, Paris, 386 p. Jakobiak, François, Pratique de la veille technologique, Ed. D’Organisation, Paris, 1991, 232 p. Le Moigne Jean-Louis, Les systèmes de décision dans les organisations, PUF 1974, 238p. Le Moigne Jean-Louis, La théorie du système général, PUF, Paris 1977, 338p Levet, Jean-Louis, L'intelligence économique : mode de pensée, mode 109 110 d'action, Coll. L'intelligence économique, Economica, Paris, 2001, 154 p. Martre Henri (prés.), Commissariat général du plan : Rapport du groupe Intelligence économique et stratégie des entreprises, La Documentation française, Paris, 1994, 213 p MEINGAN, Denis, LEBO, Isabelle, Maîtriser la veille pour préparer l’Intelligence économique, Livre blanc publié par Knowlegde Consult, http://www.knowledgeconsult.com/fr/, septembre 2004, 72 p. PORTER, Michael, Competitive advantage : creating and sustaining suprior performance, Free Press, New York, 1985, 557 p. QUéré, Louis, « La situation toujours négligée ? », in : Réseaux, n°85, Cnet, 1997. L’Impact des TIC à l’école : émergence de nouvelles pratiques de formation ? Aperçu d’un dispositif de communication multicanal (LEAD108) pour le travail collaboratif instrumenté en classe. DUMEZ FEROC Isabelle LEAPLE-CNRS / Université Paris 5, [email protected] Introduction Il peut apparaître surprenant à certains, voir choquant pour d’autres, de trouver dans ces pages qui traitent des usages organisationnels des technologies de l’information et de la communication un propos sur l’école, et plus précisément sur la classe. Est-il en effet convenable de penser l’École, cette institution vénérable, comme une « organisation » à part entière et peut-on véritablement envisager la structure de fonctionnement qu’est la classe du premier et du second degrés sous l’angle sociologique et économique de l’organisation du travail ? L’École du XXIème siècle reste une forme sociale établie par la loi, relevant du droit public et sous le contrôle de l’État. Bien que cette institution demeure le fruit d’une assez longue tradition pédagogique imposant un modèle scolaire, elle ne s’inscrit pas en reste des contingences économiques. Afin de faire face à la « crise de l’école » devenue structurelle, et de pouvoir respecter un « cahier des charges » de plus en plus complexe malgré les inévitables restrictions en ressources humaines et matérielles, les États doivent « rationaliser » l’École. Une rationalisation de son administration, mais également de son fonctionnement technique et pédagogique. Bien que la notion de « rentabilité » parvienne difficilement à faire écho dans le monde de l’éducation (et en particulier en formation initiale où elle apparaît toujours incongrue), et même si la mesure des performances - c’est-à-dire l’évaluation des acquis des élèves, et des compétences des enseignants reste problématique voire taboue, il ne semble pas moins nécessaire de chercher à optimiser davantage l’efficacité du personnel (enseignant), d’améliorer la coordination du travail (d’enseignement, de transmission, de formation, d’animation…et d’apprentissage), bref de « manager » l’École. Quivy, Raymond, Van Campenhoudt, Luc, Manuel de recherche en sciences sociales, 2ème éd., Psycho sup, Ed. Dunod, Paris, 1995, 288 p. Rouach, Daniel, La veille technologique et l'intelligence économique, 1ère éd., Presses universitaires de France, Paris, 1996, 126 p. SALLES, Maryse, Problématique de la conception de méthodes pour la définition des Systèmes d’Intelligence économiques, in : Revue d’Intelligence économique, n°6-7, Octobre 2000. SUTTER, Eric, Le management de l’information : Présentation commentée du document de normalisation X50-185, Coll. L’Essentiel sur…, ADBS Editions, Paris, 2005, 60 p. Un management indispensable pour que l’institution réussisse à mieux gérer et organiser ses ressources humaines, techniques et financières, en développant des stratégies respectueuses de ses valeurs fondatrices tout en parvenant à satisfaire davantage les besoins d’éducation des élèves et les demandes des familles. Il ne semble donc pas hors propos de penser l’École sous un angle organisationnel, au vu qu’à sa façon l’institution se doit d’atteindre les objectifs qu’elle détermine publiquement. L’éducation, la formation, l’enseignement et même l’apprentissage peuvent donc relever d’une problématique du travail au sens large. Si cette conception est acquise du côté de l’enseignement reconnu comme une activité professionnelle, elle fait également son chemin depuis plusieurs années du côté des apprenants à qui est accordée à travers la notion émergente de « métier d’élève » une représentation renouvelée de l’activité d’apprentissage (Perrenoud, 1994). L’école modernisée : la remise en question du schéma d’enseignement-apprentissage traditionnel L’institution éducative française, à l’instar de la majorité des institutions éducatives européennes, se caractérise encore par la permanence d’un modèle scolaire traditionnel, dans lequel s’impose un dispositif d’enseignement et d’apprentissage en présence, configuré en une structure cellulaire stable qui ordonne l’organisation sociophysique de la classe. Ainsi, le plus souvent le cours a lieu dans un espace fermé sous la forme d’un face-à-face (disposition de type frontal) entre un enseignant et un public d’apprenants organisé en groupe classe. Même si ce modèle canonique du cours dit magistral perdure encore dans de nombreux pays comme la France, d’autres formes d’enseignement sont tout de même apparues au cours du XXème siècle. Par exemple, des pratiques éducatives de travail collaboratif, soutenues notamment par les théories d’apprentissage sociocognitives109 ont progressivement émergé. Des pratiques de formation qui permettent de sortir du schéma linéaire de la transmission des savoirs formels dans lequel le rôle de l’élève se réduit à celui de réceptacle, et qui valorisent une pédagogie de l’accompagnement dans des situations d’apprentissage110 de savoirs plus informels et de compétences. Dans une certaine mesure, ces nouvelles pratiques de plus en plus légitimées, qui valorisent l’individualisation et l’autonomie des agents sociaux, se font l’écho des mutations socioculturelles du XXème siècle largement perceptibles dans l’organisation du travail. Même si certains voudraient encore maintenir cette institution dans un sanctuaire protégé, l’École a montré durant 108 Projet européen STREP, inscrit au 6ème plan Information Society Technology pour la période de 2005-2008 sous l’intitulé « LEAD - Technology-enhanced learning and problem-solving discussions : Networked learning environments in the classroom ». Site web : http://lead2learning.org 109 de L. Vygotsky, par exemple. 110 Notamment en France, avec le courant pédagogique de l’École Nouvelle soutenu par Célestin FREINET. 110 111 ces deux dernières décennies qu’elle sait évoluer et s’adapter à la société moderne. Ainsi, un ensemble de technologies informatiques sont parvenues à s’intégrer aux environnements éducatifs traditionnels dans l’enseignement primaire et secondaire, sur le plan quantitatif et qualitatif111, en provoquant des changements d’ordre organisationnel et pédagogique (Pouzard 1997). L’introduction des technologies dans le système éducatif112 va à la fois dans le sens d’une rationalisation des ressources et des moyens d’enseignement (afin de pallier le manque de personnel face à la massification et la diversification nouvelles de la scolarité), et dans le sens des exigences modernes de formation, telle la maîtrise des outils technologiques, l’autonomisation et l’adaptabilité de l’élève (Baron, Bruillard & Lévy 2000 ; Chaptal 2003). Ainsi, l’intégration des usages des TIC redéfinit le métier d’enseignant et le métier d’élève en introduisant de nouvelles exigences et en changeant les conditions de travail. Aujourd’hui, avec ces outils technologiques, l’École semble pouvoir disposer de moyens inédits susceptibles de l’aider à apparaître comme un partenaire de communication plus présent, à s’intégrer à la « société de l’information ». En effet, si l’institution s’inscrit toujours dans une posture de réception de l’information - les usages dominants d’Internet en milieu scolaire restent la consultation de pages Web (Bevort & Bréda 2001) - elle est également capable d’adopter une posture de production, par exemple à travers la publication en ligne grâce à des sites Web d’école ou avec les récents blogs scolaires (Audran 2000 ; Féroc-Dumez 2005). Dorénavant, avec la mise en avant de valeurs provenant de l’univers de la formation professionnelle et du management, le modèle éducatif dit traditionnel semble donc partiellement devoir être remis en question. Les missions de l’École s’enrichissent de problématiques nouvelles et les situations éducatives en « face-à-face » propres à l’enseignement scolaire, qu’elles s’inscrivent ou non dans des orientations pédagogiques renouvelées, s’en trouvent donc quelque peu modifiées113. L’impact des technologies sur le travail d’enseignement et le travail scolaire : une évolution lente mais certaine L’École est une organisation dont le fonctionnement et la légitimé reposent sur un contrat social public dans lequel tous les acteurs engagés doivent trouver leur compte, qu’il s’agisse des administrateurs, des enseignants, des élèves ou des familles. Il y est indispensable qu’un équilibre harmonieux s’établisse dans la mobilisation des ressources internes, que les investissements financiers de l’État soient justifiés, que l’usage des équipements techniques (ordinateurs et connexion au réseau, par exemple) soit reconnu utile, que la gestion des personnels (formation des enseignants, etc.) soit pertinente, que les élèves apprennent toujours plus et mieux. Même si certains veulent toujours l’ignorer « l’industrialisation de l’enseignement » est déjà là depuis quelques temps ; elle a débuté dès l’arrivée des premiers supports pédagogiques (le livre illustré) et s’est développée encore avec la scolarisation de l’informatique. Dès les années 80, avec l’entrée des ordinateurs dans le système éducatif français (notamment avec le plan « I.P.T.114 »), la division du travail a commencé à 111 Source pour la France : Éducation Nationale (Direction de l’Evaluation et de la Prospective), Direction de la Technologie – SDTICE. Source pour l’Europe : banque de données EURYDICE. 112 Des premières applications de l’informatique de l’enseignement programmé des années 70 et 80 à la récente institution du Brevet informatique et internet (B2i). 113 Comme le soulignent, par exemple, la Loi d’orientation de 1989 et le B.O.E.N. n°18 du 1er mai 1997. 114 Plan d’équipement des établissements scolaires français « Informatique Pour tous » mis en place par L. Fabius en 1985. s’instaurer entre les enseignants et les machines. Si la rationalisation des ressources s’inscrit dans une logique économique de réduction du coût salarial, elle répond aussi à des besoins d’ordre socioculturel. En effet, les représentations sociales de l’enseignement ont changé. Les familles ne veulent plus de l’enseignement de masse mais désirent des situations d’apprentissage davantage personnalisées, individualisées, adaptées au profil socio-cognitif des enfants et des jeunes. Quant aux élèves baignés de culture technologique et audiovisuelle, la plupart d’entre eux éprouvent de réelles difficultés à apprendre dans les situations traditionnelles du cours magistral en profond décalage avec leur mode de vie. Il en naît un sentiment de rupture qui favorise la perte de sens de l’École. Les élèves d’aujourd’hui sont davantage enclins à travailler, à s’approprier les contenus d’apprentissage et les compétences dans des situations éducatives renouvelées, avec des méthodes d’enseignement « mixtes » mêlant des supports de différente nature et permettant de varier les modes et les rythmes d’apprentissage. Le temps scolaire d’antan ne peut plus exister et l’école n’est plus un lieu de culture privilégié. Les médias (traditionnels ou nouveaux) n’ont même plus un rôle d’école parallèle (Porcher 1974) : incorporés dans les modes de vie des élèves, ils ont pénétré dans l’école et ne peuvent plus être ignorés. Bien des enseignants perçoivent ces changements qualitatifs et sont conscients que l’École, tout comme leur profession, connaît un défaut de représentation positive résultant de ce décalage. La plupart d’entre eux savent reconnaître la nécessité d’une évolution des pratiques éducatives vers une plus grande prise en considération des valeurs culturelles des élèves, sans toutefois avoir les moyens de la mettre en œuvre. Ainsi même l’installation d’un ordinateur dans la classe, sensée les aider à accompagner ces mutations, pose parfois plus de problèmes qu’elle n’en résout. Avec les TIC, les pratiques de formation qui déterminent la forme du travail scolaire sont ainsi l’objet d’un questionnement nouveau et urgent. Aujourd’hui dans le système éducatif français, l’équipement informatique des salles de classe s’inscrit dans une logique essentiellement fonctionnelle et techniciste. L’outil est présenté comme une aide à l’enseignement, susceptible d’enrichir l’environnement pédagogique de la classe, et ce quels que soient les disciplines et les niveaux scolaires. C’est donc l’approche intégrée, le modèle de l’intégration globale qui a été finalement choisi. L’informatique n’est plus sensée être l’objet d’un enseignement disciplinaire, mais une compétence transversale à acquérir tout au long de la scolarité. Cependant la focalisation insistante sur la maîtrise technologique des TIC finit parfois par appauvrir la mission de l’École plus qu’elle ne la renouvelle. Si des enseignants peinent encore à utiliser les machines, les élèves eux ont de plus en plus un usage familier des ordinateurs et du réseau. L’usage des technologies ne peut donc plus être une finalité pédagogique car avec l’appropriation des TIC son sens s’étiole peu à peu. Deux forces de proposition pédagogique semblent dès lors pouvoir s’affirmer. S’il est convenu que les médias et les médias électroniques sont bien des instruments pédagogiques (on peut enseigner / apprendre avec les médias et éduquer les élèves « par » les médias), il semble à présent opportun de resituer ces outils comme objets d’enseignement (en étudiant leurs modes de fonctionnement, etc.) et de s’orienter davantage vers une éducation aux médias115. Il apparaît également nécessaire de revenir à une pédagogie du projet en s’interrogeant sur la pertinence réelle des usages en milieu scolaire, en mettant les TIC au service d’autres formes d’enseignement et 115 Approche proposée par le Centre de Liaison de l’Enseignement et des Moyens d’Information (Ministère de l’Education nationale) , crée en 1983 par J. Gonnet. 111 112 d’apprentissage : non plus seulement pour promouvoir l’individualisation mais aussi pour aider à la « socialisation » des élèves, en offrant des possibilités inédites de travailler ensemble, d’apprendre ensemble en communiquant autrement grâce à ces outils. S’il n’est pas attesté que la technologie permette d’apprendre davantage ou mieux, ni même qu’elle mène inévitablement à l’innovation pédagogique (Moeglin 1996 ; Cuban 2001), il est certain qu’elle permet d’apprendre différemment, en utilisant des supports d’un nouveau genre et en mobilisant des méthodes nouvelles. A l’école (donc dans des situations pédagogiques en coprésence), les technologies en réseau autorisent des pratiques nouvelles de communication dans la classe et hors de la classe. Elles facilitent la publication, engagent à la mutualisation des ressources et permettent la mise en oeuvre de nouvelles configurations d’enseignement et d’apprentissage où les méthodes se métissent, empruntant parfois à l’enseignement à distance des outils plus ou moins adaptés. Ainsi, si l’utilisation des TIC favorise le développement de compétences transversales techniques et cognitives et conduit souvent à des décloisonnements disciplinaires intéressants, ces outils permettent aussi d’intégrer aux formules présentielles classiques, des modules d’apprentissage plus individualisés, adaptables en temps et en contenu, en fonction des contextes et des personnalités des élèves. Dès lors on remarque qu’au sein d’un dispositif d’enseignement instrumenté, la relation pédagogique tend à se transformer, à devenir plus horizontale, moins hiérarchique et à susciter davantage d’interactions voire l’émergence d’une pédagogie du « côte à côte ». Désormais le travail à l’école, c’est-à-dire l’acte d’enseignement et l’acte d’apprentissage ont tendance à s’inscrire dans un temps pédagogique plus court et moins durable, selon d’autres modalités organisationnelles, spatiales et temporelles. Les TIC remettent donc en question l’unité d’action, de temps et de lieu de l’enseignement scolaire traditionnel et redéfinissent la distribution des rôles à l’intérieur de la classe. Avec l’usage des réseaux (Internet / Intranet), la position sociale des acteurs de l’école change également. D’une part, l’enseignant est moins isolé, il partage sa classe et devient de plus en plus un animateur ou un tuteur. D’autre part, le groupe classe perd de sa pertinence et se redéfinit temporairement soit en un groupe plus large de « communauté éducative » (lors d’une coopération avec d’autres classes, par exemple), soit en ensembles plus réduits (avec du travail en petits groupes). Ces nouvelles organisations sociales sont susceptibles de permettre aux élèves de travailler autrement en étant davantage acteurs de leur propre apprentissage, en multipliant leurs liens identitaires d’appartenance sociale (Féroc-Dumez, 2005). Médiatisée par les supports numériques, la communication éducative habituellement synchrone lors d’une situation classique de face-à-face - peut ainsi s’enrichir d’une dimension asynchrone supplémentaire (avec l’usage des forums, par exemple). Toutefois, de nombreuses recherches116 montrent que l’usage pédagogique des TIC n’entraînent pas de facto une profonde mutation des processus d’apprentissage et des méthodes d’enseignement (surtout dans les contextes éducatifs de co-présence), mais qu’enseignants et élèves utilisent de plus en plus les outils de communication selon des modes d’enseignement / apprentissage mixtes et variés qu’il apparaît nécessaire d’étudier. Il apparaît donc important de tenter de comprendre comment se développent les nouveaux processus d’apprentissage instrumentés, afin de pouvoir repenser les modèles de formation et les dispositifs pédagogiques intégrant les TIC, et d’adapter ou de créer des outils théoriques et pratiques pertinents pour l’école du XXIème siècle et les nouvelles modalités de son « travail ». 3. Le travail collaboratif instrumenté à l’école : proposition d’outils pour une pratique de formation innovante avec le projet LEAD Dans le domaine de l’éducation, la plupart des recherches sur les activités coopératives médiatisées par l’ordinateur ont tendance à se focaliser sur un modèle archétype de collaboration en ligne correspondant à des contextes d’apprentissage à distance (classe virtuelle, par exemple). Ce modèle relativement limité ne semble pourtant pas le plus approprié au paysage éducatif européen actuel, au sein duquel les situations de formation en présentiel restent les plus fréquentes. Les travaux dont nous aimerions présenter ici un bref aperçu (dans l’attente de résultats plus signifiants) s’inscrivent dans le cadre d’un projet de recherche européen intitulé « LEAD » initié au début de l’année 2006, auquel participent des chercheurs issus de différents pays (France, Italie, Pays-Bas et Royaume-Uni) et d’horizons disciplinaires variés (psychologie, sciences de l’éducation, sciences du langage, communication et informatique). Cette recherche se démarque d’un grand nombre de travaux car elle s’intéresse à des situations d’enseignement en co-présence où les interactants (dans le cas présent il s’agit d’élèves) travaillent ensemble en co-présence, en interagissant d’une manière « multicanale », c’est-à-dire par la combinaison de la communication parlée en face-à-face et la communication écrite (passant par un réseau local, grâce à un groupware). Ce type de situation est de plus en plus fréquent dans le monde de l’entreprise où les participants, placés autour d’une table de réunion devant des ordinateurs individuels, se servent d’outils informatiques (de type forums ou outils de conférences) pour la génération d’idées (brainstorming), l’élaboration de stratégies et la prise de décision. Dans notre cas, il s’agit d’explorer la transposition possible de cette démarche mise en œuvre en entreprise, au monde de l’école. Pour ce projet, l’équipe de recherche européenne s’est ainsi donnée un double objectif. D’une part, il s’agit de parvenir à penser un modèle théorique « intégré » de l’activité coopérative, dont on suppose qu’elle se réalise tout à la fois à travers le canal informatique et l’interaction parlée en face-à-face. D’autre part, il s’agit d’élaborer des outils informatiques et pédagogiques « multicanaux », susceptibles de favoriser le travail coopératif au sein de petits groupes d’élèves dans les classes de l’enseignement primaire et secondaire d’Europe, pour effectuer une variété de tâches scolaires (notamment pour soutenir des activités de débat / argumentation et d’écriture collective de textes). Aujourd’hui, le projet LEAD est dans une phase initiale. Comme l’élaboration des outils nécessite une prise en compte des besoins pédagogiques, les chercheurs de l’équipe procèdent à des premières études de cas en organisant des observations et des expérimentations pédagogiques dans des classes de l’enseignement primaire et secondaire, avec différents outils de communication médiatisée déjà développés117. A partir du recueil d’interactions communicatives de différentes natures - interactions en faceà-face partiellement médiées par l’ordinateur à travers 117 116 Consulter par exemple, le rapport canadien Rescol/Schoolnet, L’Apport des nouvelles technologies de l'information et de la communication (NTIC) à l'apprentissage des élèves du primaire et du secondaire, Université Laval & Université MCGill, Réginald Grégoire Inc., Robert Bracewell, Thérèse Laferrière, août 1996 Disponible sur : http://www.tact.fse.ulaval.ca/fr/html/apport/apport96.html Sur le plan informatique, le projet LEAD s’appuie en partie sur des outils existants comme par exemple, le logiciel DREW (Dialogical Reasoning Educational Web tool) élaboré par l’Ecole des Mines de St Etienne (ARMINES) lors d’un précédent projet européen baptisé SCALE en les faisant évoluer grâce aux résultats des expériences menées dans des écoles des pays participant au projet. Disponible sur : http://drew.emse.fr 112 113 plusieurs canaux textuels (chat, forum) ou des représentations graphiques (grapheur), cette phase exploratoire vise à constituer un corpus primaire de données sémiotiques verbales et non-verbales (discursives, paratextuelles, proxémiques...). Le Centre National de la Recherche Scientifique travaillera essentiellement sur l’élaboration de ces méthodes de recueil, de transcription et d’analyse de corpus intégrant ces interactions communicatives mixtes. Une première étude de cas a déjà été conduite en France par l’équipe du CNRS. Cette étude pilote menée en collège lors de cours d’éducation aux médias s’est organisée en deux temps : d’abord une séance d’observation de pratiques collaboratives existantes (sans utilisation d’outils technologiques) puis une séance d’expérimentation du logiciel DREW pour une tâche de discussion et d’écriture collective en groupe de trois élèves. Hormis les difficultés matérielles liées aux conditions d’utilisation des réseaux informatiques dans les établissements scolaires français (protection et sécurité), l’analyse de ce premier corpus permet de dégager de possibles indicateurs. Ainsi, il apparaît important d’observer le jeu de la distribution des interactions en face-à-face et instrumentées en lien étroit avec les contraintes techniques et l’organisation spatiale des lieux. On s’aperçoit également qu’en phase d’appropriation certains outils peuvent être « détournés » de leur usage attendu. Par exemple, le chat apparaît comme une aide mineure au management de la tâche. Le dialogue développé grâce à cette technologie semble en effet avoir essentiellement une valeur socio-relationnelle, en réalisant principalement une fonction phatique de contact entre les élèves - fonction cependant nécessaire à la co-construction du lien social indispensable à la collaboration. Conclusion Il nous semble d’ores et déjà que la démarche entreprise au sein du projet européen LEAD peut apporter d’importants éléments de réflexion. Sur le plan de l’analyse des interactions, l’analyse comparative des corpus devrait permettre de dégager des indicateurs utiles d’une part pour évaluer la qualité du dialogue assisté par l’ordinateur et d’autre part pour identifier les modalités de la compréhension et de la co-élaboration du savoir que permettent de réaliser la discussion, la collaboration et la résolution de problèmes instrumentées. D’autre façon, la démarche d’analyse linguistique et sémio-contextuelle envisagée semble également autoriser une description des relations qui se construisent entre les différents types d’espaces constitutifs de la discussion (l’espace du problème, celui du dialogue et celui du sens) et permettre de dégager des formes de coopération distinctives, saisissables à travers certaines dimensions de la distribution des rôles (Baker 2002 ; Quignard, Baker, Lund, & Séjourné 2003). Associés à différentes formes de coopération, plusieurs mécanismes d’apprentissage semblent pouvoir être repérés et le rôle que peut jouer l’enseignant au sein de ce dispositif pourra être évaluer. A partir de l’ensemble de ces approches, en restant à l’écoute des besoins et en adoptant une approche pragmatique des contextes éducatifs européens, les chercheurs impliqués dans le projet LEAD envisagent ainsi la construction de modèles analytiques de la collaboration instrumentée en milieu scolaire, utiles pour adapter à l’école des outils technologiques déjà pertinents pour l’entreprise et susceptibles d’aider à la rationalisation et à l’opérationnalisation d’une partie du travail scolaire. Bibliographie Audran, J., « Importance d’un site Web sur la construction d’une identité institutionnelle à l’école primaire », Actes du 3ème congrès AECSE Actualités de la recherche en Education et formation, Bordeaux, 2000. Baker, M.J., « Forms of cooperation in dyadic problem-solving », Revue d'Intelligence Artificielle, 16, N°4-5, 2002, pp. 587-620. Baron, J-L., Bruillard, E. & Lévy J-F., Les Technologies dans la classe : de l’innovation à l’intégration, INRP/EPI, 2000. Bevort, E. & Bréda, I., Les Jeunes et Interne. Représentations, usages et appropriations, Paris, CLEMI, 2001. Chaptal, A., L’Efficacité des technologies éducatives dans l’enseignement scolaire : analyse critique des approches françaises et américaine, Paris, L’Harmattan, 2003. Cuban L., Oversold and underused : Computers in the classroom, Cambridge (Mass. E-U), Harvard University Press, 2001. Féroc-Dumez I., « Les sites Web d’école et les journaux scolaires sur Internet : fonctions et motifs de la publication scolaire en ligne. », Actes du colloque international L’expression lycéenne : enjeux et contenus des journaux produits par les jeunes (Sorbonne, 13 & 14 mai 2005), in Les Cahiers du CREDAM (Centre de recherche sur l’éducation aux médias), n°5, novembre 2005, pp. 145-153. Moeglin P., « Multimédia et éducation. Le démon de la convergence », Cahiers de la Maison de la Recherche, Lille III, 1996. Perrenoud, P., Métier d'élève et sens du travail scolaire, Paris, ESF, 1994, 4e éd. 2000. Porcher, L., L’Ecole parallèle, Paris, Larousse, 1974. Pouzard G. « Pourquoi l’école changera », La revue de l’EPI, 87, Paris, septembre 1997, Paris, p. 71-76. Quignard, M., Baker, M., Lund, K. & Séjourné, A., « Conception d'une situation d'apprentissage médiatisée par ordinateur pour le développement de la compréhension de l'espace du débat », Actes de la conférence EIAH 2003 (Strasbourg, 15, 16, 17 avril 2003), Édités par Desmoulins C., Marquet P. et Bouhineau D., (INRP-ATIEF : http://archiveseiah.univ-lemans.fr/EIAH2003/), 2003, pp. 355-366. 113 114 « Une activité judiciaire sur-mesure ? Le cas des audiences à distance entre la cour d’appel de Paris et les juridictions de Saint-Pierre-et-Miquelon » Laurence Dumoulin GAPP / ENS Cachan [email protected] et Christian Licoppe ENST Paris, [email protected] Qu’est-ce qu’une audience à distance ? Il y a dix ans, personne ne le savait. Même aujourd’hui, l’idée selon laquelle la justice peut être rendue à distance n’est pas commune, ni pour le grand public, ni pour les professionnels du secteur judiciaire. Toutefois, ceux qui ont déjà participé à des audiences à distance ont une petite idée sur la question et sont en mesure d’énoncer des recommandations sur ce qu’il faut faire ou ne pas faire, quelles sont les règles qu’il convient de respecter, règles juridiques mais aussi "bonnes façons de faire" en situation, que ce soit à l’occasion de ces audiences ou bien lors des séances de formation qu’ils animent. Sous cet angle, les audiences à distance peuvent être vues comme une forme judiciaire en émergence, une innovation organisationnelle qu’il est possible d’analyser in the making, à travers ses modes de constitution, ses logiques et ses acteurs. Pour le néophyte, il n’est pas évident de se représenter ce que sont ces audiences dans lesquelles tous les acteurs ne sont pas physiquement présents. Les audiences à distance que nous évoquons ici sont des situations de justice dans lesquelles les acteurs du procès sont répartis en deux sites géographiques différents, reliés entre eux par un dispositif de communication audiovisuelle (la visioconférence) et utilisant tout un ensemble de technologies de communication (téléphone, fax, e-mail) qui permettent la coordination des acteurs et la transmission de documents. La répartition des protagonistes entre les deux sites peut former des configurations variables : le procureur est toujours localisé à Saint-Pierre-et-Miquelon ; les juges et le greffier sont toujours ensemble, le plus souvent à Paris ; quant aux avocats, parties civiles, accusés et victimes, ils peuvent être dans l’un ou l’autre de ces deux lieux, et la palette des distributions possibles est très étendue – de plus en plus même, au fur et à mesure que les acteurs découvrent les usages du dispositif. L’utilisation de la visioconférence à des fins de production judiciaire a été inventée pour régler les problèmes posés par le statut dérogatoire de l’organisation juridictionnelle de l’archipel de Saint-Pierre-et-Miquelon et le faible nombre de magistrats en poste sur place. Un certain nombre d’affaires judiciaires ayant trait à des faits commis sur l’archipel donnent ainsi lieu à des audiences à distance, à raison d’un rythme de croisière d’une vingtaine par an depuis quelques années. Ce qui à bien des égards pourrait être considéré comme un "micro-objet"118 nous apparaît justement comme un excellent cas d’étude pour tenter de comprendre comment naissent de nouvelles formes judiciaires, quels sont les circuits qu’emprunte l’innovation. Par quels processus de cadrage les acteurs s’efforcent-ils de rendre l’innovation acceptable en contexte judiciaire ? Quelle place les textes et les logiques juridiques occupent-ils dans ces processus et finalement comment se nouent légalité, légitimité et réalité dans ces pratiques judiciaires en émergence ? En nous appuyant sur des matériaux de type historique (archives sur les processus de préparation des textes juridiques encadrant les audiences à distance) et ethnographique (principalement entretiens et observations de scènes d’audiences à distance) recueillis dans le cadre d’une recherche collective119, nous montrerons comment la situation 118 En raison de la rareté des pratiques et du volume d’affaires concernées, du peu de publicité fait autour de ces expériences, du caractère pour le moins lointain de Saint-Pierre-et-Miquelon, collectivité territoriale d’outre-mer elle-même méconnue. 119 Ce travail a été réalisé dans le cadre d’une recherche pluridisciplinaire sur « justice et technologies », financée dans le cadre de l’Action concertée incitative « Techniques, Terrains, Théories » du ministère de la Recherche. Nous remercions Jean-Charles Froment, Christian Mouhanna et Jean-Claude Thoenig pour leurs commentaires et leurs critiques. 114 115 spécifique de l’audience est travaillée par le recours à un dispositif technologique c’est-à-dire quels sont les ajustements que produisent les acteurs judiciaires (magistrats, avocats, greffiers…) qui en sont les promoteurs et premiers utilisateurs pour rendre l’exercice du « jugement à distance » acceptable et conforme aux canons du milieu judiciaire. Dans l’espace forcément limité de ce papier, nous n’évoquerons toutefois pas tous les mécanismes et types d’ajustements qui permettent de fonder en légitimité cette nouvelle pratique. Nous nous contenterons de décrire et d’analyser ce qui nous apparaît comme étant le plus spécifique au secteur judiciaire. Dès lors que l’on ne considère pas la justice comme étant exclusivement réglée par les dispositifs juridiques formels (les textes juridiques, dans leur forme législative ou réglementaire) mais que l’on n’évacue pas non plus le rôle particulièrement important de la référence juridique qui « imprègne » de toute part ce monde, on s’autorise à voir comment la dynamique complexe de l’innovation, de sa production, de son institutionnalisation et de sa légitimation se met en place. En l’occurrence, les dispositifs formels sont des ressources pour les acteurs de l’innovation qui peuvent s’y référer pour asseoir leurs pratiques mais aussi pour laisser penser à une sorte d’imperméabilité de la justice à ce que pourraient être des effets pervers, perturbants, envahissants des technologies. En milieu judiciaire peut-être plus qu’ailleurs, innover c’est surtout rassurer ses partenaires sur l’innocuité de ce qui est entrepris. De ce point de vue, la référence à des dispositifs formels fournit des ressources non négligeables : le droit est invoqué et vécu par certains comme un antidote à la technologie. Mais ce rôle des textes juridiques doit être relativisé lorsque les acteurs sont en situation d’audience à distance. Tous les comportements des acteurs judiciaires ne sont pas constamment réglés par le droit, loin s’en faut ! Localement et situationnellement, les acteurs qui pratiquent les audiences à distance s’ajustent les uns aux autres, à travers des comportements verbaux et non verbaux, ils stabilisent la situation et les cadres de l’activité, en établissant des compromis sur des façons de faire acceptables dans le contexte judiciaire. Regarder de près quelques uns de ces ajustements nous permettra de montrer qu’à travers leurs pratiques ordinaires, ces acteurs produisent des normes judiciaires d’action. I / Le droit, un pouvoir d’antidote aux effets pervers de la technologie ? Le secteur judiciaire peut être considéré comme le monde du droit par excellence. « Instituée par le droit, juridiquement habilitée à mettre en œuvre le droit et, par conséquent à en produire », la fonction judiciaire « est de part en part imprégnée par le droit. » (Lévy et Zauberman, 1997, p.137)120. Comment donc se forment de nouvelles pratiques judiciaires comme celle de l’audience à distance, comment sont-elles organisées, instituées et quel rôle les dispositifs juridiques formels et les professionnels du droit jouent-ils dans ces processus ? Tout d’abord, on peut avancer assez classiquement que la production de textes juridiques formels apparaît comme un des dispositifs privilégiés de cadrage de l’innovation judiciaire, au sens d’un certain cadrage du monde des possibles et des permis. Les textes adoptés121 et publiés au Journal officiel qui organisent l’utilisation de la visioconférence dans les audiences des juridictions de Saint-Pierre-et-Miquelon offrent la possibilité de réaliser de telles audiences et indiquent quels 120 Cette citation concerne la fonction de police judiciaire mais les auteurs soulignent eux-mêmes qu’elle est applicable à d’autres fonctions régaliennes, comme la justice par exemple. 121 sont les principes qui doivent alors s’appliquer. En ce sens, ces textes proposent un cadre juridique, c’est-à-dire une série de règles censées structurer ou plus exactement orienter les pratiques des acteurs. Le droit n’est pas vu ici comme un ensemble d’injonctions contraignantes et sanctionnées qui susciterait une application stricte mais bien plutôt comme des dispositions dont les acteurs judiciaires tiennent compte et par rapport auxquelles ils orientent leurs pratiques (Lascoumes et Serverin, 1985). Ils peuvent s’écarter volontairement de la règle juridique, s’en distancier, ne pas l’appliquer, mais ils la connaissent et se situent par rapport à elle. Et ce d’autant plus que certains de ceux qui mettent en œuvre les audiences à distance ont participé au processus de préparation des textes. Ainsi en est-il de l’interdiction faite par le décret d’enregistrer les débats judiciaires qui ont lieu par visioconférence (Art. R. 952-4 al. 2 du COJ) qui est connue et respectée alors même que les moyens techniques permettraient d’effectuer l’enregistrement ou bien de la question du cryptage dont le même technicien nous explique qu’il est obligatoire mais qu’il est impossible techniquement à mettre en place actuellement, compte tenu des types de cryptage requis. Mais ensuite et plus encore, le droit est présenté comme ce qui protègerait les échanges judiciaires de possibles débordements provoqués par l’usage des technologies. Les acteurs mettent en avant l’idée d’une certaine exceptionnalité de la justice, laquelle ne serait pas comparable à d’autres espaces sociaux d’utilisation des technologies (Commaille, 1994). Le débat judiciaire serait par nature différent d’autres situations d’interactions : l’un le distingue d’une réunion 122, un autre d’une conversation, un troisième d’un débat télévisé 123. « [Le décalage d’une seconde entre l’émission et la réception] n’est pas gênant on est dans le débat juridique, on n’est pas dans des débats polémiques comme à la télé, on pose une question et on laisse un temps raisonnable aux personnes pour répondre. »124 Le caractère très ritualisé, très codifié du procès empêcherait ainsi que le dispositif technologique ait une prise sur le contenu du processus judiciaire lui-même ou qu’il agisse comme un facteur de modification des tours de parole. « On ne se bouscule pas. Tout le monde ne parle pas en même temps, ce qui serait une difficulté. Les choses sont très ordonnées et donc quand on a une question à poser, le président nous donne la parole, on intervient, tout ça c’est un jeu un peu entre nous, presque une sorte de convention, donc on sait s’adapter. »125. Quand on évoque la possibilité que les audiences à distance soient plus collaboratives que les audiences en co-présence, certains de nos interlocuteurs rejettent cette interprétation et invoquent l’art judiciaire comme rempart aux risques générés par l’usage de la visioconférence : « Ces risques sont mitigés par un art de faire judiciaire, avec des magistrats habitués à la mise en forme de questions intelligibles. »126 Nos observations d’audiences à distance nous ont bien montré que les chevauchements dans les prises de parole sont 122 « - C’est d’ailleurs ce que permet la visioconférence, dans la mesure où elle permet d’éviter les déplacements, et où il n’y a pas de perte de qualité, on l’a constaté. Ce n’est pas comme les réunions par visio, qui posent des problèmes. - Question de l’enquêteur : Pourquoi, en quoi est-ce différent ? - Pour la comparution, la visioconférence ce n’est pas un pb mais pour les réunions, j’ai eu 1 ou 2 expériences difficiles, peut-être parce que c’était pas bien fait mais quand même à partir du moment où il y a 1 ou 2 personnes ailleurs, c’est difficile. », Entretien avec un magistrat, ancien premier président de la Cour d’appel de Paris, 13 juillet 2004. 123 « Mais là, c’est pas comme une conversation », entretien post-audience avec un assesseur, magistrat à la Cour d’appel de Paris, 22 mars 2004. 124 Entretien post-audience avec le président du tribunal, magistrat à la Cour d’appel de Paris, 22 mars 2004. 125 Entretien avec un conseiller à la Cour d’appel de Paris, 21 mai 2006. 126 Entretien post-audience avec le président du tribunal, magistrat à la Cour d’appel de Paris, 22 mars 2004. 115 116 nombreux et qu’il y a tout un apprentissage de ce nouvel outil, y compris à l’intérieur du débat judiciaire. Le technicien informatique qui gère la visioconférence, et qui n’est pas juriste, explique d’ailleurs qu’il « a beaucoup de mal à ce que les gens attendent d’être à l’image pour prendre la parole, même si on la leur a donné, il y a un temps de latence pour que la caméra zoome et mette au point ». Il doit faire « les gros yeux pour que les gens se régulent, briefer les nouveaux pour qu’ils se contrôlent, ceux qui sont distants reçoivent de rares rappels à l’ordre du président »127. La description du débat judiciaire comme étant très réglé, très maîtrisé à la fois par les textes de droit et par les professionnels de justice, la référence aux institutions juridiques comme antidotes qui protégeaient l’interaction judiciaire de « débordements » introduits par la technologie, n’est donc pas sans rappeler ce que Pierre Bourdieu a qualifié d’illusio c’est-à-dire le pouvoir de croyance suscité par le droit dans sa neutralité sociale et politique. (Bourdieu, 1991, 1986). Dans cette sociologie, le droit – appréhendé surtout à travers le cas emblématique de la codification – participe aux mécanismes d’exercice de la violence symbolique et de domination. La neutralité, l’universalité juridiques à travers lesquelles il s’exprime permettent de dissimuler les rapports de force qui pourtant seraient à son fondement. C’est la capacité du droit à générer à travers ses formes propres (la rhétorique et la technique juridiques) une croyance dans sa neutralité, dans sa distance au politique qui expliquerait son rôle dans le maintien d’un ordre établi. Les juristes seraient « les gardiens de cette hypocrisie collective » dont ils seraient eux-mêmes les premières victimes (Bourdieu, 1991). De façon inversée mais complémentaire, les innovateurs jouent profil bas et tentent de ne pas survaloriser la technologie, de montrer qu’elle est subordonnée, soumise aux grands principes de droit, mais que c’est par elle que les exigences des grands principes seront satisfaites. « On essaie d’être le moins révolutionnaire possible quand on veut faire passer des choses comme ça. On n’est pas là pour faire de l’effet. On est là pour montrer qu’on est dans l’orthodoxie, à la rigueur, qu’on est encore plus dans l’orthodoxie. Il faut bien montrer qu’utiliser des technologies nouvelles, c’est nous permettre de respecter les principes éternels, enfin fondamentaux. »128 La question n’est pas de savoir si les magistrats rencontrés adhèrent à l’idée selon laquelle le droit et les institutions judiciaires seraient une sorte d’assurance tous risques contre une possible dégénérescence du rituel judiciaire travaillé par les technologies. Toutefois, dans la rhétorique relativement classique de la transparence de la technologie (on change les outils, les méthodes mais rien ne bouge sur le fond), cette référence aux dispositifs formels et à la croyance dans la spécificité du monde judiciaire fonctionne comme ressource argumentative pour les innovateurs et vise à faire tomber les réticences à l’innovation. En effet, la justice est un milieu dans lequel il est relativement facile pour les acteurs de tenter de produire du changement129. Les juridictions bénéficient d’une grande autonomie et sont peu contraintes par l’administration centrale. Les hiérarchies locales ont peu de prise sur les magistrats du siège notamment parce que le principe d’indépendance, qui est au cœur de leur identité 127 Entretien technicien visioconférence, Cour d’appel de Paris, 22 mars 2004. 128 Entretien avec un magistrat qui a été rédacteur au bureau AB1 de la DSJ de 1996 à 1998, et qui a rédigé l’ordonnance de 1998 et le décret de 2001, Paris, 14 juin 2006. C’est nous qui soulignons. 129 La question de savoir s’ils y arrivent en est une autre (Ackermann et Bastard, 1993). professionnelle, pénètre l’ensemble du fonctionnement judiciaire y compris dans ses aspects organisationnels. Comme le disent bien Ackermann et Bastard, « L’activité de justice repose essentiellement sur le travail des juges, des professionnels indépendants et soucieux de préserver la liberté d’organisation de leur travail » (Ackermann et Bastard, 1993, p.16 ; c’est nous qui soulignons). Au final, la justice est un milieu relativement peu intégré, dans lequel les acteurs disposent de marges de manœuvre importantes, qu’ils s’efforcent de préserver. Pour autant, comme ce milieu est aussi ressenti par ceux qui le vivent comme étant marqué par le poids de la tradition, par une réticence au changement voire par un certain immobilisme, la question de la justification, de l’argumentation autour d’entreprises innovantes est véritablement centrale et probablement décisive dans le processus de construction de l’innovation. Ici certainement plus qu’ailleurs, les innovateurs savent bien qu’ils auront à se justifier et qu’il leur faudra se prémunir contre les possibles critiques. Invoquer la « force du droit » mais aussi la force des savoir-faire des professionnels du droit qui développent un « art judiciaire » à travers toute une série de pratiques stabilisées, c’est convaincre les juristes sceptiques en allant "sur leur terrain", en utilisant l’argument qui est susceptible de fédérer ces acteurs dans ce qui est le plus constitutif de leur identité professionnelle, en l’occurrence un certain rapport au droit. Ce qui nous semble marquer le rapport de la justice à l’innovation – s’agissant en l’occurrence des audiences à distance –, c’est donc moins le poids du droit qu’un certain usage, indirect, détourné, de la référence au droit comme forme établie capable de protéger son monde, de le mettre à l’abri de tout débordement ou décadrage possiblement généré par l’émergence d’une nouvelle situation d’exercice de l’activité. II / Se mettre d’accord, s’arranger et s’ajuster autour des audiences à distance Les textes juridiques qui organisent les audiences à distance sont des dispositifs de cadrage, parce qu’ils cadrent juridiquement cette nouvelle pratique mais aussi parce qu’au cours de leur processus de fabrique, ils génèrent des débats, des controverses qui ont pour effet d’amener les acteurs de l’innovation à se réajuster, à positionner autrement l’innovation, à la recadrer symboliquement en en accentuant certaines caractéristiques (le caractère exceptionnel de l’utilisation de la visioconférence, justifié par le cas particulier de Saint-Pierre-et-Miquelon) aux dépends d’autres (les perspectives de généralisation du dispositif dans la justice française)… Le processus de production des textes juridiques participe donc pleinement, lui aussi, de la définition de ce que sont les audiences à distance. Mais même considérés sous ces deux aspects, les textes juridiques ne règlent pas tout ou plutôt ne permettent pas tous les ajustements nécessaires à la réalisation des audiences à distance. Les innovations supposent en effet que les acteurs développent de nouvelles habitudes, de nouvelles routines, qu’ils apprennent à faire individuellement et ensemble ce qu’ils n’ont jamais fait. Les possibilités mais aussi les limites inhérentes à l’utilisation de la visioconférence renouvellent les questions supposant un arbitrage commun. C’est en effet toute la chaîne des actions et interactions en amont, en aval et dans le procès qui est réinterrogée par le fait que les audiences aient lieu à distance. Des questions comme celle du dépôt et de la transmission des pièces du dossier, de la signature du procèsverbal de l’audience se posent à nouveau alors qu’elles avaient été réglées, rodées pour les audiences en co-présence. L’utilisation de la visioconférence réinterroge donc les acteurs sur leurs pratiques, là où ils avaient intégré des habitudes, des 116 117 façons de faire. Mais plus encore, les audiences à distance posent des problèmes pratiques inédits comme celui de savoir quelles images seront transmises : qui filme, comment, avec quels cadrages (au sens photographique cette fois) ? En effet, là où la co-présence permet à chacun de choisir là où il veut faire porter son regard, la médiation par la visioconférence suppose la définition d’un ou deux points de vue (par des vignettes incrustées à l’écran) qui s’imposent ensuite à tous. Inversement, là où la co-présence contraint la distance du regard (les places étant assignées dans la salle d’audience et les acteurs du procès ne se déplaçant pas), l’utilisation d’une caméra permet d’effectuer des zooms c’est-à-dire de se rapprocher artificiellement des personnes qui prennent la parole pour mieux les voir. Nous voudrions ici nous attarder sur cet exemple, particulièrement intéressant parce qu’il est inhérent à l’utilisation d’un système audiovisuel de transmission des images : comment et autour de quelles solutions les acteurs parviennent-ils à se mettre d’accord ou pas sur le cadrage qui doit être retenu ? Les textes juridiques ont apporté une réponse de principe à la question du cadrage indiquant que « les moyens utilisés doivent assurer une retransmission fidèle, loyale et confidentielle à l’égard des tiers »130. Mais pour les acteurs qui ont mis en œuvre les premières audiences à distance alors même que ce texte n’était pas encore publié (les premiers tests de visio ont eu lieu en 1999 c’est-à-dire deux ans avant), il convenait de produire en situation des ajustements permettant de définir une pratique consensuelle. Comment cadrer les parties au procès, par quel type de plan, accepter de zoomer ou de ne pas zoomer sont les points saillants autour desquels le débats s’est concentré. Il est intéressant de voir que les questions se sont posées à deux niveaux : quelle image donner du tribunal (généralement composé de magistrats professionnels, une collégialité ou un juge unique) d’une part et quelle image donner des parties civiles, accusés et victimes (à destination du tribunal le plus souvent) d’autre part ? Il est devenu d’usage assez vite semble-t-il et sans que l’on retrouve trace de débat sur ce point de réaliser un plan fixe du tribunal. C’est d’ailleurs maintenant une pratique qui semble institutionnalisée : toutes les audiences auxquelles nous avons assisté entre 2004 et 2006 se sont réalisées selon ce modèle que le tribunal soit situé à Paris ou à Saint-Pierre. Comme le dit un magistrat qui a participé aux débuts de la visioconférence : « Ce plan fixe, c’est un peu…, on ne fait que transcrire l’aspect un peu rigide ou solennel, si vous voulez, d’une composition, qui se veut un peu…, non pas détachée des contingences mais surtout sans expression, sans expression de parti pris, sans expression de préjugés. Le plan fixe représente ce qui ne bouge pas. L’image que l’on veut donner, c’est une image neutre. C’est cette image-là que l’on donne. »131 Il est arrivé, lorsqu’un magistrat gérait seul l’outil sans qu’un technicien ne soit là, que le cadrage fixe soit effectué de très loin de telle sorte que l’on voyait un plan très large du juge et de son greffier, apparaissant en entier, au centre de l’image mais n’occupant qu’un tiers de l’écran. Aucun détail des visages mais même de la direction des regards n’était perceptible pour les personnes du site distant. Par ailleurs, si les avocats ont pu demander un recadrage de l’image projetée du tribunal, c’est seulement lorsqu’un des personnage n’apparaissait pas à l’écran ou bien qu’il était coupé. Mais une 130 Art. 2 du décret n° 2001-431 du 18 mai 2001 portant application de l’ordonnance n°98-729 du 20 août 1998 relative à l’organisation juridictionnelle dans la collectivité territoriale de Saint Pierre et Miquelon et créant l’article R. 952-4 du COJ. 131 Entretien avec un conseiller à la Cour d’appel de Paris, 21 mai 2006. fois le cadre ad hoc mis en place, ils ne sollicitent jamais de voir le tribunal de plus près. En revanche, pour le cadrage des personnes qui sont sur le site distant et qui s’adressent au tribunal, l’enjeu de qui va définir le cadrage est immédiatement apparu. Pour le premier président de la cour d’appel de Paris de l’époque, qui était moteur dans ce projet d’utilisation de la visioconférence, un des principaux soucis « c’était la question de l’autonomie du président. Il voulait savoir comment faire, pour utiliser la console, cadrer… Il ne voulait pas que le président de l’audience dépende d’un technicien et du cadrage qu’il pourrait faire »132. « En interne, entre magistrats, il n’y a pas eu de règles formulées, seulement l’autonomie du Président. On considérait que le cadrage faisait partie de la police d’audience. »133 Mais en externe, la question a été âprement discutée entre les magistrats, les avocats qui participaient aux premières visioaudiences et le technicien qui les administrait. Ce technicien qui depuis 1998 s’occupe des visioconférences entre Paris et Saint-Pierre nous raconte ainsi son apprentissage et l’apprentissage collectif qui ont eu lieu lors des premières expérimentations. Alors qu’il « tentait de faire de la belle image, de la réalisation cinématographique », il lui a fallu apprendre à intervenir le moins possible « pour ne pas orienter le débat » ni « manipuler » ou « orienter » car « c’est un des problèmes, un des dangers avec ce genre de technologie ». C’est finalement à lui qu’il revient d’incarner une posture d’extériorité, de faire « un effort de neutralité » et de résister aux demandes des magistrats. Ceux-ci étaient en effet favorables à des zooms permettant de mieux voir les expressions, les réactions des individus alors que les avocats avaient des positions qui variaient en fonction de l’intérêt de leurs clients. « Les magistrats souhaiteraient être plus prêts, l’avocat peut souhaiter être plus loin ou plus près suivant si son client est innocent ou non ». Dans ses conditions, c’est autour du principe du respect des conditions habituelles du procès en salle d’audience que les magistrats et les avocats impliqués ont trouvé un consensus : « le deal s’est fait autour de la tradition de tenue d’audience, mais c’est quasi institutionnel, on bouscule suffisamment avec l’outil sans changer encore la manière de tenir une audience »134. « Il faut que l’on reste dans l’ordre des perceptions ordinaires. Ne pas accentuer quelque chose qui n’est pas juste, avoir l’image la plus fidèle possible sans aucun effet artistique. Il est important d’avoir la possibilité de voir tout le monde, ses collègues, le procureur… »135 Ainsi ont-ils opté pour un plan américain, fixe, « plus proche de la distance d’audience ». « C’est le plus proche de la vision dans une salle d’audience, 5 à 7 mètres entre les interlocuteurs et on simule cette position. […] Cela permet de ne pas être plein cadre, de mi-hauteur des cuisses à 20 cm au dessus de la tête on voit sa gestuelle et assez de détail, à l’inverse il n’y a pas de gros plan sur la dilatation des pupilles. Nous travaillons en 380X240 points, l’équivalent du VHS, trop loin, on risque de perdre des détails, de lisser les expressions du visage ». « Le consensus sur le cadrage s’est fait assez vite, depuis 2000-2001 » après une phase d’ajustements mutuels dans laquelle ils avaient une fois « frôlé l’esclandre ». Mais il faut préciser que cet arrangement a été rendu possible par la 132 Entretien avec un ancien responsable du SAR de la Cour d’appel de Paris, 21 décembre 2004. 133 Entretien avec un ancien responsable du SAR de la Cour d’appel de Paris, 21 décembre 2004. 134 Entretien technicien visioconférence, Cour d’appel de Paris, 22 mars 2004. les expressions et phrases entre guillemets qui suivent sont issues de ce même entretien sauf mention contraire. 135 Entretien post-audience avec le président du tribunal, magistrat à la Cour d’appel de Paris, 22 mars 2004. 117 118 situation particulière de Saint-Pierre-et-Miquelon que l’on peut résumer par l’existence d’un cercle d’interconnaissances constitué des habitués de l’archipel (les magistrats et agréés en poste à Saint-Pierre, quelques magistrats parisiens ainsi que les deux cabinets d’avocats parisiens qui ont des cabinets secondaires à Saint-Pierre) et la convergence de leurs intérêts à ce que la visioconférence marche bien. Comme le disent les avocats, « c’était une sorte de gentleman’s agreement. »136 « Il y avait un consensus général entre avocats et magistrats pour tout faire et avancer dans le cadre de la visioconférence. »137 Les arrangements entre acteurs impliqués ne se sont pas limités à la question du cadrage mais celle-ci montre bien la diversité des processus d’élaboration des normes judiciaires et aussi leur fragilité. En effet si le groupe des innovateurs du premier cercle qui a tricoté cet arrangement a tenté de l’institutionnaliser, les observations réalisées jusque-là nous amènent à constater la difficulté à établir une convention stable dans le temps. Dès lors que la visioconférence est utilisée par d’autres acteurs qui n’ont pas participé à ce processus et au tricotage de l’arrangement, dès lors que les acteurs du premier cercle ne sont pas physiquement là pour réaffirmer ces principes ou pour les appliquer concrètement, de nouveaux usages tendent à se développer qui génèrent en situation des ajustements différenciés. Ainsi les recadrages et le zoom ont-ils pu être utilisés récemment et massivement dans une audience138, la console étant manipulée par le procureur… En tout état de cause, cette question de la maîtrise du cadrage fait apparaître la réflexivité et la gestion des cadres comme une dimension supplémentaire dans l’audience à distance. Dimension supplémentaire qui appelle des compétences et des réflexes attentionnels nouveaux de la part des acteurs judiciaires, en particulier du magistrat qui préside l’audience. Il lui faut en effet accomplir tout ce qui relève de la conduite d’une audience et gérer en plus des cadres via la manipulation de la télécommande, mais aussi via le contrôle de ce qui apparaît à l’écran, qu’il s’agisse de sa propre image ou de celle des interlocuteurs. Nombreux sont ceux qui soulignent la difficulté, sur un plan mental et cognitif, que représente la manipulation simultanée de cet outil avec la conduite des débats et la concentration qu’elle exige : « Le président d’audience vient pour œuvrer, or il n’est pas là pour faire du cadrage, c’est impossible, parce qu’on doit être focalisé sur quelqu’un. Regarder autour c’est instinctuel : quand vous êtes en présence physique, c’est l’instinct, vous ne vous posez pas ces questions, vous ne vous tracassez pas, le cerveau est toujours en veille, vous avez une vision périphérique. On ne peut pas être sûr d’où cela va réagir, du petit mot qui va échapper, la possibilité de recadrer ne suffit pas. […] Il faudrait que le président ait complètement intégré le dispositif, qu’il soit parfaitement entraîné, pour faire les gestes (cadrage / recadrage) sans y penser, en parlant. »139 ; « C’était trop, à mon niveau, trop compliqué à penser pour que je puisse laisser une place à la visioconférence et c’est la première chose que j’ai sacrifiée effectivement. Dieu merci je m’étais calé sur une vision à peu près globale de la salle, mais j’aurais pu tout autant m’oublier sur un gros plan du procureur. Ça m’est totalement sorti de la tête, mais totalement. Je n’ai pas simplement dit : « Ça ira bien », je n’ai plus pensé [à la visioconférence et à la nécessité de faire des recadrages en fonction de qui parlait]».140 C’est ce type de difficulté mais aussi les usages de plus en plus étendus de la visioconférence (provoquant des configurations très variées avec le juge tantôt à Paris, tantôt à Saint-Pierre, les avocats aux côtés ou à distance de leurs clients…) ainsi que les contraintes matérielles liés à l’installation des matériels de visioconférence (l’écran placé sur un côté, peu visible du président de l’audience lorsqu’il est à Saint-Pierre, l’incapacité du greffier saint-pierrais vu où il est assis d’actionner la télécommande…) qui peuvent expliquer qu’en l’absence de technicien, les acteurs de l’audience aient tendance soient à oublier le dispositif et à ne plus y toucher sauf quand ils sont rappelés à l’ordre par le site distant qui demande un recadrage (un avocat demandant s’il peut voir son client pendant l’instruction à l’audience car il ne le voit que de profil141), soit de confier la maîtrise des cadres à celui qui, sur le site distant du tribunal, est le moins actif pendant l’audience (le procureur en l’occurrence dans un des cas observés142). 136 Entretien avec un avocat intervenant régulièrement à Saint Pierre et Miquelon, Paris, 4 octobre 2004. 140 137 Entretien avec un avocat intervenant régulièrement à Saint Pierre et Miquelon, Paris, 28 juin 2004. 141 138 Audience correctionnelle du TPI, observée depuis la salle de visioconférence du Palais de justice de Paris, 22 mai 2006. 142 139 143 Entretien avec un magistrat ayant présidé des audiences à distance, TGI de Paris, 9 septembre 2004. Cet exemple du cadrage donne à voir la place que revêtent les ajustements et arrangements dans le contexte judiciaire de Saint-Pierre. Comme le dit un avocat, « les relations sont tellement consensuelles à Saint-Pierre que l’on s’est toujours arrangés ; il y a une telle entente, mais pas une connivence car chacun garde ses intérêts, qu’on discute et qu’on s’arrange toujours. Parce que si un bloque, c’est tout le système qui est bloqué.»143 Ces arrangements montrent bien que l’activité judiciaire n’est pas strictement juridique au sens où elle consisterait en l’application de normes juridiques générales à des cas particuliers ou bien au sens où il y aurait une rupture entre production de règles juridiques d’une part et production de règles judiciaires d’autres part. L’activité de justice est une activité sociale dans laquelle les professionnels du droit (avocats, magistrats, greffiers…) jouent un rôle déterminant. Ils élaborent au fil de leurs pratiques, des normes judiciaires d’action qui ne sont ni la conformation à des règles juridiques pures ni l’affranchissement de ces règles. Ces normes judiciaires d’action sont des dispositifs de cadrage de la situation. Elles procèdent d’arrangements qui s’établissent par des jeux entre acteurs à différentes échelles (acteurs de l’administration centrale, acteurs locaux) qui sécurisent le contexte de l’échange. Les textes juridiques en font bien entendu partie mais en dynamique avec bien d’autres registres d’action. La référence au droit – ressource particulièrement valorisée (à la fois sous la forme de références à des textes juridiques, de pratiques faisant jurisprudence, de raisonnements juridiques comme le syllogisme) – est toujours présente même si c’est à des fins de justification, d’argumentation. Le contexte judiciaire de l’outre-mer ainsi que la situation d’innovation permettent de rendre plus saillants ce quotidien de la justice fait d’arbitrages, de routines, d’ajustements et d’arrangements à l’échelle individuelle et collective. Ces arrangements ne sont ni des « passe-droit » (Bourdieu, ) au sens où des largesses indues relevant d’un arbitraire d’interprétation ou d’affranchissement de la règle juridique écrite seraient accordées aux uns ou aux autres, ni des passes du droit (Lascoumes, 1996) au sens où des acteurs judiciaires exploiteraient les passages secrets du droit, les dédales dont ils Debriefing d’une audience correctionnelle à distance, avec un juge du TPI, Saint-Pierre-et-Miquelon, 17 mai 2006. Audience correctionnelle du TPI avec plaidoiries à distance, observée depuis la salle d’audience du Palais de justice de Saint-Pierre-et-Miquelon, 16 mai 2006. Audience correctionnelle du TPI, observée depuis la salle de visioconférence du Palais de justice de Paris, 22 mai 2006. Entretien avec un avocat intervenant régulièrement à Saint Pierre et Miquelon, Paris, 28 juin 2004. 118 119 sont familiers. Ce sont plutôt des ajustements ou des arrangements locaux et transversaux qui s’établissent entre professionnels (les justiciables restent quand même assez en retrait de tout ce processus), en continuité avec l’opération de production de cadres juridiques. Les liens entre les deux sont des liens de type cognitif, argumentatif mais aussi relationnels car certains acteurs font le lien entre ces différentes scènes de production de normes. En l’occurrence, il semble que dans le cas qui nous intéresse, le technicien informatique présent depuis 1998 – il a donc participé à une grande partie de la période de genèse et d’institutionnalisation des audiences à distance – soit un acteur clef, à l’interface de ces différentes scènes. En somme, on peut dire que la production de nouvelles normes d’action répondant aux questions "qu’est-ce qu’une audience à distance ?" et "comment procéder dans ce type de situation judiciaire relativement inconnue ? " procède d’un processus de fabrique de normes juridiques explicites via des dispositifs formels que prolongent, actualisent mais parfois contredisent toute une série d’arrangements et d’ajustements, tacites et explicites, verbaux et non verbaux, qui visent à apprivoiser un nouvel espace, à stabiliser une situation, à construire des échanges dans leur contexte. Indications bibliographiques : Ackermann W. et Bastard B. (1993), Innovation et gestion dans l’institution judiciaire, Paris, LGDJ, coll. Droit et société. Bourdieu P. (1986), « La force du droit. Eléments pour une sociologie du champ juridique », Actes de la recherche en sciences sociales, 64. Bourdieu P. (1991), « Les juristes, gardiens de l’hypocrisie collective », in Chazel F. et Commaille J., Normes juridiques et régulation sociale, Paris, LGDJ. Commaille J. (1994), L’esprit sociologique des lois, Paris, Puf. Lascoumes P. (1996), « Des « passe-droit » aux passes du droit. La mise en œuvre socio-juridique de l’action publique », Droit et société, 32, p.51-73. Lascoumes P. et Serverin E. (1985), « Le droit comme activité sociale », Droit et société, 8, p.165-186. Lévy R. et Zauberman R. (1997), « Des normes juridiques aux pratiques professionnelles : ressources et contraintes dans l’activité de police judiciaire », in Robert P., Soubiran-Paillet F. et Kerchove M. (dir.), Normes, normes juridiques, normes pénales, Paris, L’Harmattan, t.2, p.137-164. Roussel V. (2004), « Le droit et ses formes. Eléments de discussion de la sociologie du droit de Pierre Bourdieu », Droit et société, 56/57, p.41-56. Le vote électronique en France : opaque & invérifiable Chantal Enguehard, LINA, Université de Nantes, France [email protected] Introduction Cet article se limite au vote politique (élections de représentants, référendum) et ne traite donc pas des autres types d'élections (élections professionnelles, étudiantes, etc.). L'utilisation de machines à voter dans la procédure de vote en France est très récente. Elle n'a pas fait l'objet d'une information auprès des citoyens au niveau national144 et encore moins de débats. Pourtant, l'introduction de cette technologie modifie profondément le procédé par lequel le peuple délègue son pouvoir aux élus qui le représentent. Il faut souligner que l'utilisation de machines à voter peut participer à l'amélioration de la procédure de vote en permettant, par exemple, à tous les candidats d'être effectivement présentés aux électeurs, ce qui n'est pas le cas actuellement puisque certains "petits candidats" ne peuvent remettre des bulletins à leur nom dans tous les bureaux de vote. Mais les machines à voter représentent également un marché émergent, au développement prometteur, sur lequel se pressent de nombreuses entreprises désireuses d'équiper nos bureaux de vote. Il s'agit d'examiner comment s'articulent trois réalités du vote électronique : le discours marchand des entreprises, les textes issus du monde politique et les exigences de sécurité informatique que doivent remplir ces dispositifs électroniques. I – Évolution de la procédure de vote en France 1 – Les lois L'article 3 de la Constitution de la République Française 144 Le site du Ministère de l'Intérieur ne présente que les élections selon la procédure traditionnelle http://www.interieur.gouv.fr/rubriques/ (cliquer sur "les élections" dans le menu "A votre service") (consulté le 16 mai 2006) de 1958 précise : « La souveraineté nationale appartient au peuple qui l'exerce par ses représentants et par la voie du référendum. » tandis que l'article 2 rappelle le principe de la République Française : « gouvernement du peuple, par le peuple et pour le peuple » [Conseil constitutionnel 1958]. Les élections représentent le transfert de la souveraineté du peuple à ses représentants, il est donc essentiel que le processus de désignation des représentants (les élections politiques) soit transparent et honnête, comme le précise le code électoral145. Un décret (nº 64-1086 du 27 octobre 1964) puis 3 lois (nº 88-1262 du 30 décembre 1988 art. 3, 4 et 5, nº 2004-1343 du 9 décembre 2004 art. 14 1º, nº 2005-102 du 11 février 2005 art. 72) fixent le cadre légal du vote à l'aide machines à voter en France [Légifrance 2005]. Celui-ci est réservé aux communes de plus de 3500 habitants. Il doit se dérouler sur une machine d'un modèle agréé par arrêté du ministre de l'Intérieur et doit vérifier huit critères que l'on peut qualifier de bons sens commun (le vote doit se dérouler dans un isoloir, doit être possible pour les personnes handicapées, doit permettre le vote blanc, etc.). 2 - Le vote a– vote électronique Le vote électronique désigne trois types de systèmes électroniques : les machines à voter, le vote par internet et les kiosques électroniques.Les machines à voter enregistrent les votes des électeurs pendant le scrutin puis les additionnent lors du dépouillement. Le vote d'un citoyen se déroule ainsi : 145 Le code électoral énonce cinq critères que doit respecter une élection : transparence, confidentialité, anonymat, sincérité (le bulletin dans l'urne est-il celui que j'ai choisi ?sera-t-il compté ?), unicité (un vote par personne) 119 120 le citoyen entre dans l'isoloir il consulte les choix présentés sur l'écran il choisit en pressant un bouton son choix est affiché sur l'écran il confirme son choix il sort de l'isoloir il émarge. Nous remarquons qu'à aucun moment l'électeur ne peut vérifier que son vote a été effectivement bien noté. Trois modèles de machines à voter ont été agrées par le Ministère de l'Intérieur : la version "2.07" de la machine à voter de la société NEDAP, le modèle "iVotronic" de la société ES&S146 Datamatique et le modèle "Point & Vote" de la société Indra Sistemas SA [Intérieur 01]. Le vote par Internet a pour objectif d'autoriser le vote à l'aide de n'importe quel ordinateur connecté à Internet. La procédure comprend l'authentification de l'électeur, le vote luimême, et l'émargement. Les kiosques électroniques sont des terminaux placés dans les bureaux de vote et reliés à une machine centrale (serveur). Ils se chargent de l'authentification, de l'émargement et du vote, les résultats sont transmis au serveur pour le dépouillement. Cet article traite de problèmes qui sont communs à ces trois dispositifs mais ne détaille pas les spécificités du vote par Internet ou à l'aide de kiosques électroniques. b – vote traditionnel avec bulletin papier La procédure actuelle de vote, qui utilise des bulletins en papier, n'utilise aucun dispositif électronique. le citoyen prend des bulletins (d'au moins deux candidats différents) et une enveloppe, il entre dans l'isoloir, il met le bulletin de son choix dans l'enveloppe, il sort de l'isoloir et glisse l'enveloppe dans l'urne transparente et visible de tous, il émarge. 3 - Le dépouillement Dans tous les cas le dépouillement se déroule après la clôture des vote. a– machines à voter Dans la procédure électronique, le président du bureau de vote (en présence d'assesseurs) appuie sur un bouton, la machine donne les résultats sous la forme d'un ticket imprimé qui est agrafé au procès-verbal et dont les résultats sont recopiés sur ce même procès-verbal. Ces résultats sont également inscrits dans la carte mémoire de la machine à voter qui peut être éventuellement transmise à la mairie pour totalisation (mais c'est le procès-verbal qui fait foi). Nous remarquons immédiatement que la machine réalise le dépouillement en toute opacité sans qu'il soit possible de vérifier ses résultats. Le contrôle du vote échappe aux citoyens qui doivent faire "confiance" à une machine. b – vote traditionnel avec bulletin papier Dans la procédure classique, le dépouillement est effectué par des scrutateurs aidés du président du bureau de vote et de un ou plusieurs assesseurs. N'importe quel citoyen peut assister au dépouillement et en contrôler l'honnêteté. actuellement en vigueur en informatique. En voici quelquesuns (légèrement adaptés à la situation française). Cette liste n'est pas exhaustive et si un seul de ces critères n'est pas respecté, le système informatique ne peut être considéré comme sécurisé, autrement dit, la procédure de vote ne peut se dérouler dans des conditions satisfaisantes. Une machine non sécurisée présente des risques importants de dysfonctionnement majeur, elle est susceptible, en particulier, de donner des résultats qui ne reflètent pas la réalité du vote. Intégrité : le système (matériel et logiciel ainsi que les paramètres initiaux et la configuration générale), une fois certifié, ne doit pas être modifié, et ne doit pas pouvoir être modifié. Il faut souligner que la présence d'un checksum censé vérifier l'intégrité d'un système n'empêche nullement la présence d'une modification malveillantes147. Ouverture : le système (matériel, programmes, circuits intégrés supplémentaires, documentation) doivent pouvoir être inspectés à n'importe quel moment, même s'ils sont protégés par le secret industriel. Intégrité des personnes : l'intégrité de toutes les personnes impliquées dans le développement, l'utilisation ou l'administration de machines à voter doit être vérifiée. Les personnes ayant été condamnées pour des crimes ou des fraudes doivent être écartées. Vérification : il doit être possible de recompter les votes manuellement, et les procédures de recomptage manuel doivent faire partie des connaissances détenues par le président du bureau de vote. 2 – Analyse Nombre de ces critères ne peuvent être respectés avec un coût de développement raisonnable, et il faut bien admettre que l'action d'une seule personne peut corrompre le fonctionnement d'une machine à voter, et que toute affirmation du contraire tient davantage de la croyance que de la logique. La fragilité des systèmes informatiques est largement admise dans la communauté des informaticiens professionnels. Aussi, les programmes sont-ils toujours assujettis au contrôle de leur fonctionnement dans le monde réel. Si le programme pilote une fusée, celle-ci atteindra son objectif, ou bien déviera de sa route et explosera, s'il y a une erreur de calcul dans votre compte en banque, vous vous en apercevrez en vérifiant votre relevé de comptes, si le robot qui réalise une pièce mécanique dévie du plan prévu, la pièce sera défectueuse. Dans le cas de machines à voter, seules les résultats manifestement erronés parce qu'invraisemblables peuvent être détectés. Si un candidat obtient davantage de voix qu'il n'y a d'électeurs, il est évident qu'il s'est passé quelque chose d'anormal et une enquête peut être diligentée. Mais le problème peut être plus discret et n'affecter qu'un faible pourcentage des votes cependant suffisant pour faire basculer le résultat. II – Les spécialistes de l'informatique 1 – Recommandations et risques Les chercheurs en informatique se sont intéressés au vote électronique depuis son apparition et ont produit des critères visant à garantir que la machine à voter fonctionne effectivement comme elle doit fonctionner [Neumann 1993]. Ces critères sont largement inspirés des critères de sécurité 146 Election Systems and Software 147 Le checksum d'un fichier est une séquence de chiffres et de lettres obtenue de manière précise (mais non unique) à partir d'un fichier afin de savoir s'il a été alteré. Un checksum permet de détecter quasiment toute modification accidentelle mais ne protège pas des modifications intentionnelles. 120 121 Nous constatons que s'il n'y a aucun support physique gardant une trace de chaque vote, il est impossible de détecter les dysfonctionnements. Il est donc crucial qu'une machine à voter garde une trace physique des votes (un bulletin imprimé portant le nom du candidat choisi, par exemple), et que cette trace ait été vérifiée par chaque électeur au moment de son vote pour prouver la sincérité du vote. Cette trace physique doit faire foi s'il y a désaccord entre le dépouillement manuel et le dépouillement électronique. Ce principe a été clairement affirmé à de nombreuses reprises par différents informaticiens au plus haut niveau [Mercuri 2000]. La prestigieuse association américaine ACM (Association for Computing Machinery)148 a nettement pris position dans le même sens le 27 septembre 2004 III – Les industriels Le vote électronique est devenu un marché potentiel important et concerne de nombreux États. Logiquement, différentes entreprises se sont emparées de ce nouveau marché en utilisant les techniques habituelles de promotion et de marketing. Le discours de type managérial a progressivement remplacé les réflexions de type politique ou administratif. On use de l'argument de « modernisation » de la vie politique, on vante la rentabilité (le coût des élections serait diminué), l'augmentation assurée du taux de participation, et la fiabilité des systèmes de vote électronique (la fraude serait quasi impossible) sans qu'aucun de ces critères ne soit prouvé. L'activité de lobbying est particulièrement intense : publications d'articles dans lesquels les auteurs ne manquent jamais de défendre avant tout les intérêts de leur société, organisation de conférences et séminaires, dans lesquels sont invitées les personnalités du monde politique, etc. Finalement, des décisions importantes ont été prises en se fondant sur des critères de minimisation des coûts et donc de maximalisation des risques : l'impression d'un bulletin papier vérifié par l'électeur lors de son vote est apparue non essentielle aux fabricants de machines à voter car ce processus "double" le comptage électronique effectué dans la machine, et peut être source de pannes (bourrage de papier, manque d'encre, de papier, etc.). Les machines à voter ne produisent donc aucune trace physique prouvant la sincérité du vote et permettant un recomptage manuel des voix. Par conséquent, ces machines sont totalement invérifiables. IV – Le pouvoir politique Les décisions politiques ont été largement influencées par le lobbying des industriels. En France, le règlement [Intérieur 2003] qui fixe les critères que doit remplir une machine à voter pour être autorisée est particulièrement superficiel et ne tient aucun compte des recommandations des spécialistes du domaine. Il admet que le programme utilisé dans les machines à voter soit secret. Il n'y a aucun examen approfondi du programme ou des documents, aucune vérification de l'intégrité des personnes intervenant sur ces machines, seules quelques machines sont sommairement examinées par l'entreprise délivrant l'agrément, les machines installées dans les bureaux de vote étant censées être identiques aux machines examinées, mais il est impossible de vérifier cette identité. De plus, il n'est pas prévu de procédure spéciale de scellement ou de surveillance des machines entre les scrutins. Surtout, il est impossible de vérifier si la machine a bien 148 L'Association for Computation Machinery existe depuis 1947. Elle possède une dimensuin internationale avecplus de 80 000 membres institutionnels, universitaires et industriels issus de plus de 100 pays. http://www.acm.org/ fonctionné puisque le règlement n'impose PAS aux machines à voter d'imprimer un bulletin papier vérifié par l'électeur. Les nombreux incidents qui sont déjà survenues sur des machines analogues n'incitent pourtant pas à la confiance ! V – la réalité Les machines à voter sont très récentes en France (2004). Il y a donc peu de faits qui peuvent être relatés concernant leur utilisation dans ce pays. En revanche, leur introduction est plus ancienne dans de nombreux autres pays (début des années 1990 aux États-Unis par exemple). Cette période de temps assez longue a permis une observation pertinente de leur comportement. Il faut souligner que les machines à voter peuvent être différentes d'un pays à l'autre (par exemple, quelques-unes impriment un bulletin papier), néanmoins elles ont plusieurs points communs : ce sont des systèmes électroniques (qui présentent donc potentiellement toutes les fragilités déjà citées) et elles effectuent un dépouillement automatique. 1 – de nombreux incidents Nous avons constaté que le discours des spécialistes de la sécurité informatique a été largement occulté par celui des industriels qui ont réussi à largement influencer la rédaction des textes officiels régentant l'utilisation des machines à voter. Cette situation n'est pas propre à la France, une dizaine de pays149 utilisent largement le vote électronique malgré les mises en garde des informaticiens. De nombreux incidents ont été relevés, en voici quelques-uns à titre d'exemples, mais cette liste n'est pas exhaustive. États-Unis : en novembre 2003, dans le comté de Boone (Indiana), une machine de votes a enregistré plus de 144 000 votes alors qu'il n'y avait que 19 000 électeurs [Simons 2004] En Belgique chaque vote sur une machine à voter est enregistré sur une carte magnétique anonyme. Lors du vote, il faut insérer la carte dans la machine à procéder puis procéder au choix. Celui-ci est mémorisé dans la carte que l'on dépose ensuite dans une urne électronique qui décomptera les voix. Ce système a le mérite de prendre en compte la nécessité absolue de mémoriser le vote sur un support qui permette un dépouillement indépendant de celui de la machine. Il présente cependant le défaut majeur d'utiliser un support qui n'est pas directement lisible par un humain (comme un bulletin imprimé avec le nom du candidat) : il n'est pas possible de voir ce qui est inscrit sur sa carte magnétique (est-ce bien mon vote ?150). Lors des élections du 18 mai 2003, à Schaerbeek, un candidat d'une liste obtient plus de voix qu'il n'est possible d'en obtenir. Le recomptage manuel à partir des cartes magnétiques a montré une erreur de 4096 voix, erreur qu'il a été impossible d'expliquer ou de reproduire lors de nombreux tests menés sur la même machine [Rapport Chambre et Sénat belge 2004, page 21]. Au Québec les élections municipales du 6 novembre 2005 se sont déroulées à 95% à l'aide de machines électroniques151, les incidents ont été massifs : des résultats sont arrivés avec plusieurs heures de retard, des équipements sont tombés en panne, des connexions Internet ont été coupées, des votes ont été comptabilisés deux fois, etc. [Beaulieu 2006] 149 Belgique, Brésil, Canada, États-Unis, Hollande, Inde, Pays-Bas, Vénézuéla. 150 Il est théoriquement possible de vérifier ce qui est inscrit sur la carte en la repassant sa carte dans le lecteur de la machine sur laquelle on vient de voter, ce qui ne constitue manifestement pas une preuve du bon enregistrement du vote sur la carte magnétique. Des citoyens pugnaces ont insisté pour procéder à cette vérification en lisant leur carte à l'aide d'une autre machine à voter (ce qui est théoriquement absolument interdit par a loi) et ont déniché quelques erreurs (les votes pour les derniers candidats d'une liste très longue n'étaient pas enregistrés). 151 Les incidents relatés concernent les machines de la Société PG election http://www.pgelections.com/ 121 122 etc. Il faut souligner que seules les situations de dysfonctionnement manifestes ont pu être détectées lors de l'utilisation de machines invérifiables (n'imprimant pas de bulletin papier vérifié par l'électeur). Il est certain que des dysfonctionnements sont passés inaperçus car les résultats énoncés par la machine n'étaient pas aberrants. 2 - Promesses non tenues Rapidité Non seulement le moindre incident entraîne des retards colossaux pour la publication des résultats, mais en plus des files d'attentes parfois impressionnantes se forment devant les bureaux de vote : soit une seule machine a été installée là où il y avait trois ou quatre isoloirs, soit des pannes de matériel ont réduit le nombre de machines en état de fonctionner. Sûreté Aux États-Unis, en 2004, un quart du corps électoral a voté sur des machines à voter. Celles-ci sont principalement produites par les sociétés Diebold et Election Systems and Software(ES&S). Diebold ayant malencontreusement rendu public le programme de ses machines sur Internet152, des chercheurs de l'Université John Hopkins de Baltimore ont pu l'étudier pendant plusieurs mois. Ils ont publié un rapport soulignant l'absence totale de garantie des machines vendues par Diebold et la très grande facilité avec laquelle il est possible de fausser les résultats et même de les modifier à distance [Kohno and al. 2004]. L'acharnement de certaines entreprises à éviter de rendre ces machines vérifiables (en les dotant de l'impression d'un bulletin papier vérifié par l'électeur)153 devient suspect : cette vérification systématique pourrait démontrer de nombreux cas de résultats erronés et discréditer complètement cette technologie pour cet usage très particulier qu'est le vote. L'entreprise NEDAP utilise d'ailleurs ce curieux argument : le dépouillement des bulletins papier pourrait mener à la découverte d’anomalies dans le fonctionnement des machines à voter le jour des élections, ce qui ébranlerait la confiance des électeurs. <<An audit trail could only show that the event, identified as a risk occurs on Election Day, but that is too late!! In our opinion every voting machine should be designed, built and tested in accordance to the highest standards. Lowering the standards cannot be compensated by any audit trail. Errors or flaws detected during the election would shake voter’s confidence and are unacceptable.>> [CEV 2004] Appendix 4, Part 1, page 419154 Coût Malgré les promesses quant à la réduction du coût des élections et comme nous l'avons déjà vu, il apparaît que des sommes considérables ont été investies dans les machines à voter. Entre autres, le coût annoncé par les fabricants ne prend pas en compte les nécessaires frais de maintenance et de 152 Ce qui est particulièrement cocasse de la part d'une entreprise de haute sécurité. 153 Lors des élections du 18 mai 2003 en Belgique, quelques machines ont été dotées d'une extension permettant d'imprimer un ticket que l'électeur visualisait à travers une vitre (en fait une loupe grossissante). Après vérification et confirmation, le ticket était déposé dans une urne pour qu'à aucun moment l'électeur ne puisse modifier ou emporter ce ticket. Les tickets ont ensuite été dépouillés pour vérifier les résultats de la machine. Ce dépouillement n'a pas été achevé car les caractères imprimés étaient si petits et si peu lisibles que les assesseurs n'ont pu mener l'opération à bien. La commission d'évaluation en a donc conclu que l'impression d'un bulletin vérifié par l'électeur n'était pas possible [Rapport chambre et sénat belge 2004]. Il est consternant de constater que tout a été fait pour que cette expérience se déroule aussi mal que possible et que cette mise en ?uvre calamiteuse n'ait pas été relevée par la commission d'évaluation. 154 Part1.pdf http://www.cev.ie/htm/report/first_report/pdf/Appendix%204- sécurisation des machines entre les scrutins. Conclusion Malgré la forte opposition des scientifiques spécialistes de la sécurité informatique et la mobilisation croissante des citoyens, il apparaît extrêmement difficile de remettre en cause le vote électronique que le pouvoir politique continue à soutenir. Nous constatons qu'après plus d'une décennie d'errements certains États ont quand même commencé à prendre conscience des problèmes posés par ces machines : L'État de Californie a décidé de rendre obligatoire l'impression d'un bulletin papier vérifié par l'électeur à partir de juillet 2006 ; en Irlande, la commission indépendante nommée par le gouvernement155 a déclaré en décembre 2004 être incapable de recommander l'utilisation des machines à voter NEDAP pour les prochaines élections. Dick Roche, ministre en charge du dossier, a confirmé officiellement que ces machines électroniques à voter ne seront pas utilisées pour les élections de 2007. Il serait douloureux que les mêmes erreurs soient commises en France alors même que des élections majeures (présidentielles et législatives) vont avoir lieu en 2007, d'autant plus que la remise en cause a posteriori du bon déroulement de ces scrutins pourrait menacer la stabilité politique de ce pays. Il apparaît donc urgent de suspendre l'utilisation des centaines de machines à voter équipant déjà des bureaux de vote. Enfin, il est regrettable que la mise en ?uvre de machines à voter ait eu lieu sans qu'une commission indépendante à la fois du pouvoir politique et des tentations commerciales ne soit mise en place. L'utilisation de l'électronique peut contribuer à améliorer le fonctionnement de la démocratie, par exemple en ce qui concerne l'accès des handicapés, ou la possibilité effective de voter pour tous les candidats, si la mise en ?uvre de ces systèmes ne dégrade pas la qualité de la procédure de vote dans son ensemble. Bibliographie [Beaulieu 2006] Alain Beaulieu, "Les ratés des élections municipales", magazine Direction informatique, décembre 2005-janvier 2006. http://www.directioninformatique.com/di/client/fr/DirectionInf ormatique/Nouvelles.asp?id=37916 [CEV 2004]Commission on Electronic Voting, First Report, "Secrecy, Accuracy and Testing of the Chosen Electronic System, December 2004.http://www.cev.ie/htm/report/first_report.htm [Conseil constitutionnel 1958] http://www.conseilconstitutionnel.fr/textes/constit.htm [Intérieur 01]"Machines à voter" http://www.interieur.gouv.fr/rubriques/b/b3_elections/b31_act ualites/2003_07_04_machines_voter [Intérieur 2003]"Arrêté du 17 novembre 2003 portant approbation du règlement technique fixant les conditions d'agrément des machines à voter". Auteur(s) inconnus(s). http://www.interieur.gouv.fr/rubriques/b/b3_elections/b31_act ualites/2003_07_04_machines_voter/mav2.pdf [Kohno and al. 2004] Tadayoshi Kohno, Adam stubblefield, Aviel D. Rubin, Dan S. Wallach, "Analysis of an Electronic Voting System", IEEE Symposium on Security and Privacy, Oakland, CA, May, 2004. [Légifrance 2005]article L57-1 du code électoral, http://www.legifrance.gouv.fr/WAspad/ (consulté le 13 mai 2006). [Mercuri 2000] Rebecca Mercuri, "Electronic Vote Tabulation Checks & Balances", Ph.D. dissertation, School of 155 Commission on Electronic voting http://www.cev.ie/ 122 123 Engineering and Applied Science of the University of Pennsylvania, Philadelphia, PA, October 27, 2000. [Neumann 1993] Peter G. Neumann, "Security Criteria for Electronic Voting", 16th National Computer Security Conference Baltimore, Maryland, September 20-23, 1993. [Rapport chambre et sénat belge 2004] Sénat et chambre des représentants de Belgique, "Rapport concernant les élections du 18 mai 2003", numéro 3-7/1 (Sénat) Doc 51 0001/2 (Chambre), 2004. [Simons 2004]Barbara Simons, "Electronic Voting Systems: the Good, the Bad, and the Stupid", ACM Queue vol. 2, no. 7 October 2004 . Je remercie Pierre Muller pour sa relecture attentive de cet article et ses conseils toujours avisés. L’usage des diapositives numériques en milieu organisé ou la recomposition provisoire de collectifs éclatés Gérald Gaglio, [email protected]. Michel Marcoccia [email protected] Manuel Zacklad [email protected] Laboratoire Tech-Cico, Institut Charles Delaunay, Université de Technologie de Troyes Après avoir colonisé le monde du travail, le logiciel Power Point, via la création des diapositives numériques qu’il permet, irradie en permanence de nouvelles sphères. Cette omniprésence devient presque contraignante et a engendré maintes critiques. On voit ainsi fleurir une contestation de l’usage intempestif des diapositives numériques (principalement aux Etats-Unis) allant de la satire (Stewart, 2001 ; Tufte, 2003a), à une argumentation semi-académique (Tufte, 2003b, Parker, 2001). Le projecteur est pointé sur les effets pervers de l’utilisation intensive de ces présentations : le « slideware » (Tufte, 2003a) amènerait à privilégier la forme au fond. Ce dernier, pris dans une rhétorique de la séquentialité (Kjeldsen, 2006), deviendrait fragmenté, pauvre et empêcherait la transmission d’informations complexes, voire entraînerait des incompréhensions conduisant à des désastres comme la chute de la navette Columbia (Tufte, 2003b). Ce mode de communication conduirait de surcroît à un effacement du présentateur au profit du document projeté, et partant génèrerait l’ennui dans des millions de salle de réunion à travers le monde. Cette posture critique, sans être ignorée, tentera d’être dépassée. De plus, notre propos se recentrera sur le champ des organisations où l’élaboration, la présentation puis la transmission des diapositives numériques constitue désormais un processus organisationnel usuel. Plusieurs options s’offrent alors, tant notre objet de recherche est fuyant. Il est d’abord possible d’explorer ces documents en tant que modalité communicationnelle hybride mixant un écrit souvent multimédia projeté sur un grand écran, et un oral de complément. Cet objet peut être aussi investigué au regard de son efficacité, tant du point de vue linguistique, que des actions et décisions concrètes auxquelles il conduit (Atifi, Gaglio, 2006). A la suite de Yates et Orlikowski (2006), les présentations de diapositives numériques seront plutôt envisagées comme un genre de communication. Un genre156 est relié à des actions de communication, qui, à la fois, ouvrent des possibles, enferment les acteurs et suscitent des attentes. On peut les caractériser grâce à 6 questions : Why ? What ? Who ? How ? When ? Where ? Quelle est alors la spécificité du genre « diapositives numériques » dans la constellation des écrits circulant dans les 156 « Genres are indicative of what communities do and do not do (purpose), what they do and not to value (content), what different roles members of the community may or may not play (particpants), and the conditions (time, place, form) under which interactions should and should not occur » (op.cit. p.5). entreprises (mail, tableau exel, document word…) ? Doit-on parler de genre au singulier ou au pluriel ? Quelle est leur portée dans la vie de l’organisation ? Comment en prendre la mesure au sein même des documents ? Des pistes de réponse seront apportées dans cet article. Pour ce faire, et contrecarrant le constat de Farkas (2006) sur la faiblesse des données empiriques mobilisées sur ce sujet, deux méthodes seront ici exploitées (l’analyse linguistique de corpus et l’observation participante) et un terrain sera investigué : une direction « nouveaux services » d’un opérateur de téléphonie mobile, dans laquelle un des auteurs a évolué pendant plus de 10 mois en tant que chargé d’études marketing (décembre 2004-septembre 2005). Ce poste a permis de collecter un grand nombre de documents Power Point, de même qu’il va aider à en restituer le contexte et en tirer une compréhension globale. Cet emploi a aussi mis en présence de nombreux projets de développement de service, d’individus les portant (les chefs de produit), des hiérarchiques les évaluant (les managers), de fonctions-supports (études, process, technique, marketing, finance…) y contribuant, les présentations de diapositives numériques jalonnant ce processus. Ainsi, dans un premier temps, nous montrerons que les réunions de présentations de ces documents supposent préalablement une écriture ou une réécriture de présentations, ce qui donne à voir conjointement l’apparition d’un interdiscours ainsi qu’une gestion particulière de l’hétérogénéité énonciative. Dans un deuxième temps, le « pourquoi » de la rémanence de situations de réunion de « prés’ », dans l’environnement étudié, sera éclairé, à l’intérieur du mode collaboratif en projet. Enfin, nous avancerons que l’usage des diapositives numériques s’inscrit dans la constitution d’un corpus ressource pour les acteurs et peut être assimilé à un « écrit théâtral ». I DIAPOSITIVES NUMERIQUES, INTERDISCOURS ET HETEROGENEITE ENONCIATIVE Les diapositives numériques dans les organisations sont souvent les produits d’un processus d’élaboration collective, mettant en jeu divers acteurs. On peut illustrer cette situation par l’exemple suivant : l’élaboration d’une série de diapositives numériques, qui relate et met en scène une étude de créativité sur « la télévision en mobilité » (« quels contenus 123 124 télévisuels pourraient être proposés en accès à partir d’un téléphone portable ? Quelles sont les attentes des clients ? »). Le résultat de cette étude de créativité est un document composé de diapositives numériques, servant de support pour une présentation dans l’entreprise. Elle a ensuite alimenté une série d’autres documents. Plus généralement, le processus d’élaboration étudié peut être découpé en cinq phases. Phase 1 : la commande. Un service de l’entreprise définit le brief d’une étude sur les services à venir de télévision sur mobile, les enjeux de l’étude, les questions à traiter. L’étude sera réalisée par un institut externe à l’entreprise. Cette phase se réalise après la production d’un document de diapositives numériques (1), fruit d’un séminaire interne au sein duquel les objectifs du projet ont été arrêtés. Phase 2 : l’étude. L’institut choisi pour l’étude livre sa réalisation, sous la forme d’un document de type Power Point (2). Phase 3 : les documents de travail. Le document (2) fait l’objet de diverses synthèses au sein de l’entreprise commanditaire, mettant en avant divers éléments de l’étude selon les interlocuteurs concernés. Ces documents de travail (3) sont le plus souvent des présentations de diapositives numériques. Phase 4 : la synthèse préalable. Une sorte de méta-synthèse est commandée à un chargé d’études de l’entreprise, qui produit alors un court document de « diapos » (4) proposant une traduction de l’étude initiale (2) au chef de projet. Ce document est en fait une partie du document final. Phase 5 : le document final. Il s’agit d’une longue présentation de diapositives numériques (5), servant de support à une présentation du chef de projet (qui fait partie de ceux qui ont élaboré la commande) aux dirigeants de l’entreprise. Elle comprend la partie « étude » (première partie du document) (4) mais aussi d’autres contributions de différents services (juridique…). Nous nous focaliserons sur la partie « étude ». Si l’on s’intéresse à la nature des discours produits au cours de ce processus d’élaboration documentaire, quelques points importants sont à noter. Tout d’abord, tous les documents entretiennent des relations étroites. Ainsi, le document 2 est une réponse au document 1. Les documents produits au cours de la phase 3 sont essentiellement des synthèses, des analyses ou des reformulations du document 2. Le document 4 a ce même statut mais il est aussi directement lié au document 5, dont il constitue une sorte de brouillon. Ainsi, pour chaque document, l’ensemble des autres documents du dossier constitue un interdiscours, c’est-à-dire un ensemble d’unités discursives avec lesquelles un discours particulier entre en relation implicite ou explicite. Cela implique que la production de chaque document s’appuie sur un pré-construit. En reprenant les thèses de Pêcheux (1975), on peut souligner l’effet d’assujettissement des discours par rapport à l’interdiscours dans lequel ils s’intègrent. En d’autres termes, l’identité d’un discours se limite à son maintien dans l’interdiscours. Comme le note Maingueneau (1997), l’énonciation ne se développe pas sur la ligne d’une intention individuelle fermée, elle est de part en part traversée par les multiples formes de rappel de discours déjà produits et par la menace de glisser dans ce qui n’est pas dicible dans cet interdiscours. Dans le corpus étudié, on observe de nombreux phénomènes discursifs qui peuvent être associés à la prégnance de cet interdiscours sur la production des documents. Ainsi, certaines thématiques s’imposent dans l’interdiscours et leur importance se manifeste par des phénomènes de reprise lexicale. Par exemple, le document (1) insiste sur l’argument de la personnalisation des services (« le véritable lancement de la vidéo mobile avec une forte mise en avant de la thématique personnalisation »). Ce terme est alors repris de nombreuses fois dans le document (2) (« une personnalisation optimale », « réduite », « forte personnalisation des programmes », « une forte personnalisation », « bénéfice : la personnalisation », « la personnalisation des informations », etc.) et dans les documents (4) et (5). En revanche, d’autres thématiques (et les procédés discursifs qui les portent) ne circulent pas d’un document à l’autre et ne semblent donc pas être des éléments constitutifs de cet interdiscours. Par exemple, le document (2) décrit les services à développer comme « attractifs, simples, ludiques, porteurs ». Il est intéressant de constater que seule la thématique de la simplicité était initiée dans le document (1) (« interactivité simple ») et que seule celle de la ludicité est reprise dans les documents (4) et (5) (« ludique, humour, légèreté »). On voit que le document constituant la commande ne contraint pas totalement l’étude, et que cette dernière n’instaure pas non plus un cadre thématique et lexical fortement contraignant pour les documents qui en constituent la synthèse. De la même manière, le document (2) propose une typologie des services susceptibles d’être mis en oeuvre : « les fractionnés, les contextualisés, les thématiques, les personnalisés, les localisés ». On pourrait imaginer que, par leur nature classificatoire, ces termes servent de pivots pour les autres documents. En fait, une restriction s’opère dans un des documents de travail de la phase 3, dans lequel ne sont plus présentés que les « fractionnés », les « thématiques » et les « personnalisés ». Une nouvelle restriction est observable dans le document (4), où on ne parle plus que de « fractionner des programmes ». Tout au long de ce processus de réinvention documentaire, on observe en réalité la succession de différents genres de documents : la commande correspond à un discours assertif et directif (un état des lieux assorti de questions), l’étude entretient naturellement quelques rapports avec les discours didactiques ou scientifiques : il s’agit avant tout de décrire, d’analyser, de classer. De ce point de vue, proposer des listes de catégories est bien une manifestation de la rhétorique scientifique, même s’il s’agit principalement là d’un effet de style. A partir de la phase 3, les documents de diapositives numériques utilisent le document (2) en essayant d’en tirer des « éléments d’exploitation » pour l’entreprise. A cette phase, l’objectif est de définir un plan d’action pour proposer concrètement de nouveaux services sur les mobiles. On observe ainsi une reconfiguration sémantique et pragmatique des thèmes au cours du processus, allant de l’étude jusqu’au document strictement opératoire. Parmi les différents documents formant l’interdiscours, le document final (5) occupe une place privilégiée. Tout d’abord, il est utilisé dans une présentation assurée par une des personnes ayant lancée la commande et dirigée le processus. D’une certaine manière, on note un phénomène de « retour à l’envoyeur », qui donne une place centrale à cet acteur. De plus, ce document est vraisemblablement la seule trace du processus qui sera exposée aux destinataires finaux. Ainsi, on comprend que l’étude initiale n’existe aux yeux des dirigeants de l’entreprise qu’à travers son exploitation et sa reformulation. Ce document final peut donc être analysé comme une mise en scène du processus et, surtout, des différents acteurs qui y ont participé. Même si il est présenté ou pris en charge par une seule personne, il s’agit d’un document qui met en jeu plusieurs auteurs. En analyste de discours, on dira que ce document est fortement marqué par l’hétérogénéité énonciative, directement héritée de la notion de dialogisme chez Bakhtine (1978). Selon Authier-Revuz (1982), l’hétérogénéité énonciative 124 125 est constitutive de tout discours, qui se structure à travers ses relations avec d’autres discours, indépendamment des traces visibles des ces autres discours. Les mots sont toujours les mots des autres, le discours est tissé des discours d’autrui. Partant de ce concept, on peut aussi réfléchir à l’hétérogénéité énonciative propre à certains discours. Parallèlement au dialogisme généralisé, certains discours ont une hétérogénéité énonciative spécifique à leurs conditions de production. Ainsi, le document final de diapositives numériques est le produit d’un processus d’élaboration collectif et, à ce titre, il n’est pas issu d’une seule source énonciative. On peut donc parler d’hétérogénéité énonciative spécifique (il mêle différentes sources énonciatives correspondant aux différents acteurs du projet) et, si l’on veut, d’hétérogénéité constitutive (il est aussi pris dans un dialogisme généralisé). Dans notre cas, l’hétérogénéité énonciative est montrée157 car le discours rend identifiable de manière explicite les différentes sources énonciatives (citation en style direct, marques auctoriales, etc.) : l’institut d’étude est par exemple clairement identifié comme énonciateur originel. En effet, le logo de l’institut d’études est présent sur la première page du document. En revanche, dans le corps du document, l’hétérogénéité est plutôt masquée, dans la mesure où aucun élément du discours ne peut être attribué à d’autres énonciateurs. Certains phénomènes manifestent cependant cette hétérogénéité, mais uniquement si l’on a accès aux documents préalables. Ainsi, on note que certaines « slides » du document (4) sont reprises presque intégralement dans le document (5), qui en modifie néanmoins le titre. Le contenu de la diapositive 17 du document (4) (« Types d’idées de services à développer, à l’issue de cette présentation ») est repris totalement dans la diapositive 9 du document 5, mais avec une modification du titre (« Types d’idées de services à développer, à l’issue de l’étude créative »). Pour les destinataires finaux, il est en revanche impossible d’identifier les autres sources énonciatives que celle de la personne leur présentant le document. Pour autant, cette personne ne se pose pas comme auteur du document : son nom ne figure pas en première page. On a en fait un dispositif d’énonciation collectif plutôt que pluriel. L’auteur du document est une instance collective, issue de la fusion des deux entités signalées comme auteurs : le service d’études interne et l’institut prestataire. La personne qui assure concrètement la présentation du document a cependant un rôle central. Par rapport aux autres sources d’énonciation, elle occupe un rôle de locuteur porte-parole (Ducrot, 1984)158 : elle parle au nom d’un collectif invisible et même si on ne trouve pas de marques explicites des autres sources énonciatives, l’énonciation n’est pas non plus prise en charge individuellement. De surcroît, ce rôle de porte-parole est stratégique car il permet de se dissoudre dans le collectif tout en l’incarnant, de faire à la fois « le modeste et l’important » (Marcoccia, 1994). Au-delà de problématiques strictement énonciatives, cette analyse sous-tend, grâce à des manifestations discursives au sein des documents (reprise, sélection de termes et de thèmes, hiérarchisation…), des relations de place et de négociation 157 A la suite de Authier-Revuz (1982), on peut distinguer cette hétérogénéité énonciative de deux autres formes : l’hétérogénéité manifeste, lorsque le discours donne implicitement accès à d’autres sources énonciatives (par des emprunts lexicaux, l’usage de guillemets, etc.). l’hétérogénéité masquée : lorsque le discours se présente comme n’étant portée que par une seule source énonciative, par un travail de « lissage » de l’énonciation (reformulation, changement de style ou de registre, etc. 158 Ducrot (1984), dans sa théorie de la polyphonie énonciative, rend compte de deux autres rôles : celui d’énonciateur parmi d’autres (sa voix est identifiée avec celle des autres), et celui de simple intermédiaire (elle se contente de présenter un document produit par d’autres) dans le collectif ayant élaboré lesdits documents. En contrepartie, la potentialité de s’approprier, de réinterpréter en permanence les traces produites par de multiples énonciateurs ouvre un champ des possibles toujours plus grand, pouvant être une des modalités de la « montée en compétence » pour certains acteurs et d’un sentiment d’appartenance a minima. Cela emboîte le pas aux enjeux organisationnels qui vont suivre, tous liés à la profusion de diapositives numériques dans l’entreprise étudié. II LA SITUATION DE « PRES’ » : UNE RECOMPOSITION PROVISOIRE DE COLLECTIFS ECLATES, ENTRE BALISAGE DES PROJETS ET NORMATIVITE Dans l’environnement observé, la récurrence des réunions cadencées par la présentation de documents concentrant des diapositives numériques est frappante159. Cela n’est étonnant que dans une certaine mesure. Comme le montre Licoppe (2000), les instruments de communication internes se sont multipliés conjointement à l’apparition de la firme chandlerienne aux Etats-Unis dès la fin du 19ème siècle, et sont liés à l’avènement du « management systématique » : les présentations où l’on dit ce que l’on fait et ce que l’on va faire, auxquels nous avons assisté, n’en sont que les prolongements. Ensuite, Yates et Orlikowski (2006) notent que les présentations de diapositives numériques s’inscrivent dans la lignée des « business presentation » (présentations marketing, de résultats, projets de développement etc), également plus anciennes. Pour finir, l’usage du vidéoprojecteur est une sophistication technique du rétroprojecteur permettant l’affichage de « transparents », dont Morel (2002) pointait l’absurdité du fait de leur illisibilité. Dans le contexte exploré, où les « services de demain » doivent être pensés, rajoutons que ces présentations servent à donner l’impression d’un ordre de marche cohérent et d’une prévisibilité, alors que le marché est tâtonnant : pour l’heure, dans leur grande majorité, les consommateurs ne suivent pas les incitations des offreurs dans le dessein d’un « Internet mobile » par exemple. Plus précisément, ces présentations semblent s’inscrire dans la continuité de l’organisation en mode projet adoptée dans l’entreprise étudiée, en plus d’être congruente avec un discours valorisant la communication, la transversalité et la transparence (Zarifian, 1996). Le mode projet, pris dans sa quotidienneté, implique l’instauration d’une confiance réciproque, de dons contre dons l’alimentant et comprend un risque de fragilisation identitaire compte tenu de ses incertitudes (Cihuelo, 2005). Il tente aussi, en tant que mode d’organisation du travail, d’ordonnancer temporellement lesdits projets à l’aide des « lots » et des « livrables ». Le document de diapositives numériques présenté en public permet le plus souvent de faire le point sur le projet, de témoigner de son avancée ou de distiller des informations à son sujet (présentation d’une étude marketing le concernant, diffusion d’une synthèse…). En d’autres termes, ces documents accompagnent les projets et les balisent. De plus, les projets incorporant des compétences diverses, l’événement représenté par la réunion de présentation permet de recomposer, au moins provisoirement, des collectifs éclatés. D’une part, ces collectifs de projets sont éclatés à la fois spatialement et temporellement. Spatialement car le travail ne se réalise pas au sein d’un lieu unique et que les individus sont investis dans plusieurs scènes, notamment via l’usage du mail et du téléphone, mais aussi par l’intermédiaire de rencontres avec des membres extérieurs à l’organisation. Temporellement, car les échanges sur ces différentes scènes ne s’alignent pas sur 159 L’intervention fréquente des cabinets de conseil en entreprise alimente aussi à cette tendance. 125 126 la même temporalité. En réinjectant de l’échange en face à face en mode synchrone, la réunion de présentation de diapositives numériques constitue une pause et recompose provisoirement ces collectifs. D’autre part, les individus s’agrégeant dans ces collectifs de projets sont engagés dans des réseaux aux frontières incertaines ayant des échéances temporelles leur étant propre, des types de relations et des enjeux spécifiques : le marketing est un segment organisationnel en situation de domination relative dans la direction étudiée, et n’a, par exemple, ni les mêmes interlocuteurs, ni les mêmes contraintes, ni les mêmes codes professionnels que les ingénieurs en télécommunications. Les réunions de présentation de diapositives numériques favorisent à minima un sentiment de cohérence organisationnelle en mettant autour d’une même table, et au même moment, les principales parties prenantes des projets. Cette recomposition temporaire des collectifs comporte également une dimension normative car elle s’impose aux acteurs. Il « faut faire une prés’ » et se réunir pour en discuter, devient un guide pour l’action acceptable pour les membres de la direction étudiée et est une réponse pragmatique à des problèmes récurrents : comment restituer des résultats, témoigner de l’avancement des projets, travailler en groupe en mutualisant des expertises diverses ? Cela ne sera pas développé, mais cette normativité semble alimentée par la dimension rituelle de ces situations, au sens profane du terme (Rivière, 1995), tant du fait de la répétition de ces réunions, que de la trame de leur déroulement (invitation par e-mail, installation du matériel, présentation, conciliabule, questions…). Cela étant, force a été de noter que les réunions de présentation d’avancement de projets sont souvent organisées à la demande des managers et des dirigeants. D’aucuns y verront un accroissement du contrôle hiérarchique engendré par les NTIC. Cet argument peut être concurrencée par une seconde interprétation : les salariés qui s’adonnent à ces présentations y trouvent leur compte. Premièrement, ils se font connaître ou (re)voir de responsables leur étant parfois éloignés dans l’organigramme. Deuxièmement, ils tentent d’y « faire passer des messages », c'est-à-dire de susciter l’adhésion des décideurs sur leur manière de conduire le projet et de légitimer des moyens pour le mener à terme. Troisièmement, dans cette direction de « développement » et non de « commercialisation », on ne dispose pas de prises objectives comme le chiffre d’affaire réalisé pour évaluer le travail accompli. La présentation est alors un exercice commode pour témoigner de sa capacité à « bien présenter » (au propre comme au figuré), à mettre en réseau différents interlocuteurs internes, externes, et de rassurer sur le bon déroulement du projet. La portée organisationnelle de ces présentations, à la fois fonctionnelle et plus symbolique de recomposition provisoire de collectifs de projets éclatés, est maintenant mieux cernée, de même que la rémanence de leur recours. Cette compréhension inductive invite à préciser l’assertion selon laquelle La présentation de diapositives numériques est un genre de communication (Yates, Orlikowski, 2006). Ce processus organisationnel semble conquérir, via ses usages, un espace allant au-delà des contenus qui y sont transmis et débattues. Cet espace ne peut toutefois être considéré comme autonome : il est tributaire de décisions prises en amont, en aval, ainsi que d’autres sources d’informations parvenant sous forme documentaire (mail, fichier Word, Exel…) ou par oral. C’est cet aspect qui va être développé maintenant. III LES PRÉSENTATIONS PROFESSIONNELLES DE DIAPOSITIVES NUMÉRIQUES : CONSTITUTION D’UN CORPUS POUR SOI ET « ÉCRIT THÉÂTRAL » En accord avec les théoriciens de la communication organisationnelle (Taylor et al, 1996) nous considérons dans cette partie les échanges langagiers à caractère oraux ou écrits comme étant un des principaux moyens de la création de valeur au sein des organisations (Zacklad, 2005a). Plus précisément, ceux-ci relèvent pour nous de la réalisation de transactions160, qui sont à la fois l’occasion de la réalisation de productions plus ou moins originales (œuvre ou objet) et d’individuation d’acteurs (soi ou agent) individuels ou collectifs. Dans le contexte de l’analyse transactionnelle de l’action (Zacklad 2005b), les productions langagières correspondent à des productions sémiotiques qui peuvent être décomposées en un contenu sémiotique (pouvoir d’évocation et effets potentiels) et un médium (support et forme d’expression). Dans les situations qui impliquent un accroissement de la distribution spatio-socio-temporelle des transactions (accroissement de la chaîne des transactants, extension temporelle et spatiale des échanges), il est nécessaire de recourir à des supports pérennes qui faciliteront la circulation des productions sémiotiques. Pour aider cette circulation, les acteurs sont amenés à documentariser le support c'est-à-dire à l’équiper d’attributs qui faciliteront la navigation à l’intérieur de celui-ci et son rangement parmi d’autres supports. Les diapositives numériques comme composantes d’un corpus ressource dans un champ sémiotique transactionnel Dans ce cadre d’analyse, les diapositives numériques constituent un type particulier de « Documents pour l’Action » (DopA) qui servent de support à la coordination de collectifs éclatés et qui possèdent les caractéristiques suivantes : réalisateurs multiples dont les relations ne sont pas formalisées, fragmentation et relation argumentative complexe entre les fragments, inachèvement prolongé, pérennité (Zacklad 2004). Le cas discuté est une bonne illustration de ces caractéristiques, comme le montrent notamment les analyses précédentes : une diversité d’acteurs au sein d’un réseau dont les contours sont fluctuants, des phénomènes divers d’emprunts entre les diapositives, une trame argumentative évolutive progressivement élaborée au fur et à mesure de la circulation des transparents par messagerie. La proximité entre certains jeux de diapositive et leur regroupement au sein d’un répertoire électronique pourrait nous amener dans ce cas à parler de dossier pour l’action, chaque pièce du dossier correspondant à une composante d’un flux documentaire (Gaglio & Zacklad 2006). Plus généralement la question du champ discursif considéré est posée (Maingueneau, 1983), de même que celle de l’interdiscours déjà évoqué plus haut (Pêcheux, 1975), ou encore de l’intertexte constituant un corpus, dans la terminologie de Rastier (2001). Les jeux de diapositives, souvent associées à des messages électroniques, des fichiers de texte ou de liens internet, sont intégrés dans un écosystème documentaire propre à l’activité considérée. Mais cet écosystème devrait lui-même être resitué à l’intérieur d’un ensemble de productions sémiotiques orales, réalisées à l’occasion de présentations en réunion, de conversations en face à face ou d’échanges téléphoniques. Dans les termes de l’analyse transactionnelle de l’action, nous parlerons alors d’un champ de productions sémiotiques interdépendantes dans le cadre d’un projet transactionnel donné (champ sémiotique transactionnel) réunissant un réseau de transactants plus ou moins impliqués. 160 En un sens différent de celui de l’économie et en partie différent de celui de Taylor et al. 126 127 A l’intérieur de ce champ, certaines productions sémiotiques auront été réalisées sur des supports pérennes, notamment électroniques, puis documentarisées. Elles constituent alors le corpus documentaire du projet transactionnel (corpus transactionnel) qui est un sousensemble du champ de productions sémiotiques dont l’articulation plus ou moins effective pourra constituer un ou plusieurs dossiers pour l’action. Le champ de productions sémiotiques associées au projet transactionnel constitué de performance orales et de documents sur support papier et numérique constitue une ressource essentielle pour le travail coopératif, à la fois pour en comprendre les enjeux, pour bénéficier des productions intermédiaires et pour légitimer sa participation au sein du collectif porteur du projet transactionnel. S’il est facilement accessible, le corpus transactionnel en est la ressource la plus facilement convertible. C’est à l’intérieur de ce corpus que les acteurs vont pouvoir puiser plus ou moins librement pour réaliser leurs propres productions en ré-agençant les fragments documentaires pour servir leurs objectifs. Un « écrit théâtral » constitutivement incomplet et intrinsèquement ambigu Au sein du corpus étudié, les fichiers de diapositives ont un statut particulier du point de vue des modalités de médiation des transactions. Leur vocation première est de servir de médiation lors de transactions synchrones dans lesquelles les transactants sont co-présents. A ce titre, elles sont constitutivement incomplètes puisqu’elles ont vocation à être commentées oralement durant la présentation : elles constituent des productions semi-indépendantes qui sont conçues pour servir de support à une performance orale dans une situation transactionnelle de référence. Pour bien les interpréter, lors d’une lecture postérieure, la connaissance des paramètres de cette situation transactionnelle est indispensable (transactants présents, objectifs poursuivis, cadre spatiotemporel, etc.). Elles sont, de ce point de vue, comparables à certains comptes-rendus de réunion dont le laconisme peut s’expliquer par la référence implicite à une situation passée. Les diapositives numériques sont souvent imparfaitement documentarisées tant du point de vue de l’articulation interne des fragments (contexte) que de celui de leur articulation avec d’autres composantes du champ sémiotique (intertexte). Pour le premier point, on considérera que les transitions argumentatives qui s’inscrivent pour l’essentiel dans un parcours arborescent, sont potentiellement moins subtiles qu’elles ne peuvent l’être dans d’autres types de texte. Pour le deuxième aspect, on considérera que leur inscription dans un corpus de type dossier est souvent moins justifiée que ne peuvent l’être des rapports ou des documents de type texte rédigé ou formulaire au sein de dossiers professionnels types (p.e juridique, démarche qualité, conception technique…). La date de la réunion et la mention des participants présents, quand ils sont mentionnés, tiennent souvent lieu d’unique justification à la présence d’un jeu de transparent dans un corpus transactionnel. Comme vu en introduction, ce défaut de structuration et de documentarisation des diapositives numériques a été souvent critiqué. Nous souhaitons souligner, a contrario, que le flou associé à ces documents est également une des raisons de leur succès croissant. En relâchant les normes associées à la production des textes écrits plus traditionnels, les diapositives numériques imposent un nouveau genre d’écrit dont l’interprétation s’appuie sur les situations d’oralité pour lesquelles ils sont conçus (même si dans certains cas une présentation orale n’a pas lieu). Avec les diapositives numériques, les marques de l’oralité dialogique caractéristiques de certains écrits numériques de type chat ou forum (Marcoccia, 2004) sont absentes puisque ces présentations orales ne s’apparentent pas véritablement à des dialogues et que le présentateur est présent pour accentuer et nuancer le texte de la diapositive. Néanmoins la lecture « après coup » du jeu de diapositives tient compte des caractéristiques de la situation d’énonciation originelle qui mixte lecture à voix haute et commentaire additionnels. De ce fait, les diapositives numériques s’apparentent à un écrit théâtral, essentiellement monologal, qui à la différence des œuvres théâtrales publiées font souvent l’économie de la présentation du contexte narratif, de l’agencement de la scène et du statut des personnages. Ce statut intermédiaire de l’écrit théâtral associé aux diapositives numériques offre un double bénéfice aux rédacteurs, à la fois d’ordre cognitif et interactionnel : cognitif car réduisant l’investissement rédactionnel s’agissant de l’articulation interne (l’argumentation proprement dite) et externe (positionnement par rapport à d’autres documents antérieurs) du document ; interactionnel car permettant au rédacteur de préserver l’ambiguïté de sa production sémiotique, le caractère constitutivement incomplet des diapositives numériques prémunissant des critiques menaçantes par l’invocation de cette incomplétude, tout en autorisant la défense de certaines opinions. Conclusion Arrivé au terme de ce parcours, l’idée que la situation de réunion de présentation de diapositives numériques en milieu organisé constitue un genre de communication, est retenue, audelà du support matériel qui permet la présentation. Cette situation assure, parmi d’autres modalités, une fonction de recomposition provisoire de collectifs éclatés, spécialement dans le cadre du mode projet. Cela étant, dès lors que la focale d’observation se relâche ou se resserre, la notion de genre ne supporte plus l’analyse. En effet, en sus du moment de la présentation des diapositives, les multiples échanges oraux, écrits, en coulisse ou sur des scènes plus formelles, quadrillent certainement davantage les processus organisationnels. En entrant dans les détails du contenu de ces documents de diapositives numériques, nous avons également pu observer la multiplicité de sous-genres (étude, projet, document de travail intermédiaire…) et le glissement possible des uns vers les autres. Références Atifi H., Gaglio G. (2006), Apports d’une approche pragmatique et sociologique pour l’étude des documents « numériques », article proposé au colloque CIDE.9 (colloque sur le document électronique). Authier-Revuz, J. (1982) : Hétérogénéité montrée et hétérogénéité constitutive : éléments pour une approche de l’autre dans le discours, DRLAV, 26 : 91-151. Bakhtine M. (1978) : Esthétique et théorie du roman, Paris, Gallimard (première édition : 1975). Cihuelo J. (2005), Le quotidien du projet : solidarité, confiance et insécurité psychologique, dans Minguet G. et Thuderoz C. (dir.), Travail, entreprise et société : manuel de sociologie pour ingénieurs et scientifiques, Paris, PUF. Ducrot, O. (1984) : Esquisse d’une théorie polyphonique de l’énonciation, In Le dire et le dit, Paris, Minuit : 171-233. Gaglio G., Zacklad M. (2006), La circulation documentaire en entreprise comme analyseur de pratiques professionnelles : une étude de cas, Sciences de la société, n°68 : 93-111. Farkas (2006), Toward a better understanding of Power Point desk design, Information Design Journal, n°14 : 162-171. Kjeldsen J., (2006), The rhetoric of Power Point, Seminar.net, vol.1. Licoppe C. (2000), Méthodes managériales, technologies de l’information et formes de la communication dans les entreprises américaines à la fin du XIX siècle, 7ème école d’été de l’ARCO, Bonas, 10-21 juillet. Maingueneau, D. (1997) : L’analyse du discours, Paris, Hachette. Marcoccia, M. (1994) : Le rôle de porte-parole dans le discours politique. Analyse sociopragmatique, Thèse de doctorat en Sciences du langage, dirigée par C. Kerbrat-Orecchioni, Université Lumière-Lyon 2. Marcoccia M. (2004), La communication médiatisée par ordinateur : faire du face à face avec de l’écrit, Journée d’étude de l’ATALA : 1-4. Morel C. (1992), Les décisions absurdes, Paris, Gallimard. Parker I .(2001), Absolute Power Point, The New Yorker, 28 mai. 127 128 Pêcheux, M. (1975) : Les vérités de La Palice. Linguistique, sémantique, philosophie, Paris, Maspero. Rastier F. (2001), Sémiotique et science de la culture,Linx, 44-45 : 149-168. Rivière C. (1995), Les rituels profanes, Paris, PUF. Stewart T. (2001), Ban it now ! Friends don’t let friends use Power Point, Fortune, 5 février. Taylor J., Coreen F., Giroux N., Robichaud D. (1996)? The communicational basis of organization : between the conversation and the text, Communication theory, 6:1, 1-39. Tufte E. (2003a), Power Point is evil : Power corrupts, Power Points corrupts absolutely, Wired, 11 septembre. Tufte E. (2003b), The cognitive style of Power Point, Cheshire, CN : graphics press LLC. Yates J.A., Orlikowski W. (2006), The Power Point Presentation and its corollaries : how genres shape communicative action in Organizations, dans Zachary M., Thralls C. (eds), The cultural turn : perspectives on communicative practices in workplaces and professions, Baywood, NY. Zacklad M. (2004), Processus de documentarisation dans les documents pour l’action (DoPa) : statut des annotations et technologies de la coopération associées, Actes du colloque : Le numérique : impact sur le cycle de vie du document pour une analyse interdisciplinaire, 13-15 octobre 2004, Editions de l’ENSSIB. Montréal. Zacklad M. (2005a), Transactions communicationnelles symboliques : innovation et création de valeur dans les communautés d’action, in Lorino P., Teullier R., Entre la connaissance et l’organisation, l’activité collective, Paris, Maspéro. Zacklad M. (2005b), Transactions communicationnelles et actes de langages dans l’économie des services, In Chabrol M., Orly-Louis C., Najab F. (eds), Interactions communicatives et psychologies, Paris, Presses de la Sorbonne Nouvelle. Zarifian P. (1996), Travail et communication, Paris, PUF. Conduire un projet d’entreprise avec les TIC. Les dynamiques de l’acteur Elizabeth Gardère Université Bordeaux 1 Epistémé (EA 2971) [email protected] Au cœur du dispositif d’apprentissage des organisations, les Technologies de l’Information et de la Communication (TIC) s’intègrent dans un paysage aux frontières dématérialisées, aux échanges démultipliés, aux systèmes hiérarchiques décentralisés, délégués, délocalisés. C’est dans ce contexte caractérisé par ces mutations que le mode projet se développe en réponse aux attentes ponctuelles et pressantes du marché. Simultanément, les pratiques de travail et usages des TIC dans l’entreprise tendent vers de nouveaux modèles. La conduite du changement se pense alors dans la complexité d’organisations fondées sur la gestion des connaissances, la capitalisation des savoirs et le travail en réseau pour tendre à un autre accès et partage de l’information qui sont stratégiques. Les TIC sont une notion floue d’autant qu’elle associe la communication à l’information, posant alors la question du statut des espaces de collaboration qui s’ouvrent. Sont-ils des espaces de communication ou d’information ? La définition qui est donnée des Technologies de l’Information et de la Communication est « un ensemble de ressources nécessaires pour manipuler de l'information, et particulièrement des ordinateurs et programmes nécessaires pour la convertir, la stocker, la gérer, la transmettre et la retrouver. On peut regrouper les TIC par secteurs suivants : les télécommunications et les réseaux informatiques ; le multimédia ; les services informatiques et les logiciels ; le commerce électronique et les médias électroniques ; la microélectronique et les composants ; l'équipement informatique »161. Cet ensemble d’innovations technologiques et d’outils traverse la société, investit les organisations et est vecteur de changement en profondeur. Son arrivée sur la scène sociétale donne naissance à des expressions telles que la société de la connaissance ou la société de l’information où se dessine une fracture numérique, forme d’exclusion sociale liée aux TIC. L’apanage de ces technologies est de manipuler 161 Voir définition TIC : http://fr.wikipedia.org/wiki/Technologies_de_l% 27information_et_de_la_communication l’information virtuellement. Rendue immatérielle, sa gestion est tiraillée entre des contingences marchandes et l’utopie de liberté. Point d’équilibre du changement interne, l’action est menée à la lumière des interfaces homme / machine et des interactions entre les acteurs notamment dans un projet. Cela suppose de nouvelles logiques participatives des salariés imbriquant les interactions entre dispositifs organisationnels et technologiques. En termes d’impact des TIC dans l’organisation, cela ouvre la voie à un pilotage de l’action à deux vitesses. D’une part, la conduite de projet compose avec son environnement incertain dans sa gestion et son management, d’autre part le développement des TIC accompagne cette dynamique interne à l’organisation. Les acteurs doivent alors apprendre de nouvelles techniques de maîtrise de l’information, s’adapter à de nouvelles pratiques professionnelles et modifier les usages traditionnels avec le recours aux technologies (mobile, intranet). Cependant, tous ne sont pas égaux face à l’accès à l’ordinateur, la maîtrise de l’outil informatique et l’usage des informations. Les TIC dynamisent les relations interindividuelles et par conséquent, le caractère coopératif de l’apprentissage. A noter cependant que le déterminisme technologique récupéré par cette sociologie du travail dépend des choix faits par l’entreprise. Le bilan d’études menées sur le sujet dresse un constat mitigé du recours aux TIC. Trois avantages se distinguent nettement dans l’organisation au niveau commercial, de la gestion du personnel et du système d’information. Avec le commerce électronique, les relations commerciales gagnent en efficacité si l’on en juge par l’instantanéité des transactions et la globalisation de l’offre de services, mais perdent en qualité relation client faute de proximité et de personnalisation de la démarche client. Du point de vue structurel, l’organisation est moins cloisonnée et le partage de l’information y est facilité. Sa flexibilité est alors gage d’adaptation plus compétitive au marché. Cependant il ne faut pas perdre de vue que la gestion des ressources humaines est avant tout, comme son nom 128 129 l’indique, la prise en compte de l’individu, de son parcours et de ses compétences. Alors quelle place réelle est laissée au salarié ? Enfin, la veille stratégique favorisée par les systèmes d’information présente un atout considérable, tout autant que le gain de productivité généré par le temps gagné à l’aide de l’outil informatique, la baisse des coûts notamment avec la délocalisation d’activités. Néanmoins, face à cette croissance liée au rôle des TIC, autant d’emplois sont en suspend. L’acteur au coeur des espaces de collaboration Avec l’internationalisation et le développement des outils de communication, l’acteur de la vie économique, à savoir le salarié, comprend et accepte autrement les contingences du monde du travail. L’organisation dans laquelle il évolue s’adapte à de nouveaux espaces de liberté, ceux du virtuel, de l’immatériel. L’environnement change avec une rapidité à laquelle les organisations ont du mal à s’ajuster. Il s’agit d’un environnement technique, informatique, électronique où la gestion de l’information immatérielle est l’élément central du développement loin des modes d’organisation de Taylor. Le changement n’est plus la seule condition de survie de l’organisation. Sa promptitude à s’adapter à un contexte incertain dont les données sont éphémères et où le travail s’effectue sur le mode de l’urgence162 est une condition supplémentaire : « L’urgence est depuis longtemps liée implicitement à l’efficacité ». Cela se traduit par « des outils conceptuels et technologiques [qui] ont permis d’augmenter l’efficacité du travail par une rationalisation des échéances et un contrôle continu du travail. C’est en grande partie, la dématérialisation du travail et des échanges qui a permis de rendre matériellement possible le contrôle du travail »163. Dans le prolongement de ces travaux, l’une des alternatives aux méfaits de l’urgence est la création de nouveaux espaces de collaboration visant à une meilleure circulation des savoirs. Avec le foisonnement des moyens de communication, le travail collaboratif qui « consiste en l’implantation de liens et d’espaces de communications coopératifs visant à une meilleure circulation des savoirs »164 rénove les moyens qui lui était jusqu’alors alloués en mettant la problématique de l’information et des connaissances au coeur de la stratégie de l’organisation. Le courriel, l’e-commerce (B2B ou B2), l’eemployé et de nombreux autres espaces d’échanges ouverts par les TIC abondent en ce sens. Mais quels sont les véritables enjeux collaboratifs de ces moyens ? Sont-ils d’ordre informationnel ou communicationnel ? Simon Fau apporte un élément de réponse en précisant que « les technologies d’information se transforment en technologie de communication quand le nombre de personnes susceptibles d’apporter les informations est équivalent à ceux qu peuvent les lire. […] il existe une convergence des technologies d’information et de communication qui permet de parler d’espace de communication pour l’ensemble des platesformes de collaborations dans les organisations. »165. Ces remarques ne sauraient circonscrire de manière exhaustive les contours de la réponse, mais offre un cadre à la réflexion. Des situations diverses et parfois paradoxales forment le paysage des PME en matière d’usage et de déclinaison stratégique des TIC. Un constat s’impose, il n'y a pas de modèle de PME qui fonde l’analyse en matière de relations aux TIC, mais une constellation d’entreprises, d’associations, 162 Gardère Elizabeth., « Cœxistence des cultures de l’urgence, de l’immédiateté et de crise », in Carayol Valérie., (dir.), Vivre l’urgence dans les organisations, L’Harmattan, coll. Communication des Organisations, Paris, 2005. pp. 137-145. de collectivités et administrations dont les stratégies gravitent autour de l’usage des TIC selon des variables organisationnelles, communicationnelles et environnementales toutes aussi singulières les unes que les autres. Une étude du Lerass de l’université Toulouse 3 montre que « l'insuffisante intégration des Technologies de l'Information et de la Communication dans les PME et la faible appropriation de ces technologies par les acteurs de ces entreprises n’est pas inéluctable ». Les analyses de six chercheurs montrent que chaque organisation a son mode d’appropriation des TIC et « qu’il n'y a pas de modèle de " PME branchée " ». Au même titre, il n’existe pas un profil type de travail collaboratif dans un projet mené avec les TIC, mais une diversité de comportements des acteurs en fonction du contexte et des stratégies individuelles qui se greffent au projet collectif. Les individus qui participent au travail collaboratif forment des réseaux d’acteurs au sens où ils sont « des ensembles non structurés par lesquels transitent des flux d’informations – entre des acteurs agissant dans la même sphère d’activité, et caractérisés par leur capacité à anticiper les changements de l’environnement, à décider des adaptations nécessaires, et à les mettre en œuvre »166. De ce point de vue, Jean-Pierre Boutinet167 expose toute la difficulté du projet à prendre en compte la condition humaine lorsque celle-ci se préoccupe du " faire advenir ", composante spécifique au projet. En effet, « un projet est une démarche spécifique qui permet de structurer méthodiquement et progressivement une réalité à venir. Un projet est mis en oeuvre pour élaborer une réponse au besoin d’un utilisateur, d’un client ou d’une clientèle. Il implique un objectif, des actions à entreprendre avec des ressources définies dans des délais donnés »168. Dans ce contexte, le réseau, (à ne pas confondre avec les relations interpersonnelles), est un agrégat d’acteurs qui se reconnaissent les uns les autres au niveau de leurs compétences et capacités d’influence, voire de leur complémentarité pour agir et communiquer ensemble indépendamment de leurs situations hiérarchique. Le réseau constitue donc à l’instar du projet un système sans concentration de pouvoir car tout jeu de pouvoir est à somme nulle dans ce système spontané où le point d’équilibre tient à l’émergence de contre-pouvoir quand surgissent des tentatives de prise de pouvoir. Chacun participe à une aventure collective au sens démocratique du terme par différence du système hiérarchique. Le mode réseau rejoint les espaces de collaboration au sens où il n’est que de l’immatériel, donc avant toute chose, de la communication. Il s’agit de communication puisqu’il s’agit d’un phénomène d’écoute et d’échange à partir duquel va s’échafauder une réalité en devenir, même si trop d’organisations sont encore souvent confrontées à leur système de procédures qui heurte la communication. En effet, on peut distinguer quelques limites au réseau comme l’apparition de règles qui en rigidifient le fonctionnement, ou bien la primauté de l’individualisme sur la dynamique collective, voire le goût de la préservation des avantages acquis, qui sont des freins au changement. Là où les techniques de l’informatique et de l’électronique pèsent sur la vitesse de transformation de l’environnement, les logiques de l’individu sont complémentaires mais pas nécessairement en accord avec les logiques de l’équipe projet : 166 Neuschwander Claude., L’acteur et le changement. Essai sur les réseaux, Seuil, Paris, 1991. 163 Fau Simon., p. 107. Op. cit. 164 Fau Simon., p. 113. Op. cit. 167 Boutinet Jean-Pierre., Anthropologie du projet, PUF, Paris, 2005. 165 Fau Simon., p. 114. Op. cit. 168 AFNOR, norme X50-106. 129 130 « Intégré à un dispositif global de management de l’information, le système de communication numérique devra donc se positionner aussi comme vecteur d’un « apprentissage communicationnel ». Se pose alors la question de repenser les formes d’association (au sens de Gabriel Tarde ou de Bruno Latour), de trouver les moyens de favoriser le développement de pratiques communicationnelles collaboratives dans un contexte numérique, les formes coopératives internes (facteur clé d’appropriation de la démarche et de l’outil), de générer aussi des représentations pertinentes et communes du projet, de ses finalités ainsi que du système de d’information mis à disposition des utilisateurs (architecture, contenus, fonctionnalités, interfaces). Cet apprentissage communicationnel constitue une pédagogie du changement. Cela ne va pas sans résistances et conflits »169 Toutefois, la caractéristique commune d’un projet et des TIC est la visée transversale de la circulation de l’information et le décloisonnement hiérarchique. Si un salarié reste subordonné à sa hiérarchie fonctionnelle, le temps du projet il est également dans une logique d’équipe recomposée autour d’un chef de projet qui est en mesure de donner d’autres consignes de travail. Dans cette configuration, le salarié peut s’inscrire dans au moins trois types170 de travail collaboratif avec les TIC : la coopération spontanée où s’expriment le potentiel collaboratif et l’étude des comportements, la coopération encouragée où s’expriment les conflits, la confiance et les moyens de gratification des comportements collaboratifs, la coopération orchestrée qui répond aux besoins de l’organisation sur la base de l’engagement. Qu’il soit dicté par l'entreprise, ou bien élaboré spontanément par les individus, le projet est devenu indispensable pour ne pas marginaliser l’organisation. Il traduit la recherche d'une recomposition des liens sociaux en même temps que le travail collaboratif tisse des liens entre les individus, les services, etc. Comme le projet, le travail collaboratif qui recourt aux TIC mobilise des acteurs responsables. Ils ont la capacité et la volonté de prendre des initiatives pour développer l’organisation à laquelle appartiennent. Ceci sous l’impulsion et le contrôle d’un dirigeant qui assure la continuité de la structure et gère les fractures générées par les changements. De telle sorte que cela confère aux acteurs la possibilité d’être une force de proposition permanente, tout en ayant une forme de pouvoir, bien que non statutaire et non hiérarchique. L’exemple du courriel : communication coopérative écran d’une pseudo La tendance managériale veut que le recours aux TIC dans l’organisation se généralise. L’expansion mondiale du ebusiness semblant irréversible, tous les efforts doivent porter sur la bonne insertion du progrès technique dans la stratégie d’entreprise. Pourtant, cet engouement est à considérer avec certaines limites car avant tout, il s’agit davantage d’un outil situé à l’interface entre divers acteurs plutôt qu’une panacée à la circulation de l’information, aux prises de décisions, etc. La question latente est de savoir dans quelle mesure les 169 Carmes M., Noyer J-M., Intranet-Extranet-Internet : un enchevêtrement complexe. Processus d’apprentissage organisationnel et représentation des dynamiques des organisations complexes. INTRACOM 2005, Québec, novembre 2005 http://www.grico.fr/ 170 Ballard D.I., Seilbold D.R., « Organizational Members Communication and Temporal Experience » in Communication Research, pp. 135-172, 2004. Cité in Fau Simon., « Contenir les méfaits de l’urgence dans les organisations par la création de nouveaux espaces coopératifs », pp. 107-120, in Carayol Valérie., (dir.), Vivre l’urgence dans les organisations, L’Harmattan, coll. Communication des Organisations, Paris, 2005, p. 116. Voir la classification des trois types de coopérations sous l’angle de l’acteur et celui du groupe. TIC sont-elles un vecteur de changement ? Pour y répondre, une piste semble se dessiner autour de la distinction entre l’outil et ses pratiques organisationnelles qui ne sont donc pas à confondre avec les stratégies émergentes et leurs enjeux liés aux usages des TIC. Il s’agit de penser les politiques d’information et de communication tout en envisageant que « L’avenir appartient à ceux qui sauront investir dans l’intelligence, la connaissance (et) l’innovation »171, à ceux qui feront non seulement confiance à la technique mais aussi aux hommes. Denis Benoît mentionne à ce sujet que « du fait notamment de l'idéologie ambiante, le manager qui introduit les N.T.I.C. dans son entreprise se livre à une action dont la valeur positive efficiente pourrait, paradoxalement, bien plus se situer dans l'ordre du symbolique que dans celui de la stricte technique. Attention pourtant à ce qu'une utilisation concrète mal mesurée de ces technologies n'en vienne à compromettre les bénéfices escomptés »172. Les bénéfices étant les changements dans les interactions des acteurs en situation de travail, voire un leurre de transparence et de libre accès à l’information. La valeur opératoire des TIC s’estime aux dispositions prises au niveau des techniques. En référence à Dominique Wolton, l’auteur ajoute que « Plus on possède des techniques performantes qui permettent de gagner du temps et de l’espace, plus il faut par ailleurs reperdre ce temps et cet espace »173. En effet, les TIC ne démocratisent guère plus l’information que le papier. Si elles banalisent l’accès, c’est par excès d’information plus que par pertinence du message voire de la composition de la liste de diffusion. Le jeu des destinataires sélectionnés dans la liste des contacts d’une messagerie amplifie d’un seul « clic » le nombre de récepteurs, mais dans cette profusion, tous ne sont pas réellement concernés par le message. L’écran de fumée informationnelle créé par le foisonnement des courriels masque principalement une vacuité de l’information stratégique plutôt que sa construction sur un mode collaboratif. En effet, le rôle majeur du courriel est essentiellement d’informer plus que de communiquer, même si les pratiques de réflexivité tendent à émerger. Celui-ci s’inscrit dans une logique de communication ascendante ou descendante plus que participative, la rétroaction laisse souvent trop peu de place à la négociation, au débat, aux échanges constructifs, au profit d’échanges d’informations construites, déconstruites, reconstruites mais non concertées. Cela est d’autant plus vrai dans les administrations qui sont très procédurières et compartimentées au niveau des protocoles de prise de décision : « dans une organisation trop cloisonnée, il suffit de se heurter à l’une des cloisons transversales pour que la transmission de la communication soit compromise, et parfois de façon définitive »174. En effet, les administrations fonctionnent essentiellement sur le mode de la circulation d’information de manière unilatérale et très hiérarchisée où la capacité de changement témoigne parfois d’une certaine inertie dans la mise en œuvre d’innovations : « dans une entreprise trop cloisonnée, il suffit de se heurter à l’une des cloisons 171 Montoux Alain., L'Impact des Technologies de l'Information et des Communications sur les Pmes-Pmis, Publibook, Paris, 2002. 172 Benoît Denis., « Les N.T.I.C. dans l'entreprise : entre efficacité validée et effet placebo ; de l'usage raisonné à la dérive pathologique » in actes du colloque Pratiques de situations de communication et N.T.I.C., Université de Montpellier, 2003 173 Wolton Dominique., « Espace social et communication », in Médiation, communication et influence - Séminaires thématiques, 1997, volume 2 du cycle 1995-1998, Centre de recherches du CELSA– EA 1498, SIC, p. 50. Cité in Benoît Denis., « Les N.T.I.C. dans l'entreprise : entre efficacité validée et effet placebo ; de l'usage raisonné à la dérive pathologique » in actes du colloque Pratiques de situations de communication et N.T.I.C., Université de Montpellier, 2003. 174 Neuschwander Claude., L’acteur et le changement. Essai sur les réseaux, Seuil, coll. L’épreuve des faits, Paris, 1991. P. 111. 130 131 transversales pour que la transmission de la communication soit compromise, et parfois de façon définitive »175. Pourtant, c’est paradoxalement le siège de décisions, voire de changements. Les administrations et grandes entreprises n’incarnent pas la facilité de communication, la capacité d’adaptation ni le soutien à l’initiative individuelle. Malgré cela, pour gagner en flexibilité interne, l’une des alternatives à la hiérarchie pyramidale est, entre autres, le mode réseau qui offre un « moyen d’inverser symboliquement et opérationnellement la pyramide hiérarchique : en donnant le pouvoir et de l’initiative aux acteurs, en incitant le top management à adopter un comportement de commando »176. En effet, l’acteur projet est aussi un acteur réseau. Il s’inscrit dans une temporalité tout à la fois éphémère et urgente. Il est astreint à une double contrainte : celle du temps du projet et celle de la circulation de l’information en temps réel. Ce qui pose, entre autres, la question de la nature des traces laissées face aux contingences du mode projet et face à la pertinence des référentiels professionnels qui se construisent sur la base d’écrits d’écran à l’occasion du travail collaboratif. Des recherches de France Télécom R&D et du Laboratoire PSI FRE CNRS INSA et Université de Rouen concluent que « Le concept de document a sensiblement évolué depuis la mise au point des techniques permettant sa dématérialisation. D'objet entreposé dont l'accessibilité ne dépend que des capacités de publication et de diffusion d'un éditeur, le document devient un objet de communication et d'échange »177. L’exemple du courriel a mis en exergue la bipolarité des dimensions de la communication définit par Dominique Wolton178. Les deux dimensions qui cohabitent sont d’une part la dimension normative et d’autre part, la dimension fonctionnelle. Ainsi, le courriel répond à la dimension normative en favorisant les échanges et permettant une certaine mutualisation, tandis que la dimension fonctionnelle assure le fonctionnement des quatre composantes de l’organisation que sont les flux commerciaux, financiers, techniques et des ressources humaines, paramètres liés aux contraintes organisationnelles de toute organisation et impactés par le changement. Les limites des TIC Lucien Sfez affirme que « l’information n’est pas le savoir. Pour trouver l’information adéquate, il faut disposer du savoir préalable qui permette de poser les bonnes questions »179. Or un constat s’impose. La confusion est souvent de mise dans les organisations qui amalgament d’une part la maîtrise de l’information et le pouvoir que cela donne, avec d’autre part la connaissance et la compétence qui lui est associée. L’outil que sont les TIC ne résout pas cette dichotomie, elle aurait même tendance à augmenter la fracture. La consommation à outrance de l’information dont la rapidité de circulation est l’abondance laisse parfois perplexe conduit à l’adage bien connu « trop d’information, tue l’information ». Véhiculée tous azimuts l’information perd de sa valeur par sa prolifération. Parfois juste lue, elle n’est même plus analysée. Les TIC ouvrent tendent vers la marchandisation de l’information à l’image de la consommation de masse, ce qui ouvre les portes de l’information jetable. Chaque utilisateur des TIC devient simultanément source, destinataire, archive, d’une information dématérialisée : « toute information communiquée apparaît comme toujours dotée de certains effets spécifiques sur le récepteur (quoique impossibles à parfaitement prédéterminer, calculer ou maîtriser), ce qui signifie qu'elle n'est jamais neutre et que sa forme est, au moins sur le plan pragmatique, c’est-à-dire sur le plan des effets de la communication sur le comportement, peut-être aussi importante que son contenu180. Dès lors, d’après cette conception, rien en fait ne saurait être plus hasardeux pour les entreprises que d’opérer automatiquement l’amalgame, pourtant si séduisant et facile, entre ce qui est communiqué -la masse considérable des transmissions rapides autorisées par les N.T.I.C.- et le réel lui-même sans que, toujours, la modulation, la discrimination, l’approfondissement bref l’analyse, ne vienne réfléchir des éléments qui, finalement, ne doivent être constamment considérés que comme simple base de travail »181. L’utilisateur est acteur parmi un groupe et traite une information immatérielle. Dans ce réseau, « il ne devra pas seulement se contenter de mettre en relation les utilisateurs ou groupes d'utilisateurs mais également assurer les fonctions d'intermédiation permettant de personnaliser l'accès et la représentation de l'information »182. Enfin, l’inégalité face aux usages des TIC s’exprime également dans la gestion quotidienne du document numérique. Elisabeth Kolmayer et Marie-France Peyrelong démontrent que la valeur déclarative et la décontextualisation des documents numériques sont des limites du dispositif d’autant que « les usages, ou les difficultés d'usage, de ce dispositif soulignent l'insuffisance d'une telle transposition mais ne permettent pas d'extrapolations. Ils suggèrent cependant quelques questions sur la notion de document dans un dispositif informatisé de capitalisation des connaissances » 183. Les auteurs constatent que la connaissance se dégrade au profit d’une lecture collective souvent dépourvue d’analyse faute des éléments contextuels ou par abus d’appropriation, ce qui conduit à dénaturer l’information originale. Il est alors difficile de parler de capitalisation des connaissances. Quelque soit le modèle, la modélisation comporte ses limites. La dimension fonctionnelle reste une variable avec laquelle l’usage des TIC doit compter d’autant que le flux d’informations subit des changements. Le document d’entrée et celui de sortie diffèrent car entre temps, des documents de travail intermédiaire ont modifié l’information. Par ailleurs, les contraintes inhérentes aux « organisations renseignent sur les protocoles liés aux échanges de documents, donc sur les codes nécessaires à la compréhension des informations »184. Bibliographie Ballard D.I., Seilbold D.R., (2004). « Organizational Members Communication and Temporal Experience » in Communication Research. Benoît Denis., (2003). « Les N.T.I.C. dans l'entreprise : entre efficacité validée et effet placebo ; de l'usage raisonné à la dérive pathologique » in actes du colloque Pratiques de situations de communication et N.T.I.C., Université de Montpellier. 180 175 Neuschwander Claude., p.111. Op., cit. 176 Voir Watzlawick Paul, Helmick Beavin Janet, Jackson Don D., Une logique de la communication, Seuil, 1972. Neuschwander Claude., p. 111. Op cit. 181 177 Gardes Joël., Dionisi Dominique., Trupin Eric., Labiche Jacques., Le document dans un réseau de communautés d'intérêts : un avatar ?, Working paper, Semaine du Document Numérique (SDN 2004), Forum pluridisciplinaire "document et organisation", La Rochelle. 22 juin 2004. 178 179 Wolton Dominique, Penser la communication, Flammarion, Paris, 1997. Sfez Lucien, « L’idéologie des nouvelles technologies », in Manières de voir, n°46, 1999, pp. 20-22. Benoît Denis., p. 5. Op., cit. 182 Gardes J., et al., op., cit. 183 Kolmayer Elisabeth., Peyrelong Marie-France., Partage de connaissances ou partage de documents ?, 2005. 184 Voir à ce sujet les travaux de la Semaine du Document Numérique (SDN 2004), Forum pluridisciplinaire "document et organisation", La Rochelle. 22 juin 2004. 131 132 Boutary Martine., (dir.), (2003). TIC et PME, des usages aux stratégies, L’Harmattan, Paris. Carayol Valérie., (dir.), (2005). Vivre l’urgence dans les organisations, L’Harmattan, coll. Communication des Organisations, Paris. Fau Simon., (2005). « Contenir les méfaits de l’urgence dans les organisations par la création de nouveaux espaces coopératifs », pp. 107-120, in Carayol Valérie., (dir.), Vivre l’urgence dans les organisations, L’Harmattan, coll. Communication des Organisations, Paris. Gardère Elizabeth., (2005). « Cœxistence des cultures de l’urgence, de l’immédiateté et de crise », in Carayol Valérie., (dir.), Vivre l’urgence dans les organisations, L’Harmattan, coll. Communication des Organisations, Paris. Montoux Alain., (2002). L'Impact des Technologies de l'Information et des Communications sur les Pmes-Pmis, Publibook, Paris. Neuschwander Claude., (1991). L’acteur et le changement. Essai sur les réseaux, Seuil, coll. L’épreuve des faits, Paris. Sfez Lucien., (1999). « L’idéologie des nouvelles technologies », in Manières de voir, n°46. Watzlawick Paul, Helmick Beavin Janet, Jackson Don D., (1972). Une logique de la communication, Seuil, Paris. Wolton Dominique., (1997). « Espace social et communication », in Médiation, communication et influence - Séminaires thématiques, 1997, volume 2 du cycle 1995-1998, Centre de recherches du CELSA– EA 1498, SIC. Wolton Dominique., (1997). Penser la communication, Flammarion, Paris. TIC, organisation et communication : Entre informativité et communicabilité Sylvie Grosjean [email protected] Luc Bonneville [email protected] Université d’Ottawa Introduction Les technologies de l’information et de la communication (TIC) occupent une place grandissante dans les organisations et donnent naissance à de nouveaux modes de gestion et de coordination : échange d’information, travail collaboratif, suivi d’activités, archivage et documentation, encadrement et contrôle des activités, surveillance à distance, etc. Les discours managériaux font la promotion du partage de connaissances présentant les TIC comme étant à la fois facteur de flexibilité et un outil soutenant la collaboration (Benghozi, 2001). On assiste donc de plus en plus à une instrumentalisation des activités communicationnelles (Progiciel de Gestion Intégrée, Groupware, Workflow, etc.) permettant aux organisations de répondre à des logiques de productivité, d’efficience, de contrôle et de réactivité. Ainsi, se met en place une gestion informatisée du flux de travail assimilant les processus de communication à des processus opérationnels. Par conséquent, n’a-t-on pas tendance à instrumentaliser la communication au sein des organisations afin de répondre à un impératif productif au détriment d’une communication instrumentée soutenant la production de sens et le partage de connaissances? Pour répondre à cette question, dans un premier temps nous proposerons une mise en perspective sociohistorique de la tendance dans les organisations à instrumentaliser la communication pour servir des objectifs de productivité, d’efficience et d’efficacité. Nous tenterons notamment de montrer en quoi les TIC sont associées à une posture objectiviste empreinte d’une vision purement informationnelle de la communication au sein de l’organisation. Dans une seconde partie, nous soulignerons la nécessité d’ancrer la vision de la communication organisationnelle dans le paradigme de la communicabilité (Jacques, 1985) car les organisations sont aussi soumises à un impératif créatif, c’està-dire à une création de valeur associée à des formes de « coopération cognitive » (Zacklad, 2003) reposant sur la mise en réseau de collectifs de travail. 1. Instrumentalisation de la communication dans l’organisation 1.1 Les discours sur l’avènement d’une société de l’information et de la communication : un point de départ C’est avec la généralisation des services dans l’économie (au cours des années 50) que se sont construits de nombreux discours sur l’avènement d’une nouvelle société. On commence alors à réfléchir à une nouvelle phase du processus d’industrialisation qu’on va nommer de différentes façons, sans parvenir à un consensus. L’arrivée de plus en plus massive des TIC, à partir des années quatre-vingts, a pressé les chercheurs à imaginer l’arrivée de cette « nouvelle société » encore qualifiée de plusieurs manières (Tremblay, 1995, p. 132). On parle en effet d’une « économie de l’immatériel », d’une « société du savoir », d’une « société commutative », d’une « société de la communication », d’une « cyberéconomie », d’une « société postbusiness », d’une « société de l’information », d’une « économie de la troisième vague », d’une « économie en réseaux », d’une « économie de l’information », d’une « économie du savoir », etc. Si les penseurs ne s’entendent pas sur le qualificatif le plus juste, ils s’entendent toutefois pour dire que la société qui se construit en est une fondée sur le savoir et l’information. Derrière ces concepts se déploie une réalité que nous voulons précisément questionner dans ce texte, en parlant non pas uniquement d’une société de l’information mais de son ancrage dans le paradigme de l’informativité, celui-ci privilégiant une vision monologique et informative de la communication, orientée avant tout sur la transmission185 d’un message porteur d’un contenu186 (une information). 1.2. Les TIC comme instruments de transformation des organisations et du travail Comme l’ont déjà noté plusieurs, les TIC ont fait faire un 185 La transmission est définie comme l’acte de transporter une information dans le temps et dans l’espace (Debray, 2001). 186 Il s’agit comme le souligne Taylor (1994), d’une approche a-contextuelle dans laquelle le message est porteur d’un contenu (une information), qui est traité comme ayant une seul signification (Giroux et Demers, 1998). 132 133 saut qualitatif au travail fondé sur le savoir ainsi que Becker (1962 et 1964), Machlup (1962), Bell (1973), Porat (1977) et plusieurs autres l’ont déjà analysé il y a plus de trente ans. Sur le plan technologique, l’informatisation permet aux organisations l’adoption d’un langage commun pour traiter l’information, ce qui va constituer une véritable « bifurcation technologique » qui apparaît comme un saut qualitatif fondamental dans la mesure où elle offre aux différents systèmes électroniques une possibilité de communication et d’ouverture sur un mode « intelligent » (Caccomo, 1996, p. 11-12). C’est la généralisation des TIC dans plusieurs sphères d’activité sociale qui a d’ailleurs conduit Gernaouti-Hélie et Dufour à parler d’une véritable « révolution informationnelle » (1999, p. 96). Dans cette « nouvelle » économie, c’est le travail en tant que tel qui a été appelé à se transformer le plus significativement. Cette transformation découle notamment de l’apparition de nouveaux emplois qui n’existaient pas auparavant. En effet, Bühler et Ettighoffer (1995) parlent de l’émergence de « l’homme polyactif » et des « nomades électroniques » (networkers187). L’homme polyactif, ainsi que Bühler et Ettighoffer le veulent, représente une nouvelle figure du travail qui s’exprime à travers la capacité d’un individu d’occuper plusieurs emplois au cours de sa carrière, favorisant ainsi la circulation de son savoir dans les organisations pour lesquelles il est appelé à travailler. En outre, dans ce nouveau contexte socio-économique, l’utilisation des TIC, selon Bühler et Ettighoffer, vont créer des réseaux d’affaires dans lesquels le savoir circule d’un point à l’autre du globe. On a vu ainsi se généraliser, dans plusieurs organisations, le « travail en réseau » où le travailleur embauché, délocalisé, accomplit des tâches de gestion de l’information pour éventuellement contribuer à la construction d’un service en ligne (Ettighoffer, 1995, p. 225-226). Cela suppose que le travailleur de l’information soit capable de traiter de l’information, de l’analyser, de la réorganiser, de la mettre à jour, de la faire circuler, etc. ; bref de lui donner une valeur ajoutée. L’information devient ici une fin en soi, on pourrait dire réifiée en chose avec un pouvoir de détermination profondément ancré dans son unité singulière. C’est là le cœur du paradigme de l’informativité qui, par nature, débouche sur un déterminisme certain. D’autres, comme Castells, parlent de l’émergence du paradigme informationnel (Castells, 1998, p. 284) dans lequel le travail est réorganisé par les organisations qui optent pour l’informatisation de l’ensemble de leurs activités. Dans ce paradigme, pour Castells, les travailleurs possèdent des statuts qui sont propres à l’utilisation qu’ils font des TIC et de l’information. Six statuts fondamentaux, avec fonctions particulières, peuvent être distinguées : les « capitaines » (qui agissent au niveau de la décision et de la planification), les « chercheurs » (qui lancent les innovations), les « concepteurs » (qui régissent les innovations), les « intégrateurs » (qui voient à l’articulation des tâches stratégiques de planification et d’innovation), les « opérateurs » (qui assurent le bon fonctionnement des tâches nécessitant de la créativité) et les « manœuvrés » (qui contrôle les processus d’automatisation et de programmation) (Castells, 1998, p. 285). Pour Castells, une telle typologie doit toutefois s’articuler aux différentes tâches justement reliées en réseau en temps réel. Castells définit le rôle des « connecteurs » (qui font des connexions pour eux-mêmes avec d’autres), des « connectés » (qui travaillent avec d’autres en ligne indépendamment de leur volonté), des « déconnectés » (qui effectuent des tâches en parallèle au réseau de communication, souvent à l’extérieur de celui-ci), des « décideurs » (à qui reviennent les décisions finales), les « participants » (qui participent aux décisions) et des « exécutants » (qui préparent le levier menant aux décisions). Bref, cette courte énumération sert surtout à mettre en lumière les transformations de l’organisation du travail qui ont eu cours, et qui continuent d’avoir cours, dans le cadre de l’émergence de la société de l’information. Une question se pose toutefois, de façon rétrospective : est-ce que les TIC ont apporté les bénéfices escomptés pour les organisations ? On pourrait répondre par la négative. En effet, le triomphe du paradigme de l’informativité intimement lié à ce grand projet d’informatisation, ou de généralisation des TIC dans toutes les sphères d’activités sociales, a plutôt conduit à des échecs qui se mesurent quelquefois en pertes financières pour les organisations188. Ces pertes trouvent leur origine dans la diminution de la productivité des organisations, celle qu’on a pourtant voulu augmenter avec l’implantation des TIC. Or, c’est en observant les logiques d’implantation des TIC dans les organisations qu’on constate que ces technologies ont d’abord et avant tout été déployées à des fins de rationalisation (Bonneville, 2003b). L’information était dès lors considérée sous une seule dimension, c’est-à-dire suivant sa capacité de réseautifier l’organisation qui serait ainsi en mesure de modifier considérablement sa temporalité propre à des fins de productivité (Bonneville, 2003a, chapitre 4). Cependant, dans ce paradigme, on a oublié de prendre en compte les usages, souvent très complexes (Jouët, 2000 ; Chambat, 1994), des TIC dans un contexte où l’information était considérée comme étant capable à elle seule, spontanément, inévitablement, mécaniquement, d’augmenter la productivité du travail (Bonneville, 2003a, chapitre 4). 1.3. Quand les TIC répondent d’abord et avant tout à des impératifs de rationalisation Le paradigme de l’informativité, comme nous venons de le voir, s’est construit dans la foulée des discours prônant les bienfaits d’une société de l’information en voie d’émergence. On a pensé que l’information, grâce aux TIC, pouvait révolutionner les pratiques organisationnelles qu’on a voulu rendre plus performantes. Or, cette performance tant convoitée reposait la plupart du temps sur la volonté de rationaliser l’organisation du travail, ce qu’on pensait possible avec la transformation du rapport au temps et à la vitesse (Bonneville et Grosjean, 2006). Par exemple, dans une recherche sur l’implantation des TIC dans le secteur de la santé, nous avons constaté qu’on investissait les TIC de la capacité à mettre en place un reengineering capable de transformer structurellement le traitement et la circulation de l’information dans les organisations de soins (Bonneville, 2003a, chapitre 4). L’idée sous-jacente était d’intensifier le travail médical, c’est-à-dire l’optimiser, en contraignant les professionnels de la santé à traiter plus de patients dans un temps de plus en plus court, ce qu’on pensait possible en faisant circuler l’information plus rapidement. C’est à cette condition qu’on pensait que les professionnels de la santé pourraient soigner les patients de façon optimum, plus productive, plus performante. Pour atteindre cet objectif, il fallait cependant surveiller et contrôler la pratique médicale. Les TIC allaient y contribuer, étant l’instrument clé d’un contrôle continuel (et de surcroît, en temps réel) des professionnels de la santé où ceuxci sont dès lors considérés comme des exécutants par les décideurs qui deviennent ainsi les planificateurs. Dans cette dynamique où l’information est instrumentalisée, les professionnels de la santé sont contraints de s’adapter à ce qui est déjà conçu et planifié, c’est-à-dire à des tâches devant être effectuées selon des standards prescrits de façon 188 187 Voir aussi Ettighoffer (1995). Voir, entre autres, les travaux sur le « paradoxe de productivité » (Rallet, 1997). 133 134 bureaucratique. Or, les effets pervers d’une telle logique d’informativité se sont avérés nombreux dans la mesure où on ne s’est que très peu préoccupé de la façon dont l’information est comprise, assimilée et partagée, mais surtout dans quelle mesure cette information fait sens pour les individus. D’abord, nous pouvons constater une intensification du travail médical fondée sur les principes tayloristes d’organisation du travail industriel (Bonneville, 2003b). Cela se conjugue avec une augmentation de la charge de travail des professionnels de la santé, du fait que si les TIC accélèrent la circulation de l’information, du même coup elles ouvrent un potentiel d’augmentation de la cadence de travail. Le risque étant ici d’alourdir considérablement la charge de travail quotidienne des professionnels de la santé par la mise en place d’une organisation où ils sont contraints d’effectuer le plus grand nombre de tâches possible dans un temps de plus en plus court. Or, la compression du temps n’est pas une condition suffisante à l’amélioration de la qualité des soins. Comme l’a montré Gadrey, l’informatisation du travail des professionnels de la santé, même si elle change le rapport à l’information, ne modifie pas pour autant « l’essentiel de leur activité : recueillir des informations sur les symptômes, diagnostiquer, rassurer, soigner, prescrire, suivre, etc. » (2001, p. 70). Dit autrement, pour reprendre cet exemple, l’utilisation des TIC, même si elle peut conduire à des économies de temps, n’entraîne pas automatiquement une amélioration de la qualité du travail médical et une amélioration de la qualité du service offert au patient. Il nous est même permis de douter que l’économie de temps ainsi procurée débouchera de façon significative sur une amélioration de la qualité des services de soins, puisqu’on sait que les services de soins reposent fondamentalement sur des interactions humaines, des processus sociaux, comme l’ont montré plusieurs chercheurs en sociologie et en économie des services et de l’information189. 2. Vers une communication instrumentée au sein des organisations 2.1. Travail en réseau et création de valeur : de la nécessité de s’ancrer dans le paradigme de la communicabilité (Jacques, 1985) De nombreux chercheurs (Midler, 1996 ; Cohendet et Diani, 2003) font le constat que la collaboration et la communication sont au cœur des processus de développement, d’adaptation et d’anticipation des organisations car elles favorisent la création de valeur associée à des formes de « coopération cognitive » (Zacklad, 2003). Les organisations s’appuient sur les TIC pour soutenir le travail collaboratif et l’échange de connaissances. Ces technologies sont le vecteur d’un nouveau mode de productivité qui se caractérise par une mise en réseau des énergies, des savoirs afin de répondre avec plus de « créativité », plus « d’intelligence » aux nouveaux défis économiques. En effet, les organisations dépendent en grande partie de l’ensemble des connaissances et des savoirsfaire en action, construits et partagés par les individus qui y travaillent. Mais, comme nous l’avons évoqué un peu plus haut pour le cas du secteur de la santé, la mise en place de dispositifs informatiques visant, par exemple, à capitaliser les connaissances afin de constituer une mémoire organisationnelle se centre sur l’outil technique et le contenu véhiculé par cet outil190, réduisant le processus de 189 Voir, entre autres, J. Oulès, La psychologie médicale, Toulouse, Privat, 1966. ; P.-H. Keller et J. Pierret (sous la direction), Qu’est-ce que soigner ? Le soin, du professionnel à la personne, Éditions La Découverte et Syros, Paris, 2000. ; et A. Philippe et C. Herzlich, Sociologie de la maladie et de la médecine, Paris, Nathan, 1994. 190 C’est le cas par exemple de l’implantation du Dossier Patient Informatisé communication à une simple transmission de connaissances encapsulées dans un support matériel (Grosjean, 2006). Autrement dit, l’hégémonie d’un modèle axé sur une conception « technique » de la transmission laisse de côté toute la question du sens co-construit intersubjectivement à travers « un tissu de conversations » (Taylor, 1988 ; Taylor et al., 1996). Or, toute communication (même médiatisée par les TIC) est une interaction, une transaction entre locuteurs, c’està-dire un phénomène dynamique produisant une transformation (Allard-Poesi, 2003 ; Brassac, 2005). Il n’y a donc pas des émetteurs et des récepteurs mais des interlocuteurs engagés dans un processus de construction collective de sens. En conséquence les processus communicationnels s’accomplissant au sein d’une organisation doivent être abordés comme le lieu de l’engendrement d’un sens coconstruit (Trognon et Brassac, 1992), sens dont les interlocuteurs sont co-responsables. L’idée n’est plus de communiquer à quelqu’un une information, mais de communiquer avec quelqu’un. Autrement dit, loin d’être uniquement à l’origine ou à l’aboutissement d’un échange communicationnel, l’individu participe à cet échange. Ainsi, il s’y engage afin de soutenir un processus de communication où chacun se veut co-auteur des messages produits à l’intérieur d’un espace interlocutif qu’est l’organisation. Nous défendons donc l’idée d’une communication organisationnelle ancrée dans le paradigme de la communicabilité (Jacques, 1985) en refoulant l’analogie télégraphique et en posant la construction d’une intercompréhension comme fondamentale. 2.2. De la nécessité de repenser l’articulation TICActeur-Organisation Ancrer la communication organisationnelle dans le paradigme de la communicabilité est pour nous l’occasion de mener une réflexion sur la place et le rôle des TIC (vu comme des « artefacts »191 technologiques) dans les processus de communication et de collaboration des individus en situation de travail. Nous soutenons une vision des TIC en tant qu’artefact inscrit dans une dynamique interactionnelle (Grosjean, 2004) et inséré dans un ensemble d’usages afin de souligner leur caractère hybride, à la fois artefacts informationnels192 (Norman, 1993) et acteur social (Latour, 1994 ; Semprini, 1995). Par exemple, les situations de travail collaboratif, rendues possible par de nombreux outils informatiques, ne peuvent pas être réduites à une simple mise en commun d’informations, de documents ou de travaux. Autrement dit, il est impossible de considérer les TIC comme de simples artefacts informationnels, d’autant plus si l’objectif organisationnel est de favoriser le partage de connaissances et de soutenir un impératif créatif. En effet, collaborer à distance implique de produire en commun, de construire collectivement du sens. Pensons notamment aux communautés de pratiques (Wenger, 1998), aux communautés virtuelles d’apprentissage (Grosjean, 2005) dont l’existence même repose sur la dynamique des interactions communicatives entre les membres de la communauté. Ainsi, collaborer à distance ou travailler en réseau exige de construire des liens intenses, étroits ; mais aussi une implication, un engagement des individus afin de permettre l’émergence d’un collectif flexible, aux contours d’appartenance évolutifs, souples et répondant à un besoin pour l’organisation de communication de savoirs, de (DPI). 191 Les « artefacts » sont des instruments, entendant par là, « une entité bicéphale, mixte, à la fois artefact et mode d’usage » (Rabardel, 1995, p.91). 192 Un artefact informationnel est « un outil artificiel conçu pour conserver, exposer et traiter l’information dans le but de satisfaire une fonction représentationnelle » (Norman, 1993, p.18) 134 135 construction de connaissances. Pour ce faire, il est important de bien saisir la place des TIC dans l’activité quotidienne des travailleurs parce qu’elles ont un statut d’acteur social de part leur capacité à agir et à faire agir en modifiant les interrelations (Semprini, 1995). Il est donc nécessaire de sortir les TIC du statut réducteur d’instrument ou de simple élément de médiation qu’elles occupaient traditionnellement dans la relation de l’agent à son environnement de travail afin de les considérer comme une composante cognitive centrale des systèmes d’activité et de coopération dans les organisations (Grammacia, 2001). Par conséquent, cette vision des TIC comme artefact reconfigurant l’espace de travail, les interactions sociales et les processus sociocognitifs implique de repenser leur intégration dans une dynamique organisationnelle et leur rôle dans l’émergence d’un « agir professionnel ». Dans le cadre de recherches menées dans le secteur de la santé (Bonneville, 2003a), nous avons pu constater que l’implantation de systèmes informatiques est souvent pensée de manière isolée par les gestionnaires et suivant une logique « technocentrée » (Rabardel, 1995). Pourtant de nombreux travaux dans le domaine de la conception ont souligné les dangers d’une prise en compte trop tardive des besoins des utilisateurs lors de la conception et de l’implantation d’un dispositif technique (Grégori, 1999 ; Grosjean et al., 1996 ; Grosjean et al., 2000). Un outil de travail collaboratif, un système de gestion des connaissances, n’ont de « sens et d’efficacité que s’il(s) s’intègre(nt) dans une démarche plus globale et préalable d’un projet humain » (Badillo et Rizza, 2004, p.67). Les TIC doivent donc être considérées comme des artefacts qui proposent des ressources, supportent la structuration et l’exécution d’actions humaines tout en reconfigurant l’activité communicationnelle et sociocognitive des individus. Ainsi, ces technologies ne doivent pas servir uniquement de prothèses informationnelles mais contribuer à l’actualisation d’un « agir professionnel », et pour se faire leur intégration au sein de l’organisation doit être pensée selon une logique intégrative ou « anthropocentrée » (Rabardel, 1995). Autrement dit, une logique de conception et d’intégration centrée sur les besoins communicationnels et professionnels des individus qui composent l’organisation. Conclusion : L’implantation des TIC au sein des organisations favorise le développement de logiques de travail plus horizontales et entraîne des changements majeurs, notamment une redéfinition des processus communicationnels, des rôles et une recomposition de l’organisation autour de l’usage du système informatique (Teulier, 2005). Par ailleurs, les recherches menées en milieu organisationnel (Bonneville, 2003a ; Cardon et Licoppe, 2000) font apparaître de très nombreuses tensions et un travail incessant d’ajustement entre un impératif productif et un impératif créatif. « La description de ces tensions constitue un enjeu à la fois en termes organisationnels, afin de comprendre les transformations actuelles du monde productif, en termes cognitifs afin de saisir, de façon détaillée, les tensions qui pèsent sur les acteurs plongés dans les nouveaux univers de travail » (Cardon et Licoppe, 2000, p. 22). Références : Allard-Poesi, F. (2003). « Sens collectif et construction collective du sens », dans Le sens de l’action (coordonnée par B. Vidaillet), Paris, Vuibert, p. 91-112. Badillo, P-Y., Rizza, C. (2004). « Transmission des savoirs : le rôle catalyseur des technologies », dans Médiation et représentation des savoirs (sous la direction de J.-P. Metzger), Paris, L’Harmattan, p. 61-71. Becker, G. (1962). « Investment in Human Capital: A Theoretical Analysis », Journal of Political Economy, Vol. 70, p. 9-49. Becker, G. (1964). Human Capital : A Theoretical and Empirical Analysis with Special Reference to Education, New York, Columbia University Press. Bell, D. (1973). The Coming of Post-industrial Society : A Venture in Social Forecasting, New York, Basic Books. Benghozi, P.J. (2001). Technologies de l’information et organisation : de la tentation de la flexibilité à la centralisation, Gestion 2000, Vol. 2, Mars-Avril 2001. Bonneville L. (2003a). La mise en place du virage ambulatoire informatisé comme solution à la crise de productivité du système sociosanitaire au Québec (1975 à 2000), Thèse de doctorat en sociologie, Montréal, Université du Québec à Montréal. Bonneville, L. (2003b). « Informatisation et représentation de la temporalité », dans Des sociétés en mutation (sous la direction de Jean-Pierre Dupuis et Pierre Beaucage), Montréal, Nota Bene, 2003, p. 77-92 Bonneville, L. (2002). « La temporalité du réseau Internet est-elle encore moderne ? », dans Internet, nouvel espace citoyen ? (sous la direction de Francis Jaureguiberry et Serge Proulx), Paris, L’Harmattan, p. 205-222. Bonneville, L., Grosjean, S. (2006). « L’Homo-Urgentus » dans les organisations : entre expressions et confrontations de logiques d’urgence. Revue Communication et Organisation, GRE/CO, N°29, Bordeaux, France [à paraître]. Bühler, N., Ettighoffer, D. (1995). « L’homme polyactif », dans Gérard Blanc (sous la direction), Le travail au XXIe siècle : mutations de l’économie et de la société à l’ère des autoroutes de l’information, Paris, Dunod, p. 203-218. Brassac, C. (2005). Computers and knowledge: a dialogical approach, AI & Society, Springer Verlag London Ltd, accessible en ligne : www.springerlink.com Caccomo, J.-L. (1996). Les défis économiques de l’information : la numérisation, Paris, L’Harmattan, p. 11-12. Cardon, D., Licoppe, C. (2000). « Technologies de l’information et de la communication en entreprise : théories et pratiques », Septième École d’été de l’ARCo, Bonas, France, 10-21 juillet 2000. Castells, M. (1998). La société en réseaux - L’ère de l’information, Paris, Fayard. Chambat, P. (1994). « Usages des technologies de l'information et de la communication (TIC) : évolution des problématiques », Technologies de l'Information et Société, 6(3), p. 249-270. Cohendet, P., Diani, M. (2003). L’organisation comme une communauté de communauté : croyances collectives et culture d’entreprise, Revue d’Économie Politique, Nº5, p. 697-722. Debray, R. (2001). « Les relations entre transmettre et communiquer », Conférence au Palais Pharo, Marseille, Université de la Méditerrannée, novembre 2000. Dupuy, F. (1998). Le client et le bureaucrate, Dunod, Paris. Ettighoffer, D. (1995). « Networkers, les nomades électroniques », dans Gérard Blanc (sous la direction), Le travail au XXIe siècle : mutations de l’économie et de la société à l’ère des autoroutes de l’information, Paris, Dunod, p. 219-236. Freeman, C. (1988). Technical Change and Economic Theory, London, Pinter, 1988. Gadrey, J. (2001). Nouvelle économie. Nouveau mythe ? Suivi de que reste-t-il de la nouvelle économie ?, Paris, Flammarion. Gernaouti-Hélie, S., Dufour, A. (1999). De l’ordinateur à la société de l’information, Paris, Presses Universitaires de France. Giroux, N., Demers, C. (1998). Communication organisationnelle et stratégie, Management International, 2(2), p. 17-32. Grammacia, G. (2001). Les actes de langage dans les organisations, Collection Communication des Organisations, L’Harmattan, Paris. Grégori, N. (1999). Étude clinique d’une situation de conception de produit. Vers une pragmatique de la conception, Thèse de doctorat en psychologie, Université Nancy 2, Nancy, France. Grosjean, S. (2006). Mémoire et communication au sein des organisations : Pour le développement d’une approche pragmatique, Colloque « La recherche en communication organisationnelle : ses défis, ses enjeux, ses débats », 74ème Congrès de l’ACFAS, « Le Savoir trame de la modernité », Université McGill, Montréal (Canada), 15 mai 2006. Grosjean, S. (2005). Communautés virtuelles et communication médiatisée par ordinateur : une analyse des formes de « ritualisation sociale », Revue d’Interaction Homme-Machine, RIHM, Paris (France), p. 109-131. Grosjean, S., (2004). Analyse d’une forme de communication instrumentée lors d’activité collaborative de conception, Revue Les Enjeux de l’information et de la communication, Grenoble, Université Stendhal. Consultable en ligne : http://www.u-grenoble3.fr/les_enjeux/2004/Grojean/index.html Grosjean, S., Fixmer, P. et Brassac, Ch. (2000). Those psychological tools inside the design process, Knowledge-Based Systems 13, Elsevier Science, p. 3-9. Grosjean, S., Grégori, N., Brassac, C. (1996). La conception distribuée d'un système de production, une coopération en temps réel, Actes de la Conférence internationale sur l'Apprentissage Personne Système, CAPS'96, 8-9 Juillet 1996. Jacques, F. (1985). L’espace logique de l’interlocution, Paris, Presses Universitaires de France. Jouët, J. (2000). « Retour critique sur la sociologie des usages », Réseaux, 100, p. 487-521. Keller, P.H. et J. Pierret (sous la direction), (2000), Qu’est-ce que soigner ? Le soin, du professionnel à la personne, Paris, Éditions La Découverte et Syros. Latour, B. (1994). Une sociologie sans objet ? Remarque sur l'interobjectivité, Sociologie du travail, XXXVI 4/94, p. 587-607. Machlup, F.E. (1962). The Production and Distribution of Knowledge in the United States, Princeton, Princeton University Press. Midler, C. (1996). « Modèles gestionnaires et régulations économiques de la conception », dans de Terssac, G., Friedberg, E., Coopération et conception, Octarès Édition, Toulouse (France). 135 136 Norman, D. (1993). Les artefacts cognitifs, Raisons Pratiques, Les objets dans l'action, Paris, Éditions de l’école des Hautes études en Sciences Sociales, p. 1534. Oulès, J. (1966). La psychologie médicale, Toulouse, Privat. Philippe, A., Herzlich, C. (1994). Sociologie de la maladie et de la médecine, Paris, Nathan. Porat, M.U. (1977). The information economy: definition and measurement, US Department of Commerce. Rabardel, P. (1995). Les hommes et les technologies : Une approche cognitive des instruments contemporains, Paris, Armand Colin. Rallet, A. (1997). « L’efficacité des technologies de l’information et de la communication à l’étape des réseaux », dans Marie-Christine Monnoyer-Longé (sous la direction), L’entreprise et l’outil informationnel, Paris, Montréal, L’Harmattan, p. 85-106. Rocher, G. (1969). Introduction à la sociologie générale. Tome 2. L’organisation sociale, Montréal, Éditions Hurtubise HMH, p. 238. Semprini, A. (1995). L'objet comme procès et comme action, Paris, L'Harmattan. Taylor, J. (1988). Une organisation n’est qu’un tissu de communications, Cahier de Recherche en communication, Département de Communication, Université de Montréal. Taylor, J. (1994). The Two Worldviews of Communication Theory, Cahier de Recherche en communication, Département de communication, Université de Montréal. Taylor, J., et al. (1996). The Communicational Basis of organization : Between the Conversation and the text, Communication Theory, Vol.5, Nº1, p.1-39. Teulier, R. (2005). « Assister l’activité et l’organisation à travers des systèmes de base de connaissances », dans Entre connaissance et organisation : l’activité collective. L’entreprise face au défi de la connaissance (sous la direction de R. Teulier et P. Lorino), Paris, La Découverte, p. 266-284. Tremblay, G. (1995). « La société de l’information : du fordisme au gatesisme », Communication, vol. 16, no.2, p. 136. Trognon, A., Brassac, C. (1992). L'enchaînement conversationnel, Cahiers de linguistique Française, 13, p. 76-107. Wenger, E. (1998). Communities of Practice, Learning, Meaning and Identity, Cambridge University Press, Cambridge. Zacklad, M. (2003). Transactions communicationnelles symboliques et communauté d’action : réflexions préliminaires, présentation au colloque de Cerisy de septembre 2003 organisé par P. Lorino et R. Teulier, Archive SIC, http://archivesic.ccsd.cnrs.fr/ Les incidences microéconomiques des nouvelles technologies Sur la structure des Entreprises. HANEN Teka, ,[email protected] HAMDI Helmi ,[email protected] CAE / Université Aix-Marseille 3 Résumé : Face aux changements rapides que subit notre économie et ce du fait de la globalisation des marchés et de l’impact des nouvelles technologies d’informations et de communications (NTIC), la plupart des agents économiques dans le monde entier se sont rendus compte de la valeur du capital immatériel et plus particulièrement de leur capital intellectuel. Suite à l’émergence de la nouvelle économie (l’économie basée sur les nouvelles technologies), l’autonomie de l’action a augmenté chez la plupart des agents et ce quelque soit leurs niveaux hiérarchiques. Ce papier trace les caractéristiques de la nouvelle économie et son impact sur le fonctionnement des firmes.On étudie aussi le rôle de l’entrepreneur- innovateur Schumpétérien et sa renaissance suite à l’émergence de l’économie de connaissance basée sur les NTIC. Knowledge has been at the heart of economic growth and the gradual rise in levels of social well-being since time immemorial The ability to invent and innovate, that is to create new knowledge and new ideas that are then embodied in products, processes and organizations, has always served to fuel development. And there have always been organizations and institutions capable of creating and disseminating knowledge: from the medieval guilds through to the large business corporations of the early twentieth century, from the Cistercian abbeys to the royal academies of science that began to emerge in th seventeenth century.’ Economic Fundamentals of the Knowledge Society, Paul A. David and Dominique Foray Introduction Depuis quelques années, notre économie a connu une phase de transition vers une économie caractérisée par des différentes formes- immatérielles- de ressources économiques (weightless economy, Quah, (1999)). Au début des années 1990, rares sont les entreprises équipées par des micro-ordinateurs, et pratiquement inexistants chez les agents économiques, le téléphone fixe avait la forme analogique, les matériaux audiovisuels numériques étaient réservés uniquement à un usage professionnel tel que les activités bancaires et financières, pas de téléphones mobiles et Internet n’existaient pas, , l’information été une source rare et chère. Depuis, l’électronique s’est imposée dans toutes les activités (commerciales, financières, économiques…) et encore chez les particuliers. De nombreuses entreprises ont introduit des systèmes informatiques hautement performants, et d’autres se spécialisent dans la fabrication de l’industrie intelligente et le matériel lourd tel que l’informatique, la fabrication des ordinateurs et des logiciels, les télécommunications, et les réseaux. Un nouveau secteur économique est né, celui des technologies de l’information et de la communication (TIC). L'OCDE l’a défini comme "l'ensemble des secteurs d'activités économiques qui contribuent à la visualisation, au traitement, au stockage et à la transmission de l'information par des moyens électroniques". Pour certains économistes, la mise en commun des connaissances, sa capitalisation dans les entreprises à travers le développement des réseaux, l’identification, la collecte, le traitement des informations sur les clients et pour les clients, sont désormais au cœur du processus de la création des richesses et signeraient la naissance d’une « nouvelle économie »( Oliviers et al, 2000) dont la caractéristique 136 137 centrale est le transport instantané de données immatérielles et la prolifération des liaisons et des réseaux électroniques. Donc le passage de l’économie industrielle à l’économie de l'information se manifeste en premier lieu à travers la diffusion des nouvelles technologies informationnelles dans tous les secteurs de l’activité économique permettant l’amélioration de la transparence des marchés et la création de nouvelles opportunités . Cet article étudie un éventail de questions qui sont intimement liées entre elles, tels que : Quelles sont les caractéristiques de la société d’information ? En quoi diffère-t-elle de la société des biens matériels ? Quelle est l’incidence précise de la nouvelle économie « économie fondée sur le savoir » sur le développement de la société en générale et de l’entreprise en particulier ? Et quelles sont les politiques essentielles prises par l’entrepreneur afin d’engranger les effets bénéfiques de la nouvelle économie ? Dans cette section on va présenter la nouvelle économie, qui trouve son origine dans les produits fondés sur la connaissance et son potentiel pour la digitalisation, ses caractéristiques et ses avantages ainsi que sa contribution pour l’amélioration de la performance macroéconomique. Ainsi notre travail se divise en deux grandes parties : Premièrement, nous allons essayer d’établir les caractéristiques de la nouvelle économie, ce qui la différencie de l’économie traditionnelle, ses enjeux et son apport ; Et deuxièmement, nous allons tenter de montrer la contribution de la nouvelle économie dans le développement de la société d’information et ce, en se situant dans le cadre de la firme, ce qui mettra en avant le rôle de l’entrepreneur. I- La nouvelle économie : l’émergence de l’économie de la connaissance Le phénomène de la « nouvelle économie » est apparu durant la seconde moitié des années quatre-vingt-dix suite à une phase d’expansion de l’économie américaine supérieure à celle des années 1950-1970193, qui a été marquée par une croissance économique ininterrompu supérieure à 4% en moyenne annelle, sans pour autant que des tensions inflationnistes apparaissent alors même que le taux de chômage a particulièrement régressé (4% de la population active) (Schreyer, (2000)). Cette période exceptionnellement longue d’expansion sans inflation a été accompagnée par le développement des nouvelles technologies qui vont améliorer les modes de production des firmes et mènerons à une plus grande efficacité du marché : “These change as a whole will improve macroéconomics performance by promoting new industries gain in the efficiency of allocation of productive ressources, and increase accumulation of human capital” ( Tetsuya Inoue). Cet impact macroéconomique aurait dû être un nouvel âge d'or, Ontiveros (2000) signale que le commencement de l'année 2000 a vu comment l'économie américaine a battu le record mondial de croissance sur une longue période ; ce record était resté incontesté depuis les années 60 caractérisé par un accroissement régulier des taux de développement de la productivité qui, malgré un emploi croissant et des niveaux élevés de la demande des ménages et des entreprises en matière de consommations et d'investissements respectivement, aurait assuré la stabilité du niveau des prix. En outre, comme cela a été le cas pendant le boom des années 50 et 60, le degré d'ouverture des économies nationales aurait également augmenté au cours des années 90 et, avec lui, la valeur du commerce international aurait connu un plus grand essor (Lera Lopez et al, 2001). 1- Vers une société de l’information Le passage de l’ancienne économie à la nouvelle est caractérisé par l’intégration de nouvelles technologies de l’information et de télécommunication dans les différents secteurs de l’activité économique, d’après l’OCDE la nouvelle économie illustre la part de l’ensemble du stock matériel et logiciel qui est de nature informatique (hors matériel de communication). Elle indique que plus de 30 % de cet ensemble est de nature informatique dans les services juridiques, les services aux entreprises et le commerce de gros. Les secteurs de l’éducation, des services financiers, de la santé, du commerce de détail et différentes industries manufacturières (instruments, imprimerie, édition) ont aussi une part relativement importante de capital informatique dans leur stock total de matériel et de logiciels OCDE (2003.) . Castell ajoute : « Une société peut être dite nouvelle quand il y a transformation structurelle dans les relations de production, dans les relations de pouvoir, dans les relations entre les personnes. Ces transformations entraînent une modification également notable de la spatialité et de la temporalité sociales et l'apparition d'une nouvelle culture ». Bernard Bobe, signale que nous sommes bien rentrés dans une nouvelle période de l’histoire économique. Les enjeux ne sont plus seulement en Europe , comme au début du 19° siècle ! les défis ne sont plus en Europe, en Amérique du Nord et au Japon, comme durant le XX° siècle ! C’est l’ensemble du monde, de la « planète terre » qui est concerné tout à la fois par cette troisième révolution technologique. l’Internet représente aujourd’hui le centre et le carrefour des mutations en cours, elle permet l’ouverture des portes aux informations mondiales, elle change profondément l’accès à l’information et à la connaissance194 L’intensification des activités de recherche et l’émergence de la société des réseaux et des savoirs dépendent cependant, comme l’ont montré de nombreux auteurs (de Rougemont, 1989, Castells, 2001, Ansart, 2002), de la capacité de transformer les données en informations et celles-ci en savoirs. Ajoutons que cette transformation de l’information en savoir dépend principalement de la communication que l’on peut ici définir comme le résultat d’un échange d’informations, intelligibles pour chacun des échangistes, négociées ou consensuelles. Le tableau ci dessous récapitule les différentes caractéristiques et les phases d’évolution de l’ancienne économie vers la nouvelle. D’autres éléments peuvent distinguer la nouvelle économie de l’ancienne, notamment le développement d’une société de l’information et du savoir et la diffusion de l’entreprise numérique. A- les caractéristiques de l’économie de la connaissance Suite à l’émergence de la nouvelle économie ou plus exactement de l’économie fondée sur la connaissance, l’organisation industrielle doit faire face à des changements profonds, les firmes deviennent de plus en plus intensives en connaissances (une main d’œuvre de plus en plus qualifiée, la firme fait des dépenses pour former ses employés…). 194 193 3 Cette période a été marquée par une expansion de l’économie américaine et une stabilité monétaire et Financière, certains économistes la qualifie par « new age » Au sein de l'économie digitale, les différences entre produit et service sont de moins en moins évidentes, en raison de l'évolution de la notion de produit, traditionnellement considéré comme une marchandise, devenu un service quand son contenu est digitalisé ,in débat sur la nvl eco, lera lopez. 137 138 l’économie de l’information n’est pas le marché walrasien mais plutôt le marché hayekien dans lequel producteurs et consommateurs tâtonnent en interagissant les uns sur les autres ; la « coopétition », subtil mélange et équilibre entre la coopération et la compétition, doit sous tendre la recomposition du tissu industriel dans le nouveau contexte ; etc. (De Boissieu) N. Foss (2003) remarque que la nouvelle économie a une part importante dans la résolution de plusieurs difficultés de l’entreprise, cela nécessite donc une profonde transformation au niveau de la relation d’autorité, de l’organisation interne ainsi qu’au niveau des frontières de la firme. a- Remise en cause de la relation d’autorité : L’ère de la nouvelle économie est caractérisée par une main d’œuvre de plus en plus intensive en connaissance, on voit que les biens de connaissance sont de plus en plus contrôlés par les travailleurs « knowledge workers », ce qui fait perdre à la relation d’autorité traditionnelle sa signification. Le cadre Hayekien de la connaissance est défini par deux propositions, la première fait référence à la connaissance dispersée ou distribuée « distributed or dispersed knowledge » là où la connaissance est acquise de façon privée, tacite et subjective, la deuxième proposition fait référence aux « knowledge workers » là où les biens de connaissance sont contrôlés par les agents de façon individuelle. Le problème de la connaissance est qu’elle n’est jamais établie de façon complète et agrégée et ceci du fait de la présence d’une connaissance tacite et dispersée au sens de F. Hayek 1986 : « le problème réside dans l’utilisation de cette connaissance, laquelle n’est donnée à personne dans sa totalité » . De son coté, N. Foss (2003) se concentre sur la notion de la connaissance dispersée au sens de Hayek, le problème rencontré par le principal n’est pas seulement qu’il est mal ou non informé sur la nature de la chose révélée ou de la réalisation des efforts des agents ( hidden knowledge) , mais que la connaissance de l’agent peut être supérieur à celle du principal, ce dernier peut ignorer quelques actions de certains agents qui peuvent être informés mieux que lui suite à l’apprentissage par la pratique. En somme les arguments apportés par l’opinion Hayekienne où la connaissance est dispersée et l’input de connaissance est plus important que l’input physique présentent de réels problèmes à l’exercice d’autorité au sein des firmes et mettent énormément de contraintes qui influencent les mécanismes de coordination. Ainsi on peut dire que le rôle de l’entrepreneur s’est métamorphosé ou a évolué suite à la naissance de l’économie de connaissance, on n’est plus en face d’un entrepreneur qui applique une autorité absolu envers ces agents, mais en face d’un coordinateur qui sait faire une bonne coordination et donc un partage de connaissance au sein des membres de l’entreprise pour une meilleure prise de décision, que ce soit à l’intérieur qu’au delà des frontières de l’entreprise. b- Remise en cause des frontières d’entreprises : Certains auteurs réclament que non seulement l’organisation interne de la firme qui a été profondément touchée par l’avènement de la nouvelle économie mais aussi les frontières de ces firmes ont été aussi affectées. En effet la connaissance se base sur des réseaux Harryson (2000), certains de ces réseaux coupent les frontières légales de la firme, ainsi le système des réseaux est utilisable pour les arrangements organisationnels et le transfert de connaissance à travers la hiérarchie ( Liebeskind et al (1995) page 7) . La connaissance se situe dans des systèmes de réseaux, cela incite donc les firmes à couper leurs frontières dont le but de favoriser le transfert de connaissances, c’est la notion de la connaissance réseau que nous allons développer plus loin. c - Remise en cause du modèle classique de l’offre et de la demande : Le modèle de l’offre et de la demande classique n’est plus appliquée ou plus exactement ne convient plus au cas de la connaissance qui est considérée comme un produit économique Machlup (1964) page 154. En grande partie, la production de la connaissance n’est pas guidée par le mécanisme du marché et comme le précise Machlup dans son ouvrage « Knowledge and Knowledge production », la majorité de la connaissance produite n’est pas achetée par le consommateur mais elle lui est offerte « free of charge ». Hayek (1986) page 118 dans son article « the use of knowledge in society » remet aussi en question la solution apportée par le calcul économique « la raison en est que les données à partir desquelles se fonde le calcul économique ne sont pas et ne peuvent pas être, lorsqu’elles concernent la société toute entière, « donnée par individu » ». En plus la connaissance de notre environnement n’est jamais établie de façon complète et agrégée et ceci du fait de la présence d’une connaissance tacite et dispersée. Le problème selon Hayek réside donc dans l’utilisation de cette connaissance, laquelle n’est donnée à personne dans sa totalité. « Knowledge in the mind is in the memory of an individual person, in the memories of small groups of persons, or in the memories of many members of society” Machlup (1964) 2- Une coordination s’impose ! Le problème n’est donc en rien résolu par l’affirmation selon laquelle tous les faits, s’ils étaient connus par un seul esprit, détermineraient la solution, nous devons montrer en revanche comment cette solution procède des interactions entre des agents dont chacun possède seulement une connaissance partielle , Hayek (1986) Coase (1937) « la firme est un co-ordinateur, le marché est un co-ordinateur aussi, ce qui veut dire qu’on peut définir la firme comme une institution spécialisée dans la coordination ». La structure de l’économie est en fait basée sur le concept de la volatilité « it is supposed that the economic envirement is continuously disturbed by shoks of both a persistent and transitory nature » (Casson 1997) page 77 ; le but de la coordination étant donc de mieux gérer ces chocs d’informations et de connaissances ce qui se reflète sur la qualité de la décision prise par l’entreprise. « the firm (...) is essencially a structure designed to harmonize the decision making efforts of a group of poeple who are focused on a single issue or a set of relatef issues” Casson (1997)page 79. il rajoute “a firm may be defined as a specialized decision making unit, whose function is to improve coordination by structuring information flow and which is normally endowed 138 139 with legal privileges, including indefinite life” ibid page 80. La vision de l’auteur en terme de l’organisation est « interactionniste » c'est-à-dire un lieu où la coopération interindividuelle tient une place essentielle dans la création, la mise en cohérence et la diffusion de savoirs nouveaux . ainsi, audelà du lien souvent négligé dans la littérature entre l’apprentissage individuelle et l’apprentissage organisationnelle, la coopération cognitive vise à favoriser la création de nouvelles connaissances individuelles par un ensemble d’interactions entre individus. La coopération joue ainsi un double rôle dans le développement de la connaissance : - un rôle de déclencheur des apprentissages et des processus de création de connaissance notamment par un partage des éléments constituant les capacités cognitives des différents intervenants ; - et un rôle d’implémentation des acquis nouveaux et de diffusion à l’ensemble des centres de décision ou de l’organisation. The generation and exploitation of knowledge is now the predominant factor in the creation of wealth. For countries in the vanguard of the world economy, the balance between knowledge and resources has shifted so far towards the former that knowledge has become perhaps the most important factor determining the standard of living – more than land, than tools, than labour. Today’s most technologically advanced economies are truly knowledgebased.”(World Development Report 1999, World Bank) a- le rôle joué par l’apprentissage : Polanyi (1958) nous a initié à la conception de la connaissance tacite en affirmant : « nous savons toujours plus que nous pouvons dire » , une part de la connaissance échappe à la description et à l’exploitation . L’échange et l’apprentissage des connaissances tacites supposent la mobilité et la démonstration volontaire des personnes qui les détiennent . Selon Machlup la production des connaissances à partir des recherches et du système éducatif est reliée aux flux des connaissances du capital humain accumulé dans le passé ; un autre instant important est celui de la croissance de la connaissance dans le cerveau humain suivant le processus de maturation, ce dernier est acquis lorsque la personne atteint la meilleure compréhension du matériel appris auparavant, on développe de nouvelles idées par des flashs ou des signaux ou par la chance de découvrir. Mises (1949) page 39 note que « les relations logiques fondamentales sont la condition première et indispensable de la perception, de l’aperception de l’expérience (ainsi) que de la mémoire ». L’apprentissage repose sur la manipulation des représentations présentes dans la mémoire déclarative lors des activités cognitives de l’individu. Loasby page 362 affirme que c’est un processus qui tend vers l’infini, donc il n’y a pas de convergence vers une réalité objective, il précise qu’il n’existe pas de limite ni un équilibre que puisse atteindre la croissance des connaissances des individus. Les membres de l’organisation ont des représentations différentes de l’environnement et développent ainsi leur propre processus d’apprentissage, cette multiplicité requiert un mécanisme de mise en cohérence qui peut être considéré comme une base de connaissance commune. Si cette dernière est assurée par une décentralisation des processus d’apprentissages, leurs résultats doivent être centralisés afin de préserver la cohérence de l’ensemble. Cependant, des événements concernant la technologie ont fondamentalement transformé le degré auquel la connaissance est intégrée dans l'activité économique, d’après Paul Romer , la création de nouvelles informations n’est plus considérée comme facteur exogène ; ( dans le domaine de la comptabilité et de la croissance économique, la connaissance et la technologie cessent d’être exogènes pour devenir endogène. Ce qui distingue la théorie de la croissance de Solow (1957) à celle de Samuelson (1938), mais ces facteurs représentent le résultat d’une combinaison productive qui dépend du comportement des agents économiques. Dans notre société moderne les TIC jouent un rôle catalyseur et contribuent à améliorer les communications et les relations entre les institutions « entreprises », les consommateurs et le commerce à bas coût, elle présente de nouvelles opportunités qui se situe dans un contexte indissociable : la société de l’information, l’économie du savoir et la management des connaissances. L'importance des connaissances a prévalu à tous les âges du développement du capitalisme. Cependant, à l'ère contemporaine, la nouvelle économie pense triompher grâce à la prééminence des TI (technologies de l'information), laquelle tient à la fois de la publicité, de la magie, des médias, des discours dominants, voire de la pure fascination. Parce qu'on parle tous de communication, on entrerait dans une phase postcapitaliste (même cette expression est tombée en désuétude; on préfère économie du savoir ou économie du don). La mystique du scientifique des années 50 et 60 avait créé une élite de la communication scientifique, qui préside à la naissance des sciences de l'information (ceci est l'objet d'une autre histoire, à venir). Dès cette époque, le «scientist» américain jouit de la même considération que le capitaine d'industrie du XIXième siècle.(Blouin) En effet, l’apport des connaissances et de la technologie à la croissance économique n’est cependant pas nouveau, savoir et technologies ont toujours été des ‘enzymes 'de l’économie. Les deux deniers siècles ont été marqués par une succession de progrès technologiques : Au XVIII° siècle, les découvertes scientifiques ont permis la mise au point des machines qui allaient révolutionner les transports. Plus tard au XIX° siècle, les capacités de production, puis de distribution de l’électricité allaient engendrer de profonds bouleversements qui représentent les premières formes de mécanisation du geste et du savoir-faire. Plus récemment encore, au XX° siècle, les découvertes qui ont permis la mise au point du moteur à essence ont provoqué une véritable révolution industrielle (Chattab.N. 2003). On constate ainsi une réelle continuité dans le b- L’apport des TIC dans la nouvelle économie : Avec la transition vers la “société de l’information”, l’information devient l’un des aspects les plus importants de notre existence, elle a commencé à changer la source même de la richesse. “In an agricultural economy, land is the key resource. In an industrial economy, it is physical assets such as steel, factories, and railroads that are the dominant factors of production. In the current era, the key resources have become information and knowledge. L’évolution des sociétés et de leurs sources de richesse 139 140 développement des connaissances scientifiques, tant dans l'économie industrielle lourde que dans l'économie moderne axée sur le consommateur. Seuls les contextes et les milieux changent, et permettent à ces savoirs de se déployer avec plus ou moins d'aisance. Or, la nouvelle économie représente l'expression d'un contexte nouveau, débarrassé de tous les obstacles traditionnels empêchant, entre autres, l'immédiateté des communications et la spéculation libre de toute limitation. Le contexte a changé, mais le but et les objectifs de l'économie ne l'ont pas nécessairement fait.(Blouin, p9). II- la contribution de la nouvelle économie à la croissance ! A- L’extension de l’économie de marché : L’apparition d’une nouvelle génération du savoir qui est le savoir réseau, l’accès à l’information et l’investissement dans les TIC implique une diffusion du savoir qui permet un développement du marché de la connaissance, y compris l’investissement dans le capital humain, ici le rôle du facteur humain paraît très important. Grâce à l’innovation massive dans le domaine technologique, le marché traditionnel s’est transformé en digital et le commerce est devenu électronique via Internet. A travers ce marché, les biens (les marchandises) sont devenus des informations195, ils seront diffusés en réseaux, la contrainte du temps et les coûts de transactions vont diminuer, le consommateur est devenu de plus en plus informé sur le processus du marché, son comportement dans un monde digital est devenu plus efficace que celui du marché traditionnel. Les conséquences des nouvelles technologies apparaissent importantes : création de nouveaux services, mise en place de nouveaux modes de distribution des biens et d’échange d’informations, d’ou l’émergence de nouveaux produits, agents et processus. La naissance de l’entreprise numérique Pour être compétitive, innovante et solide, les entreprises ont besoin d’accéder facilement à l’information sur le processus du marché, elles doivent intégrer et exploiter des nouvelles sources de communications en vue d’échanger des informations avec d’autres institutions du monde entier. La dérégulation de la nouvelle économie et l’essor de l’Internet ont brouillés les frontières des organisations des firmes par la multiplicité des contacts interpersonnelles qu’elle engendre. D’où l’apparition de L’entreprise réseau qui peut s’analyser comme étant une forme organisationnelle répondant à l’impératif de la division cognitive du travail, dans laquelle la coordination « relationnelle » devient primordiale. L’entreprise réseau est donc formée d’« individus clés » dont les interactions permettent de partager des connaissances et en produire d’autres. Ainsi on peut dire que la coopération passe par plusieurs étapes : La première, concerne le partage et le transfert de connaissance entre les différents membres de l’organisation ; Ensuite, on a l’étape de la construction d’une base de connaissance collective par la réunion des apports de chacun ; Après, ces « individus clefs » développent et interprètent cette base de connaissance commune. En définitive, on aboutit à une base de connaissance modifiée qui peut être jugée comme supérieure à la somme des connaissances individuelles initiales. la nature de la nouvelle firme On peut dire que la « nature de la firme » a été changé, 195 Au sein de l’économie digitale, les différences entre produits et services sont de moins en moins évidentes en raison de l’évolution de la notion de produits traditionnellement considérés comme marchandises, devenus,comme service quand son contenu est digitalisé. l’entreprise est devenue numérique (ou digitale) elle est constituée de réseaux, les coûts du transport des services immatériels sont devenus presque nul, les frais généraux sont ainsi réduits à l’extrême :moins de surfaces de bureaux, moins de stocks et moins de déplacement à prendre en charge. C’est cette non matérialité qui lui confère sa forte réactivité et sa souplesse (Caccomo 2005). ‘The use of ICT also brings changes to the business environment, where transaction costs decrease, production factors become less expensive, lesser quantities of stocks are needed, and time to market is reduced, etc. A firm's size ceases to be such a determining factor as it has so far been in the conventional market. This probably does not mean that firms with a sizeable share in the physical market, gained through economies of scale, do not also enjoy some comparative advantage in the electronic marketplace.’( F.L. Lopez et al, 2000) La nouvelle entreprise devient une source principale de gestion du savoir et de la connaissance, elle cherche a diffuser ses informations dans le monde entier, pas de contraintes ni de barrières géographiques, le monde est devenu « petit » !, grâce au système de connexion permanent, l’accès à l’information est régulier , le contact avec le client est à tout moment , pas d’horaire d’ouverture ni de fermeture d’agence. In the neteconomy, geographical barriers disappear and there is access to the market 24 hours a day, thus removing any difficulties that could arise from the existence of different time zones in the various areas of the world. ( F.L. Lopez et al, 2000) B – la stratégie de l’entreprise innovante : Pour survivre, l’entreprise doit donc changer d’orientation stratégique et passer d’une logique initiale –ou le rôle était clairement défini- à une logique de profitabilité, de l’innovation afin de trouver de nouvelles sources de valeur ajoutée. cette nouvelle structure exige la présence d’un agent qui établit la coordination entre les différentes bases de connaissances communes, cette personne trouve sa logique au niveau mondial, dans la confrontation de stratégies d’acteurs issus de systèmes sociétaux différents. A cet égard, l’articulation entre les différentes bases de connaissances de l’économie industrielle et de l’économie internationale nécessite un changement (une innovation) afin de rester compétitive au plan international. Cette personne ne serait il pas l’entrepreneur Schumpétérien ? L’entrepreneur innovateur Schumpétérien n’est il pas la cause ou le déclencheur de la révolution de l’économie de connaissance ? L’entrepreneur innovateur : L’activité entrepreneuriale se présente au cœur du processus du marché qu’elle est censée guidée, motivée par l’attrait du gain économique, le rôle de l’entrepreneur ainsi ne concerne plus uniquement la coordinations des activités économiques assurée par le marché. Les modèles post-keynésiens, les modèles néo-classiques n’ont pas ignoré l’existence du progrès technologique mais ils ne l’incorporent pas à leur raisonnement, Schumpeter voit au contraire dans le phénomène de l’innovation l’élément essentiel de la dynamique économique. Dans sa « théorie de l’évolution » 1912 Schumpeter explique qu’il y a évolution quand l’économie est tirée de sa routine par une réorganisation des moyens de production existants, cette réorganisation améliore leur efficacité, il l’appelle innovation, « nous définirons simplement 140 141 l’innovation comme la mise en place de nouvelles fonctions de production » Schumpeter 1939. Dans l’équilibre général Walrasien le profit est nul, les recettes liées à une activité permettent juste de rémunérer les facteurs de production (résultat néoclassique en CPP). C’est l’innovation qui permet de dégager un profit positif, c’est le profit de l’innovation temporairement supérieur au profit habituel dans la branche considérée en raison de l’avantage concurrentiel apporté par l’innovation. Ainsi l’entrepreneur innovateur est un « perturbateur d’équilibre » . L’équilibre du marché au sens de Schumpeter est perturbé périodiquement par l’activité entrepreneuriale, cette dernière enseigne et entretient un processus de « destruction créatrice », de renouvellement de structures capitalistiques « en détruisant continuellement ses éléments vieillis et en créant continuellement des éléments neufs » Schumpeter 1951 page 164 ; Il s’avère intéressant de signaler que les chocs qui perturbent l’équilibre économique au sens de Schumpeter (les chocs d’innovations) sont de nature endogène. En fait, l’entrepreneur Schumpetérien est représenté comme un agent générateur de déséquilibre, en effet, l’introduction d’innovation par les entrepreneurs Schumpetériens perturbe l’état ex-ante de la coordination du système économique. Chez Schumpeter, puisque l’activité entrepreneuriale ( innovation) s’exerce à l’équilibre en perturbant ce dernier, cela signifie que l’entrepreneur pourrait créer des connaissances nouvelles sans l’acquisition d’informations nouvelles (Machlup 1983) provenant des déséquilibres des marchés. L’activité entrepreneuriale est donc à l’origine du changement. L’activité entrepreneuriale au sens de Schumpeter : L’entrepreneur a la qualité d’un innovateur L’entrepreneur prend le rôle du monopole L’apparition des imitateurs Pour garder sa place de leader : « destructionCréatrice » la naissance d’une innovation Le cycle de l’entrepreneur Schumpétérie La renaissance de l’approche Schumpétérienne avec l’émergence de la nouvelle économie Le facteur temporel joue un rôle primordial dans le développement économique de la société d’information. On sait que le modèle Schumpétérien tire sa force du processus d’innovation, là l’entrepreneur réalise son sur-profit et se distingue des autres (les imitateurs). En fait , l’innovateur a toujours une longueur d’avance par rapport aux autres du fait du caractère tacite des connaissances, en effet, les imitateurs ne peuvent pas toujours avoir la totalité des connaissances dont disposent les innovateurs, ni leur savoir faire du fait du rôle joué par l’apprentissage par la pratique. Ainsi l’innovateur doit profiter de cette situation et anticiper le temps que les imitateurs doivent prendre pour pouvoir acquérir la connaissance nécessaire et améliorer son innovation ou en apporter une nouvelle, afin qu’il reste toujours le leader et ainsi garder ses parts de marché. Les NTIC permettent de faciliter la tâche de l’entrepreneur innovateur, d’où il peut toujours surveiller son environnement ainsi que les imitateurs sur les marchés à moindre coût. En définitive, on arrive à la conclusion suivante : les NTIC représentent un facteur primordiale pour le développement de la firme et donc de la société d’information. C - Contribution des TIC à la croissance de l’économie et de la performance des firmes : Durant la décennie écoulée et avec le développement des théories dites de la croissance endogène ( Romer), l’analyse économique a mis en évidence le rôle fondamental de l’accumulation des connaissances dans le développement du progrès technique et de l’innovation, catalyseur de la croissance.. De nos jours, la connaissance joue un rôle crucial au sein de l’entreprise, elle permet d’assurer des gains de productivités et de garantir sa place dans le marché au sein d’un environnement incertain, envahit par des concurrences intenses entre les différents secteurs de l’économie et à l’échelle internationale. Avec l’adoption des Technologies modernes High-tec , les entreprises peuvent aussi garantir une croissance économique durable, et une allocation efficace de ces ressources . De son coté, Arrow note que la croissance est la croissance des connaissances ( et donc de la société de connaissance) « …ainsi on peut admettre aisément, que la production des connaissances nouvelles alimente la progression du stock de capital de connaissances, qui à son tour, joue comme déterminant du progrès technique et donc la croissance de la productivité (ce qui est la définition même de la croissance)…Les relations entre croissance des connaissances et croissance économique sont compliqués (Metcalfe 2002) notamment par ce que la croissance économique rétroagit sur le volume et le contenu des connaissances »Chriastian Lebas196 La diffusion et la généralisation des NTIC au cours des dernières années ont mis à l’ordre du jour la question de la mesure de l’impact des innovations sur la croissance ; c’est pour cette raison qu’on va consacrer cette partie de notre étude à répondre à la question suivante : Quel est l’impact des Tic sur les performances et la croissance économique en générale et des firmes en particulier ? La fin du paradoxe de la productivité : L’émergence et la diffusion des TIC a un impact positive sur les gains de productivité ; pendant longtemps, toutefois, ces gains de productivités ne sont pas apparus très clairement dans les études, du moins celles de nature macroéconomique : c’est ce qu’on a appelé le paradoxe de Solow ou le paradoxe de productivité, ils n’ont été de fait nettement mis en évidence qu’avec l’accélération de la croissance et de la productivité. Depuis l’émergence de la nouvelle économie aux EtatsUnis en 1990, de nombreuses analyses ont été faites sur la base des données de comptabilité nationale et ont pour conclusion : que les TIC ont des effets positives et significatives sur la croissance et la productivité du travail, en effet, la forte chute des prix des TIC a encouragé l’investissement dans celles-ci « Les résultat d’une telle analyse comptable pour la France montrent que la contribution de la diffusion des TI à la croissance de la productivité du travail aurait augmenté en France durant les années 1990. Elle serait d’environ 0,2% par an sur la période 1980 – 1995 et d’environ 0,4% par an sur la période 1995 – 2002 » Bien que la contribution des TIC à la croissance en France soit importante, elle demeure deux à trois fois inférieure à celle évaluée pour l’économie américaine. La diffusion des TIC a des incidences au-delà de l’entreprise, car elle aide à mettre en place des réseaux de TIC, L’utilisation accrue des TIC peut également se traduire par une large portée et davantage d’efficience dans la création de savoir , d’où des gains de productivité Bartelsman et Hinloopen 2002. 196 Economies et Sociétés, Série « Dynamique technologique et organisation »W, n°8, 12/2004, p.2055-2072, « la croissance des économies fondées sur les connaissances :Information, codification, Spécialisation. 141 142 • R&D et productivité : Dans les modèles de croissance endogène de type « Schumpeter », les auteurs partent de l’idée qu’une grande partie des innovations représente le résultat des efforts de R&D des firmes qui cherchent à optimiser leur profit . « Au total si prises individuellement les études sont parfois non concluantes, souvent imprécises et assez fragile, prises dans leur ensemble elles confirment que les investissement en R&D ont une productivité et une rentabilité privées pour les entreprises au moins égale, si non supérieures à celles des autres formes d’investissements » 197 « Un examen attentif des évolutions récentes des contributions respectives de la R&D et des TIC à la croissance montre donc que la situation est différente dans les deux pays, et sans doute plus inquiétante en matière de R&D que pour les TIC, mais ce retard ne parait pas s’accroître. En revanche, depuis plusieurs années, la France a nettement ralenti ses efforts de R&D et a pris un retard sensible sur les Etats-Unis qui, eux, ont accru leurs efforts . la contribution à la R&D à la croissance serait ainsi de l’ordre de 50% plus faible en France qu’aux Etats-Unis dans les années récentes, alors qu’elle était sensiblement égale au début des années 90 ». ibid. La croissance due à la contribution du capital technologie de l’information : « C’est l’accumulation d’une ressource particulière qui est le moteur principal de la croissance. Il y a bien une analogie avec le modèle de Solow 1956, en ce qui est une accumulation d’un facteur particulier qui contribue à la croissance de la productivité (le capital par tête dans le modèle de Solow) » Christian Le Bas Page 2061. Les TIC peuvent ainsi représenter le troisième facteur qui contribue tout comme le capital et le travail à la production.. Jorgenson 2001- 2003, montre que les améliorations techniques permanentes dans les industries produisant les biens d’équipement de type NTIC (et notamment les microprocesseurs) ont accru la productivité et entraîné le déclin des prix des matériels » Les NTIC ne donnent que des potentiels de croissance de la productivité Boyer (2002). CASSON M.; (1997), “The nature of the firm”, Information and Organization, “A New Perspective on the Theory of the firm”, CLARENDON PRESS - OXFORD. CASTELLS Manuel (2000), The Information Age : Economy, Society, and Culture, Blackwell, Oxford, revised edition. CETTE Gilbert, KOCOGLU Yusuf et MAIRESSE Jacques, « les mécanismes de la croissance : Productivité et croissance », croissance et innovations, Cahiers Français, N° 323, Novembre - Décembre 2004. CHETTAB Nadia, « Economie, TIC et bonne gouvernance en Algérie », in monde en développement, 2001 COLECCHIA Alessandra and Schreyer Paul “ICT investment and economic growth in the 1990s: is the united states a unique case? A comparative study of nine OECD countries” STI WORKING PAPERS 2001/7 Foss N.J. ; « “Austrian “ determinants of economic organization in the knowledge economy » , dans, Market information and communication , Austrian Perspective on the internet economy , Jack Birner & Pierre Garrouste, 2003. HAYEK F. A. ; « L’utilisation de l’information dans la société », Revue française d’économie, Volume 1, N° 2, Automne 1986. LE BAS Christian, « les logiques de l’innovation : l’innovation dans la théorie économique », croissance et innovations, Cahiers Français, N° 323, Novembre – Décembre 2004. LE BAS Christian, « la croissance des économies fondées sur les connaissances : informations, codification, Spécialisation », Economies et Sociétés, Série « Dynamique technologique et organisation ».W, n° 8, 12/2004, pp. 2055 – 2072. LOPEZ Lera Fernando &Nuria Herández Nanclares, “the so called new economy and the ICT: Concep and Measurement » LOPEZ Lera Fernando, Margarita Billón Nuria Hernández Nanclares 2001 « Le débat sur la "Nouvelle Économie" : une approche pour une analyse » Université Autonome de Madrid, Département de la Structure Économique et du Développement Économique. MACHLUP F., “Knowledge, it’s creation, distribution and economic significance”, vol 1,Knowledge and knowledge production Princinton U. Press 1980. OCDE 2003, Technologies de l’information et des communications, les TIC et la croissance économique, PANORAMA DES INDUSTRIES, DES ENTREPRISES ET DES PAYS DE L’OCDE. QHUAN Danny, Digital goods and the new economy LSE Economics Department December 2002 TETSUA Inue impact of information technology and implication for monetary policy,Monetary and economic studies, december 1998 Conclusion : «Les nouvelles connaissances technologiques et industrielles, en émergence, donnent naissance à de nouvelles activités, de nouvelles firmes spécialisées dans de nouveaux segments, de nouveaux métiers, et donc de nouveaux apprentissages. Il en résulte, que les économies d’échelle et d’apprentissage qui émerge, sous différentes formes, de la création de firmes et d’activités nouvelles favorisent la croissance. Dans une telle approche, la croissance économique est non seulement intimement liée au changement structurel, mais aussi, dans une certaine mesure, à la vision Schumpétérienne de la destruction créatrice, « cette problématique met l’accent sur la division et la spécialisation, en terme d’activités et de connaissances, comme moteurs de la croissance » Références Bibliographiques : ARROUS Jean, croissance et fluctuations économiques : Macroéconomie de longue Période Dalloz, Paris 1991. BOYER Robert « la nouvelle économie » Au futur antérieur : Histoire, Théories, Géographie, 2001-N13 197 LES MECANISMES DE LA CROISSANCE : PRODUCTIVITE ET CROISSANCE, Gilbert Cette, Banque de France Et Université de la Méditerranée (CEDERS) ; Yusuf Kocoglu, Université de la Méditerranée (CEDERS) ; Et Javques Mairesse, INSEE-CREST et EHESS, « croissance et innovation » 142 143 TIC et organisation Entre contrôle de gestion et contrôle d'identité Thomas HELLER GREC/O / Université Bordeaux 3 [email protected] La réflexion sur les TIC dans les termes d'un dispositif se contente de mettre en évidence leur lien avec les paradigmes dégagés par Foucault (société disciplinaire) ou Deleuze (société de contrôle). Ces références - imposantes - empêchent de penser la spécificité des dispositifs propres à notre temps. C'est le point de vue défendu par Sophie Pène, notamment dans un article paru dans la revue Etudes de communication en 2005. L'auteure y développe l'idée d'une société de disponibilité, repérable notamment à travers l'usage des TIC dans le cadre du travail collaboratif. La proposition ne manque pas de pertinence ; est-ce à dire pour autant que la réflexion sur les TIC menée à l'aune de la logique de contrôle serait caduque ? Certes, l'auteure ne va pas jusque là ; mais la proposition de départ appelle une réaction. Dans cette communication, on insiste sur la pertinence et l'intérêt heuristique et politique qu'il y a à penser encore les TIC en organisation dans les termes du contrôle tel que Deleuze ou Foucault l'ont abordé. Cette attention sur les TIC tient uniquement au thème de ces journées ; il est bien entendu que les dispositifs constitutifs des sociétés de contrôle ne se réduisent pas à un usage - si extensif soit-il - de ces technologies, et ne se réduisent pas à l'organisation. On entend 143 144 par TIC les technologies qui ressortissent du stockage, du traitement et de l'échange ou de la transmission de d'informations, soit d'une part l'ordinateur connecté ou non à un réseau, à un serveur, ainsi que les logiciels et autres systèmes experts, qui le rendent opérationnel ou précisent son domaine et ses capacités d'actions, d'autre part le mobile ou le téléphone, et enfin les systèmes de captation et d'enregistrement du réel dans leurs dimensions sonore et visuelle (soit les systèmes de vidéosurveillance pour être plus concret). Le terme d'organisation est ici un terme générique qui désigne les entités productives et/ou administratives, dotées d'une structure de fonctionnement et d'une autorité. Le rapport des TIC au contrôle est envisagé selon trois axes : celui de la surveillance des salariés et de l'activité de travail, celui de l'adaptation à l'usage des TIC et de ses implications, et celui de l'évaluation modulaire des personnes ; ce dernier axe sous-tend l'existence d'un lien inextricable entre société de contrôle - dans sa spécificité modulatoire - et, disons, pour aller vite, culture du narcissisme. 1) TIC et prolongement disciplinaire Nous ne reviendrons pas ici sur les caractéristiques des sociétés disciplinaires telles que Foucault les a décrites dans Surveiller & punir ; on se souviendra seulement que l'enfermement est ce qui les caractérise, conjugué à une technologie de pouvoir qui atteint son plus haut degré de perfection avec les propositions architecturales de Jeremy Bentham. Le panoptique est la figure emblématique de la société de discipline, dont l'efficacité repose sur un dispositif spatial de mise en visibilité qui incite celui sur lequel porte potentiellement le regard à adopter de lui-même le comportement souhaité par le pouvoir. La force de ce système, qui fait son intérêt du point de vue d'une économie du pouvoir, est justement qu'il n'est pas nécessaire de placer en permanence un surveillant ; le simple fait de se savoir surveillé est censé avoir un effet de contrôle. C'est une particularité des TIC de contribuer à renouveler cette logique disciplinaire, et que certains médias d'ailleurs évoquent régulièrement. En premier lieu, c'est le développement de la vidéosurveillance dans les entreprises qui est mentionné pour un usage dont la description ne manque pas de suggérer ou encore de rappeler explicitement le 1984 de Orwell. Ainsi, pour l'anecdote, la société Lidl, d'après le Canard enchaîné du 8 février dernier a-t-elle installé dans “son entrepôt de Nantes 65 caméras pour surveiller 60 salariés…”. C'est d'ailleurs cette entreprise que l'association des “big brother award” a couronnée cette année, parmi les autres nominés retenus pour des installations d'ailleurs tout à fait légales de système de “flicage” technologique durant l'année écoulée. Mais c'est là une forme de surveillance relativement frustre, si on la compare aux systèmes utilisés dans certaines entreprises de service, au premier rang desquels on trouve les centres d'appels téléphonique. Objet de nombreux articles dans la presse (écrite et audiovisuelle) et objet d'études en SHS (par exemple, le travail de Laétitia Schweitzer), ce secteur est devenu emblématique d'un neo-taylorisme, à l'encontre de toutes les pratiques et discours autour de la sollicitation de la subjectivité des salariés et de leur autonomie. La nouveauté de ce neo-taylorisme tient autant au lieu sur lequel porte la rationalité du travail (la relation, le langage) qu'au rôle des TIC dans son application (en termes de procédures ou en termes de surveillance). Pour s'en tenir au registre de la surveillance, le poste de travail de chaque téléopérateur se trouve relié à un poste central, qui permet à un superviseur d'écouter les conversation téléphonique des opérateurs et d'avoir accès à toute une série de données chiffrées concernant l'activité de chacun : durée des appels, durée entre chaque appel, temps passé depuis la première connexion, nombre d'appels, nombre d'accords, de refus. Un autre domaine, qui a fait couler beaucoup d'encre sur les frontières entre vie privée et vie publique est le contrôle des connexions internet ou encore des échanges via le mail. Mais la mise en lisibilité des salariés via les TIC dépasse la simple logique disciplinaire, et l'usage d'un outil au service d'un rappel à l'ordre. Que ce soit dans le cadre du travail, ou en dehors de celui-ci, un vaste texte, en effet, s'écrit virtuellement sur la toile, où les échanges professionnels côtoient les pages personnelles ou les blogs, les chat ou les forums. Tous ces échanges sont ici autant de traces susceptibles d'être consultées. Dans le supplément emploi du 20 février dernier, le journal Libération rend compte de pratiques courantes, surtout aux Etats-Unis, d'enquêtes sur le web portant sur des candidats à l'embauche ; dans le même dossier, le journal cite l'exemple d'une femme dont le blog a été un obstacle à son recrutement, mais qui a décroché un travail grâce notammant à l'intérêt qu'il a suscité chez un autre employeur. Et le directeur d'un cabinet de recrutement conseille aux futurs salariés de faire un “audit” complet de soi sur le net avant de postuler à un emploi. Et une fois que le salarié est intégré dans une entreprise, “le système d'information «ressource humaine», écrit Sophie Pène maille ses évolutions, évalue sa trajectoire et mesure son potentiel : le «cycle de vie» informatique du salarié désigne son existence, archivée et attestée par les multiples fichiers le décrivant diachroniquement, actif dans différents processus et réseaux (notation, congé, réalisation, participations, mission, voyages, horaires, salaire, formation)”198. Aujourd'hui, c'est dans la mémoire des ordinateurs que le salarié est - virtuellement - enfermé, sous forme d'indices susceptibles d'intervenir dans la définition d'une trajectoire. 2) TIC, adaptation, normalisation Le rapport des TIC au contrôle ne se limite cependant pas à une fonction de surveillance ou un support d'enquête ; nombreux sont les travaux qui rendent compte du rôle de plus en plus important des TIC dans l'organisation ou la réalisation du travail via des logiciels de gestion : CRM (gestion de la relation client), SRM (gestion de la relation fournisseur), SCM (gestion de la chaîne logistique, ou encore ERP (progiciel de gestion intégré), viseraient une plus grande efficacité organisationnelle, via le traitement et la fluidité du flux informationnel, au service d'une production en juste à temps ; la contrepartie est une rigidification de l'organisation du travail, une intensification de celui-ci qui se traduit par un contrôle plus important du fait notamment de la fragilité des systèmes informationels (Vendramin 2002). En outre, les contraintes opératoires de l'usage des TIC, conjugués aux conditions managériales de leur utilisation, constituent tout autant un domaine d'investigation de la qualité du travail du salarié et une injonction pour celui-ci à s'adapter à la logique du programme, et au mode de représentation du travail qui lui est rattaché. En cela, les TIC participent aussi à une dépolitisation de l'exercice du pouvoir, puisqu'il n'est plus question que d'obéir à des données statistiques considérées comme neutre, objectives (Schweitzer, 2003). Aussi ne s'étonnera-t-on pas que les TIC, et en particulier les logiciels de gestion, puissent aussi être envisagés comme des instruments au service d'un renouvellement des dispositifs disciplinaires, qui portent sur l'activité cognitive des salariés (Bouillon, 2005). Avec les TIC également, de nouvelles formes de collaboration et de travail à distance sont devenues possibles, 198 S. Pène, Société de disponibilité, la vie quotidienne des communautés artificielles, œuvre nouvelle en vue de l'habilitation à diriger des recherches, Université de Paris 5, 2005, p. 39. 144 145 affaiblissant notamment cette composante constitutive de la société disciplinaire qu'est l'enfermement. Cette forme de libération n'est certainement pas déterminée par la seule capacité technique ; elle se soutient également d'une forme de management qui porte sur les objectifs et un contrôle qui porte sur les résultats. Une conséquence du télétravail dans ce contexte est une décentralisation de la gestion du temps de travail sur le salarié lui-même, qui se traduit par une exigence de disponibilité plus grande, ou qui pousse à être davantage disponible, et ce d'autant plus que la miniaturisation des TIC permet un usage en toutes circonstance (voir à ce propos les articles du journal Libération du 5 décembre 05 sur les usages du Blackberry). Quoi qu'il en soit, il s'agit d'une source nouvelle d'enfermement, au risque notamment de la dissolution des frontières entre vie professionnelle et vie privée, risque qui a d'ailleurs déjà conduit certains spécialistes du droit à réfléchir sur “un droit à la déconnexion” (J-E Ray, 2001, cité par Rey et Sitnikoff, 2004 ). Dans le cas du travail collaboratif par le biais du net, cette disponibilité est à la mesure des capacités de la machine : une question appelle une réponse, immédiatement. Un tel empressement ou une telle exigence tacite est sans doute à entendre comme une convention sociale visant à pallier le manque qui découle de l'absence, et à créer et maintenir l'illusion d'un “être ensemble” en réduisant au maximum les silences. C'est le temps qui fait groupe. Mais aussi, cette exigence d'être disponible doit être rapportée nous semble-t-il à la particularité du projet en tant qu'instance structurante d'inclusion ou d'exclusion : en être ou pas. L'appartenance au groupe est directement liée à l'implication dans un projet et donc à la capacité d'entrer en connexion avec les autres. Certes, dans le cadre d'une organisation, le projet n'est pas une condition univoque de l'appartenance, constitutive de l'identité sociale et professionnelle, mais il y contribue néanmoins, ne serait-ce que parce que le projet définit une place de l'individu dans l'organisation ; dans d'autres contextes, l'existence social de l'individu peut être tributaire de son implication dans un réseau porté par un projet. Par exemple, dans un article récent R.Panico et F. Poulle (2005) s'inquiètent des implications politiques d'une citoyenneté par projet qui de fait redéfinit les rapports inclusion/exclusion dans la communauté locale. Avec le projet, l'appartenance comme donné, qui confère un statut et une identité, vole plus ou moins en éclat. Dans ces conditions il est pertinent de parler de société de disponibilité, avec ses exigences qui s'étendent à la maîtrise des outils techniques, et supposent un travail de rationalisation (ou de gestion) de son activité cognitive pour y répondre, et répondre aux objectifs assignés. Mais dans le contexte de l'organisation, structure d'autorité, la disponibilité ne relève pas seulement de conventions sociales ou d'une confirmation identitaire ; l'existence d'objectifs, de délais, la désignation d'un chef de projet sont autant de déterminants d'une injonction à la disponibilité (qui s'épuise dans la mobilisation pour le projet ou plutôt dont les limites sont toujours repoussées) qui la replace dans le registre du contrôle : rôle du chef de projet, regard des uns sur les autres, existence de traces consultables, etc. Mais ce qui caractérise aussi le télétravail et l'usage des TIC dans une collaboration à distance, c'est l'éclatement des frontières physique et sociale propres à la société disciplinaire, et son fonctionnement à travers des milieux d'enfermement relativement étanches entre eux ; ils témoignent plus généralement d'une transformation des rapports individu organisation qui relève de la modulation. 3) TIC et modulation Modulation. C'est cette notion que Deleuze utilise dans son “post-scriptum sur les sociétés de contrôle”, pour distinguer celles-ci des sociétés de discipline organisant ces rapports sur le principe du moulage. Le texte apporte peu de précision sur cette distinction, mais l'exemple donné de la modulation des salaires permet de faire le lien avec d'autres pratiques aujourd'hui courantes dans les entreprises qui relèvent de ce qu'on appelle aussi la flexibilité : notamment celle des horaires ou encore celle des emplois. La grande distribution est particulièrement connue pour ces pratiques qui reposent sur une analyse très fine de la fréquentation des supermarchés. Cette analyse permet de calculer au plus serré le besoin de main d'œuvre selon les heures de la journée. Les TIC ne sont certainement pas la cause de tels choix, mais elles contribuent à faciliter leur mise en œuvre, tout en les légitimant, puisqu'ils sont rapportés à des données statistiques, et ne dépendent pas du bon vouloir d'un chef. La modulation, ici, concerne l'organisation du travail en regard de laquelle le salarié est envisagé comme un simple objet, une variable qu'il faut utiliser au mieux. Mais elle concerne aussi, il nous semble, la manière dont la personne est aujourd'hui gérée. Si la gestion des salariés dans les organisations porte à la fois sur des masses et sur des individus, aujourd'hui plus qu'hier, c'est sur les individus qu'elle porte, avec cette particularité que suggère assez bien le passage d'une direction du personnel à celle de la ressource humaine, qu'elle semble s'intéresser à leurs pensées, leurs émotions, leurs désirs, aussi bien qu'à leurs compétences, ou leur parcours professionnel. L'approche analytique de l'individu selon une multitude de paramètres, à travers des tests, entretiens d'évaluation, coaching, formation à la PNL ou à l'intelligence émotionnelle, dessine ainsi un individu fragmenté (un dividuel pour reprendre une expression de Deleuze), toujours provisoire et en cela donc modulaire. Ici, la logique gestionnaire n'est plus de l'ordre du moulage, mais de la trajectoire, ce qui suppose une capacité d'adaptation, et une volonté de progression, et sous-tend une évaluation régulière, un contrôle continu permettant de se corriger, de s'améliorer ou de s'adapter. Là encore, les TIC ne sont pas des déterminants de cette quête de transparence et de cette orientation gestionnaire et managériale ; mais les possibilités qu'elles offrent en matière de stockage, de traitement d'informations, de croisements de variables, et de restitutions sous forme de textes, diagrammes, tableaux, et ce avec une grande rapidité, rend plus aisée une gestion individualisante des salariés. Mais cette facilité pratique serait de peu de poids sans un contexte qui en retour apporte légitimité et puissance à cette gestion modulaire. Ce contexte, pensons-nous, est celui d'un changement de la place de l'individu dans la société et ses conséquences, mis en évidence notamment dans les travaux de Christopher Lasch (2000), d'Alain Ehrenberg (1995 & 1998), ou encore Dany-Robert Dufour (2001). Les crises des institutions, de la société disciplinaire, des récits structurants politiques et religieux, qui résultent notamment de transformations culturelles conjuguées à l'évolution du capitalisme, ont du même coup fragilisé le socle de la construction identitaire des individus. Libéré de nombreuses contraintes institutionnelles, l'individu est livré à lui-même et est sommé dorénavant de se construire, de s'inventer. Lasch parle à ce propos de culture du narcissisme, mais d'un narcissisme qui n'est pas assumé, qui révèle une fragilité nouvelle. Loin d'être une libération, ce changement conduit à une dépendance accrue à l'égard d'autrui comme pourvoyeur de gratification et d'un sens à son existence. Cette figure du narcissisme, selon Lasch, est associée également au développement important des experts (en particulier dans le domaine de la psychologie) présents pour aider l'individu à 145 146 combler les failles de son narcissisme, à améliorer son intelligence émotionnelle, etc, dans le domaine privé mais aussi dans le domaine professionnel. Dans cette perspective, la force de cette gestion modulaire est qu'elle s'appuie sur un désir de contrôle qui se soutient d'une quête de sens. Conclusion En réaction contre l'idée d'un dépassement des sociétés de contrôle inscrit dans un usage des TIC en milieu organisationnel au profit d'une société de disponibilité, nous avons mis en évidence le rôle plus ou moins direct des TIC en matière de contrôle. En faisant cela, nous n'avons fait en définitive que tirer la métonymie de Deleuze du côté des pratiques : “A chaque type de société, écrit-il, on peut faire correspondre un type de machine : les machines simples ou dynamique pour les sociétés de souveraineté, les machines énergétiques pour les disciplines, les cybernétiques et les ordinateurs pour les sociétés de contrôle” (1990, p.237). Ces pratiques indiquent que nous ne sommes pas complètement sortis de la société disciplinaire ou d'une logique disciplinaire du contrôle. Mais elles témoignent de leur inscription dans des logiques nouvelles qui constituent la société de contrôle et dont la modulation est ici l'illustration. Et plus généralement, ce que nous disent les TIC de la société de contrôle, limitée au champ des organisations, c'est qu'elle est une oscillation entre contrôle de gestion et contrôle d'identité, sur quoi repose les formes de dominations actuelles et l'évolution du capitalisme. Sans doute le capitalisme a-t-il besoin pour se développer de cette double dimension du contrôle de gestion, qui prend les individus comme des objets, et du contrôle d'identité, qui les reconnaît comme sujet. Cette reconnaissance permet à la fois de faire oublier aux individus le rôle de l'organisation dans la construction de cette identité, de les maintenir dans un “souci de soi” permanent, et de leur faire oublier qu'ils sont des rouages du système, à travers la gestion dont ils font l'objet, dans le domaine du travail, et aussi, dans celui de la consommation, via le marketing. Bibliographie Ouvrages et articles BOUILLON J-L. (2005), “Autonomie professionnelle et rationalisations cognitives : les paradoxes dissimulées des organisations post-disciplinaires”, Etudes de communication, Organisation, dispositif, sujet, n°28, décembre, 91-106. DELEUZE G. (1990), Pourparlers, Les éditions de Minuit. LASCH C (2000), La culture du narcissisme, la vie américaine à l'âge du déclin des espérances, Sisyphes/climats. PANICO R, POULLE F. (2005), “Le projet comme outil de gouvernement. De Foucault aux territoires de projets”, Etudes de communication, Organisation, dispositif, sujet, n°28, décembre, 141158. PENE S. (2005), “La «vie des hommes infâmes» dans la société de disponibilité”, Etudes de communication, Organisation, dispositif, sujet, n°28, décembre, 107-124. (2005), Société de disponibilité. La vie quotidienne des communautés artificielles, œuvre nouvelle en vue de l'habilitation à diriger des recherches, Université de Paris 5 René Descartes, décembre. REY C., SITNIKOFF F. (2004), “Les technologies de l'information et de la communication. Les nouveaux espaces-temps de la ville et du travail”, Esprit critique, vol 6, n°3, http://vcampus.univperpignan.fr/espritcritique/0603:esp0603article14.html RAY J.E (2001), Le droit du travail à l'épreuve des NTIC, Editions Liaisons. SCHWEITZER L (2003), TIC et contrôle social : regard sur le travail dans les centres d'appels, Terminal, n°89, www.terminal.sgdg.org/articles VENDRAMIN P. (2002), “Les TIC, complices de l'intensification du travail”, actes de la conférence CNRS/CEPREMAP/CEE, www.ftunamur.org/publications WHYTE W.H. Jr (1959), L'homme de l'organisation, Plon. Presse Jean-Luc Porquet, “La paix, c'est la guerre”, Le canard enchaîné, 8 février 2006 Christophe Nobili, “La caméra cachée, nouvelle optique sociale”, le canard enchaîné, 2 mars 2005. E.R., “Les non-dits de l'embauche”, Libération, dossier emploi «à l'heure de big blogger”, lundi 20 février 2006 S.F., “Prêt pour être «googlé», Libération, dossier emploi «à l'heure de big blogger”, lundi 20 février 2006 Libération, dossier emploi «Blackberry, un sans fil à la patte», Lundi 5 décembre 2005. Expérimentation et étude des pratiques et usages organisationnels des TIC dans l’univers professionnel à travers le déploiement d’un dispositif technique innovant : les blogs. Nolwenn HENAFF CERSIC ERELLIF / Université Rennes 2 [email protected] Introduction Nous proposons dans cet article, d’étudier comment ce dispositif numérique éditorial sans précédent qu’est le blog, agit sur les processus de communication d’une organisation en créant des usages de l’espace et du temps inédits, des nouveaux rapports aux autres, aboutissant au final à une organisation innovante du travail. Nous commencerons notre étude par l’analyse de l’objet blog en tant que nouveau dispositif technique communicationnel. Le travail s’oriente sur le contenu de l’offre avec comme axe de recherche la réponse à des problématiques de communication interne (blogs d’entreprise) 146 147 et de promotion externe (blogs à vocation marketing). Ensuite, nous verrons dans quelle mesure, le déploiement d’un intranet et/ou d’un blog d’entreprise, d’une plateforme de travail collective, peut avoir un effet plus ou moins direct et mesurable, sur les organisations en les faisant évoluer et en y créant, de nouvelles formes de pouvoir, de territoires, de communication, de pratiques de lecture, d’écriture «écrits de réseaux» et de travail, devenant à terme un véritable outil de management de l’information. Nous illustrerons nos propos d’un cas concret. Enfin, nous terminerons par quelques exemples « in situ » de pratiques et usages de blogs en milieu universitaire. 1.Les blogs au service des entreprises : à la recherche d’un modèle organisationnel Un dispositif technique aux usages en développement exponentiel La montée en puissance des blogs est en marche, que ce soit les journaux, les entreprises, les hommes politiques ou l’individu moyen, tous sont appelés à se positionner par rapports à ces nouveaux carnets de bord en ligne multiformes. De fait, il peut aussi bien prendre la forme d’une page personnelle consacrée aux vacances de son auteur, d’une lettre d’information spécialisée, d’une note politique ou bien encore constituer un véritable outil marketing de promotion et de communication. Nouvelle source d’information majeure, de part sa multiplication, sa facilité de mise à jour et sa visibilité possible par les flux RSS1, les blogs suscitent des commentaires passionnés et il suffit pour s’en convaincre de lire la presse, d’écouter la radio ou de regarder la télévision. Le phénomène est encore nouveau mais atteint déjà un stade de développement impressionnant. Ce qui est nouveau peut fait peur, nous pourrions effectivement anticiper quelques craintes sur les divers usages, mais c’est en oubliant qu’il semble correspondre à ce que l’Internet communiquant offre de meilleur : la convivialité, l’interactivité, la possibilité de publier et d’échanger relativement simplement d’un point de vue technique. Pour une définition précise du dispositif technique, nous allons nous référer à celle donnée par l’Office québécois de la langue française : « page Internet évolutive et non conformiste présentant des informations de toutes sortes, généralement sous forme de courts textes mis à jour régulièrement, et dont le contenu et la forme, très libres, restent à l’entière discrétion des auteurs ». Reste ensuite à en analyser le contenu, la forme, et les usages. Blogosphère, mythe ou réalité pour les entreprises ? Faisant partie de ces outils qui améliorent la circulation de l’information, le blog dépasse, en entreprise, sa simple fonction de moyen d’expression. Du côté des entrepreneurs, c’est la peur de ne plus maîtriser ni de filtrer l’information qui domine, cependant certaines entreprises ont décidé d’expérimenter cet outil dans le cadre de leur communication interne, laissant à leurs salariés la possibilité de blogger en toute tranquillité, l’idée étant de leur permettre d’échanger sur leurs pratiques professionnelles. Aussi, de façon plus opérationnelle, cet outil collaboratif peut faciliter les échanges entre les collaborateurs d’une entreprise dans le cadre d’un travail géré en mode projet. Il peut enfin devenir un véritable outil de gestion des connaissances dans le cas où il intègre des fonctions de recherche sur Internet et/ou intranet. La mise en place de systèmes de gestion de contenus (CMS) dans l’entreprise, qu’ils revêtent la forme d’Intranet ou de blogs, permet d'agir sur plusieurs enjeux stratégiques et décisionnels. En tant que systèmes d'information intégrés, ces plateformes permettent d'automatiser et de rendre intuitif, les activités dévolues aux espaces collaboratifs, facilitant par là même l'adhésion des utilisateurs et permettant des montées en charge et une circulation d'information optimale. Un blog peut aussi représenter le savoir-faire d’un collaborateur en décrivant sa méthode de travail qui peut devenir à terme une procédure facilement accessible à tous. Le blog, a aussi franchi un nouveau pas dans le monde de l’entreprise à l’occasion du salon BlogOn1 qui lui était dédié et qui le positionne comme un véritable outil de communication au service de l’entreprise. Un outil de communication interactif à double tranchant tout de même, puisqu’en plus de véhiculer des informations, ses promoteurs assurent que sa seule existence doit associer l’entreprise à des valeurs de transparence et d’ouverture. C’est ainsi qu’une étude conduite par Harris Interactive indique que seulement 5% de ces grands patrons2 voient un « blog corporate » comme outil de communication, et pourtant 21% d’entre eux lisent au moins une fois par semaine des parutions dans les blogs relatifs à leurs activités. Interrogés sur leur frein principal, 67% des patrons estiment qu’il serait nécessaire de mettre en place des règles dans l’entreprise pour cadrer l’usage des blogs. Car se doter d’un blog est une chose, accepter la critique en est une autre : le blog reposant sur un principe initial de partage et de discussion. Ainsi, malgré un surcroît de visibilité, une grande popularité, une modernité du support, associés à une forte demande des salariés, les patrons invoquent les multiples complications possibles liés à la responsabilité du gestionnaire qui devra apporter des réponses et alimenter le blog. Alimentés par les salariés en temps de crise, le blog s’impose alors comme le moyen le plus rapide et le plus efficace pour se faire entendre. Véritable chronique quotidienne, l’exemple du journal de bord « d’Amen en grève » alimenté par les salariés a raconté l’évolution du mouvement social. Fédérant les collaborateurs autour d’une cause commune à défendre, le blog mobilise alors pour un temps donné dans un espace délimité mais libre d’accès, une communauté de personnes aux intérêts partagés, il entre bien alors dans le cadre de production de liens sociaux, liens renforcés dans la poursuite, la défense d’une action, d’un projet, d’une cause commune. Ces communautés créées à un instant ‘t’ ouvrent de nouveaux territoires, de nouveaux espaces d’expression et peuvent à terme modifier les rapports de force dans l’entreprise entraînant une modification profonde du dispositif communicationnel et relationnel en place. Des relations d’une forme plutôt verticale (quand la ligne éditoriale est maîtrisée par le manager) dominaient jusqu’à présent sur le Toile, avec les blogs, ce sont des relations horizontales, directes et itératives, qui prennent le dessus. Chaque individu peut exprimer ses opinions et recevoir en retour les avis des autres. Ce processus très itératif se veut constructif dans la mesure où il se base sur des échanges en bonne intelligence, les blogs peuvent parfois exprimer la « sagesse » commune. C’est le cas d’un millier d’employés de Microsoft qui publient leur blogs et font part aux curieux (700 000 les trois premiers mois) de morceaux choisis de leurs activités. Outil communicationnel alternatif : le blog marketing La nouvelle tendance est le développement de blogs marketing destinés à transmettre diverses informations, mais de manière plus personnelle (l’auteur de chaque message étant identifié), réactive (simplicité d’utilisation) et ouverte aux critiques. Le blog peut ainsi décliner plusieurs modèles à finalités variées. Le blog publicitaire qui a une durée de vie très courte se 147 148 voit créer spécialement pour promouvoir un nouveau produit ou une marque dans le cadre d’une campagne ponctuelle, son principal risque concerne l’audience avec une exposition faible qui ne permettrait pas un retour sur investissement suffisant. Le blog institutionnel, quant à lui, permet à l’entreprise ou à sa direction d’initier un échange avec le lecteur. Ils répondent principalement à des objectifs de valorisation, d’humanisation de l’entité. Les blogs peuvent aussi occuper une place au sein du dispositif CRM1lorsque les lecteurs peuvent contribuer et réagir sur le blog de l’entreprise. C’est le cas de Michel de Guihermier, créateur du site de développement de photos en ligne Photoways4 qui a très vite assimilé ce nouveau support. «Depuis quelques mois, je mets mes prestations, mes promotions, mes produits, sur mon blog. C’est incroyable, 3000 à 4 000 personnes le visitent chaque jour. Nombre d’entres eux émettent des suggestions, évidemment je m’en inspire»2. Pourtant l’audience n’est pas toujours au rendez-vous et les pionniers qui s’essayent à ce nouveau mode de communication doivent respecter quelques règles de la blogosphère : habituées au secret, les marques se voient obligées de jouer la transparence, la spontanéité et l’échange, de plus il est préférable que le blogueur soit extérieur à la marque et que cette dernière soit clairement identifiée par le visiteur. Ces nouveaux modes de diffusion de l’information et de communication directe et spontanée présentent cependant beaucoup d’avantages et permettent avant tout de développer la complicité avec la clientèle, le blog remet ainsi de l’humain dans un monde « hyper- communiquant », les clients peuvent alors se réapproprier la marque. 2. Pratiques et usages des TIC : un cas d’entreprise L’Intranet d’un l’Urssaf : étude de la réception du côté des salariés, d’une stratégie managériale mettant en œuvre une nouvelle pratique et un nouvel usage des TIC : Depuis quelques années, les URSSAF (Union pour le Recouvrement des cotisations de Sécurité Sociale et d’Allocations Familiales) comme de nombreux services publics, sont confrontés à la nécessité de s’adapter aux souhaits des citoyens de voir se simplifier leurs relations avec les administrations. En interne, cela se traduit par une nouvelle organisation des services orientée client. L’adaptation à l’environnement dont font preuve les l’URSSAF se retrouve également dans les choix qu’elles opèrent en matière de technologies. De fait, l’URSSAF que nous allons étudier assure quant à elle une veille technologique continue par l’intermédiaire de son service informatique qui l’a tient informée des innovations qu’elle serait en mesure d’intégrer. Naissance du Portail Internet Les difficultés rencontrées dans la conduite de changement lors de la mise en place du projet de réorganisation interne en 2003 a fait prendre conscience à la Direction de la nécessité de réfléchir sur les moyens qui permettent de véhiculer et de développer une culture d’entreprise. La principale difficulté constatée dans la conduite de projet tenant plus à la déficience de la communication managériale qu’aux aspects techniques du dispositif. Outre, la communication, c’est aussi l’information qui est visée, la gestion documentaire et l’accès aux bases d’informations dématérialisées devenant une priorité. Dès le départ du projet, la dichotomie aspects techniques de l’outil et contenu et usages est établie, l’objectif visant de mettre la technique au service de l’utilisateur et de ses besoins. Un outil au service d’une stratégie d’entreprise Le projet « portail Internet » dans sa dimension locale est avant tout conçu comme un dispositif communicationnel à vocation de décloisonnement interne. Pour cela il doit apporter des informations utiles et à valeur ajoutée pour le personnel dans la gestion de son quotidien pour assurer son appropriations et ainsi permettre une responsabilisation aussi bien individuelle que collective sur les objectifs et résultats de l’entreprise. Calypso (nom donné au dispositif) a donc été réalisé en 2004 pour favoriser la communication interne. Son ambition portait notamment sur la mise en exergue de la vie de l’entreprise, ses enjeux, sa culture et son environnement sous ses multiples aspects.(législatifs, organisationnels, documentaires et pratiques). L’objectif principal reposant sur l’appropriation de l’outil qui devait conduire à terme à une dynamique d’échanges interne, le tout initié par une volonté marquée de la direction et du personnel d’encadrement. Un bilan mitigé Plus d’un an après la mise en place du dispositif, force est de noter des dysfonctionnements importants : pas de politique éditoriale, des contenus incomplets, des sujets pas traités et un manque de réactivité. Ces constats nous renvoient à une problématique plus globale de pratiques de la communication au travers d’un dispositif innovant et à un questionnement sur l’origine de cette sous-utilisation. Entre d’autres termes la remise en cause doit-elle plutôt porter sur l’outil et son appropriation (demande) ou sur le management de l’information (offre) et plus généralement sur la culture de la communication ? Considérée comme stratégique par la direction, la communication est un véritable enjeu pour l’organisme, cependant la gestion de l’alimentation n’est partagée que par très peu de personnes et de plus cette importance n’est pas forcement ni comprise, ni relayée par les membres de l’encadrement. Du côté de la demande, pour être visité, il convient d’adapté le contenu de l’Intranet aux attentes du lectorat. C’est dans cette optique qu’une étude à la fois quantitative et qualitative a été mis en place en avril 2006 pour mesurer le taux de satisfaction du lectorat. L’enquête Les objectifs de cette enquête sont triple : appréhender le comportement des utilisateurs vis à vis de l’outil, recueillir leur avis, identifier les futures besoins. Le questionnaire est mis à disposition en ligne sur l’Intranet pour une durée de deux semaines et comporte huit questions dont quatre questions fermées, trois à échelles de valeur, et une ouverte. La 1ère question concerne une donnée quantitative : la fréquence de consultation (une réponse possible de plusieurs fois par jour à jamais), la 2ème à choix multiple questionne les raisons de l’utilisation de l’outil avec une question à champ libre, la 3ème interroge les moments de consultations (plusieurs réponses possibles), la 4ème question concerne plus particulièrement la lecture de la revue de presse consultation (de tous les jours à jamais), la 5ème sous forme d’échelle de Lickert2 se réfère à l’ergonomie de l’intranet (sa présentation, son organisation, ses usages), la 6ème aussi sous forme d’échelle de valeur aborde le thème du contenu, la 7ème question porte sur les nouveaux éléments de contenu souhaités (plusieurs réponses possibles), enfin la dernière question est un espace d’expression libre facultatif. Résultats et analyse Sur 140 salariés, 75 ont répondu à l’enquête soit 54% de 148 149 taux de réponse. Concernant les usages de fréquentation (questions 1,3 et 4), tous les sondés consultent l’Intranet (41,33% plusieurs fois par jour, 18,67% de une à 4 fois par semaine et 29,33% consultent la revue de presse tous les jours). A noter cependant que les comportements ont évolués, alors qu’en novembre 2005 les consultations étaient de 4,6 par agent et par jour, elles tombent en avril 2006 à 1,4 visites en moyenne par jour et par agent. La chute de fréquentation constatée depuis novembre 2005 s’explique par deux phénomènes : un directement lié au contexte avec une montée en charge du travail et donc une mobilisation générales des services à d’autres taches, l’autre phénomène peut s’expliquer par les travaux de modélisation de l’usage des blogs fait par le professeur américain John Grohol (GROHOL, J., Psy D (2005) Internet Addiction Guide) qui nous invite à penser le phénomène « blog » à l’aide d’un modèle « model of Pathological Internet use » applicable à l’utilisation de toute nouvelle technologie, de tout nouveau dispositif technique et notamment des blogs. Sa démarche s’effectue en quatre phases distinctes et étalées dans le temps. La première phase correspond à la découverte de l’usage de l’objet qui se traduit par une nouvelle activité online, (c’est le stade de l’expérimentation de l’objet), née d’un besoin personnel ou social qui s’exprime au travers de la création ou de la première participation à un blog. La deuxième phase traduit l’enchantement du blogueur, voire son obsession avec une démultiplication des temps de connexion, une dispersion de ses activités, une effervescence comparable à l’utilisation de drogues ou autres stimulants. La troisième phase se caractérise par un rejet, une désillusion quant à l’usage fait de l’objet, une sorte d’over dose qui se décrit pas un décroissement de l’activité. Enfin, le dernier stade est synonyme d’équilibre, de retour à la normale, il est caractérisé par un usage plus rationnel et efficient du dispositif, moins guidé par les émotions (niveau atteint dans notre exemple). Les moments choisis pour se connecter à l’Intranet ne sont pas significatifs, de fait ils s’étalent tout au long de la journée. Concernant l’utilisation, le portail Intranet est avant tout une source majeure d’informations : les actualités (news, brèves, agenda, …) sont consultées par 88% du lectorat, devant la recherche documentaire (vie collective, procès verbaux divers,…) 57.33%, et l’accès aux services (commandes de fournitures, demande de congés,…) 56%. L’actualité reste donc primordiale En matière d’ergonomie et de contenu (questions 5 et 6), le dispositif est apprécié pour sa facilité d’utilisation et son interface conviviale qui favorise une appropriation de l’outil. Les améliorations souhaitées visent une gestion éditoriale plus réactive et une évolution de certaines rubriques restées identiques depuis la mise en ligne du portail. A la question 7 : quels nouveaux éléments voudriez-vous voir apparaître ? La réponse qui arrive en premier est un historique des news (45.33% des sondés souhaitent un historique des informations publiées), la deuxième position revient à la mise en place d’un espace d’expression libre type blog avec 38.33% des réponses. Préconisations Après deux ans de fonctionnement, Calypso peut être satisfait de son premier bilan Le dispositif a été adopté comme outil de communication de proximité. Nos recommandations à court et moyen terme s’orientent autour de deux axes : la mise en place d’un comité éditorial qui permettrait d’impulser une véritable politique éditoriale avec une double mission : dynamiser la remontée d’informations et placer au rang d’instance stratégique de la communication interne les évolutions de l’outil. - la réorganisation et la gestion des quatre espaces : l’espace métier va être de moins en moins utilisé, l’espace documentaire est sous-alimenté, celui consacré aux services est en pleine évolution (ce qui devrait à terme rendre l’outil incontournable), et l’espace news qui manque de réactivité et d’interactivité Il a été décidé qu’il était trop tôt pour modifier cette répartition : la priorité passant par l’augmentation de l’attractivité de l’outil, elle-même conditionnée par une meilleure adéquation à la demande des rubriques documentaires et nouveautés. La création d’une rubrique ressources humaines et suivi des projets n’a pas été jugé pertinentes à ce stade de développement. A moyen terme, deux types d’évolutions sont envisagées : au niveau de l’offre, suite à l’analyse des besoins du lectorat avec la création d’un trombinoscope par exemple mais aussi la possibilité d’offrir un espace libre d’expression ouvert à tous. La mise en place stratégique de ce blog se conformerait aussi à la stratégie de la direction qui prône un fort développement de la culture d’entreprise. Le moment d’ouverture devra être très bien choisi, il faut ainsi éviter les temps de crise et d’incertitude comme c’est le cas actuellement (signature d’un nouveau contrat quadriennal avec l’Etat avec allocations des ressources, mutualisation, restructuration, …). La direction souhaite initier ce type de plate-forme d’échanges dans un climat porteur comme un changement de locaux. Les évolutions techniques permettront quant à elles, un intégration de l’Intranet dans l’outil de messagerie, une plus grande souplesse de création de rubriques et la mise en place d’une zone d’archivage des articles. 3. Pratiques et usages des TIC : des exemples en Université Dans le monde universitaire Côté enseignants Entre enseignants stricto-sensus avec comme dernier exemple en date de l’été 2005, le chef de projet du site Internet Stid-France, site qui rassemble tous les départements STID (statistique et traitement informatique des données) des IUT de France a mis en place un système d’échange de réactions et d’idées qu’il résume en un mot un blog et qu’il a nommé « beluga » à usage de tous les enseignants du département. Dialogue, travail collectif, la technique sert bien ici de plateforme d’échanges à une communauté bien concrète et se connaissant a priori dans le cas présent mais qui avait besoin d’un nouvel espace physique (virtuel) pour communiquer et collaborer. Entre enseignants et élèves : c’est ainsi qu’une PAST de l’IUT de Vannes a créé le blog du cours de communication commerciale des étudiants de TC (technique de commercialisation) de Vannes avec des fonctionnalités allant du calendrier du programme de l’année, aux travaux en cours, c’est un véritable espace dédié qui s’est mis en place pour regrouper pour une année des étudiants d’une même formation. Au service de la recherche, pour partager son expérience et publier ses recherches De fait, publier ses travaux, ses pensées ou informer par Internet grâce au blog permet d’accroître sa visibilité. L’actualité d’un département, la liste des membres d’un laboratoire de recherche, leurs travaux pratiques peuvent ainsi être soumis à lecture et commentaires extérieurs. L’effet blog se mesure au travers du développement d’un réseau, d’une dynamique externe qui incite les chercheurs à se retrouver dans des colloques, des groupes de travail ou lors de journées 149 150 d’étude. Visibilité dont l’université peut elle-même tirer des bénéfices en terme de notoriété. Pour une dynamique du savoir Pour Jean-Paul Pinte de Lille 1, l’utilisation des blogs par les étudiants pour publier leurs articles et travaux « donne une autre dimension au travail des élèves ». De fait, les commentaires, retours et critiques émis viennent encourager les élèves à défendre leurs idées, leurs écrits face au public. Cela permet aux jeunes de se retrouver dans une nouvelle dynamique de motivation lorsqu’ils voient une autre impulsion, une autre dimension données à leur travail. Conclusion Les exemples présentés ci-dessus regroupent pour un temps donné, dans un espace virtuel interactif, des acteurs qui poursuivent le même objectif, qui adhèrent au même projet. Bibliographie : GROHOL, J., Psy D (2005) Internet Addiction Guide. Webographie : Le blog d’entreprise à l’épreuve du risque, Blogs de marque: les pionniers témoignent, un nouveau blog toutes les 6 secondes (2005), (articles en ligne sur http://www.journaldunet.com >) Blog du cours de communication des étudiants de TC de Vannes, (2005), (blog en ligne sur < http://blog.ca >). La blogosphère reste aux portes des entreprises, (2006), (article en C’est le reflet d’un processus complexe de changement des modes d’organisation et de travail qui poussent les individus à se regrouper par objectifs partagés, cette démarche transversale nous la retrouvons en entreprise par le travail en mode projet. L’exemple de l’Urssaf témoigne quant à lui de la volonté d’une direction à faire évoluer sa communication interne. Partant de la mise en place d’un portail Internet, d’un véritable outil collaboratif, le dispositif va peut-être s’enrichir d’un espace libre, laissant ainsi aux employés la possibilité de blogger en toute tranquillité, l’idée étant de leur permettre d’échanger à terme essentiellement sur leurs pratiques professionnelles. Dans le cas où la rubrique suivi de projets serait ouverte, cet outil, de façon plus opérationnelle, pourrait faciliter les interactions entre les collaborateurs dans le cadre du travail géré en mode projet. Il pourra enfin devenir un véritable outil de gestion des connaissances quand il intègrera des fonctions de recherche sur Internet et/ou intranet. ligne sur http:www.atelier.fr ). Blogs marketing, (2004), (articles en ligne sur < http://www.abcnetmarketing.com >). La maison des universités (2006), blogs et enseignement supérieur (en ligne sur <http://www.cpu.fr> ). PINTE, J.P, (2006) : (documents en ligne sur < http://veillepedagogique.blog.lemonde.fr> ). De l’explication des effets, à la compréhension des usages des TIC dans les organisations : un défi pour les SIC. Olivier HIRT CERIC, Université Montpellier 3 [email protected] Résumé : Cette communication propose de revisiter, sous l’angle des Sciences de l’Information et de la Communication, les phénomènes organisationnels liés aux TIC. Les approches scientifiques habituelles découpent en processus, une réalité complexe. 150 151 Nous nous intéresserons aux usages (ou non usages), en tant que communications porteuses de sens, construites par les acteurs en situation, en nous appuyant sur le cas d’étude d’une collectivité locale de trois mille acteurs. Notre recherche, à partir d’un travail empirique de terrain, abouti sur l’élaboration d’une méthode pour les concepteurs, les dirigeants, etc. Elle permet d’une part de faire émerger les usages des TIC au sein de leur organisation et d’autre part de comprendre comment les acteurs à travers ces usages, envoient des communications signifiantes pour négocier leur façon d’« être à l’organisation ». Mots Clés : système, être à l’organisation, usage, dispositif sociotechnique, contexte organisationnel, communications signifiantes. « A mesure que croît l’information distribuée dans tout l’espace social, décroissent les relations entre les pratiquants de cet espace. » DE CERTEAU Michel, « La communication ordinaire », Editions du Seuil, Paris, 1994 Introduction Les « instruments technologiques », du fait de l'introduction massive, à tous les niveaux des organisations, des technologies de l'information et de la communication, prennent une place de plus en plus importante dans ces organisations. Les différents acteurs sociaux (chefs, subordonnés, équipes, ...) sont de plus en plus « aux prises » avec des dispositifs sociotechniques pour leur recueil de renseignements (veille économique et informationnelle), la définition de leur travail (intranet), leur collaboration (groupware), leurs décisions (workflow), leurs relations (messagerie)... Les Sciences de l’Information et de la Communication sont aujourd’hui en mesure d’investir ce champ des TIC. Elles disposent des outils intellectuels et des méthodes scientifiques pour appréhender les phénomènes complexes qui se déroulent au sein des organisations lors de l’usage des dispositifs sociotechniques par les acteurs en situation. Lorsque les SIC, à leurs débuts, ont étudié les phénomènes de communication dans les organisations, les chercheurs ont apporté un regard nouveau sur ces phénomènes étudiés, jusqu’alors réservés à une approche positiviste des sciences de gestion ou psychologie du travail. Aujourd’hui, les approches des TIC sont faites essentiellement par les sciences cognitives, informatiques, gestion et les sciences de l’éducation dans le cadre des technologies de formation en ligne. Ces orientations classiques des études au sujet de ce phénomène important, appréhende les choses en termes d’impact des TIC dans les organisations, sur les différents processus organisationnels : processus de travail, processus de management, processus de collaboration, processus de normalisation et d'acculturation, processus « d'intelligence collective », processus de négociation, processus de constitution des identités de groupes ou de métiers, processus de restructuration, ...Une telle orientation ne nous parait pas forcément pertinente car elle décomposeen « effets » localisés, une réalité complexe qui est le changement conjoint de « l'être à l'organisation » des acteurs sociaux et de « l'organisation » elle-même en tant que construit intellectuel des acteurs qui la composent. C'est une situation globale de travail qui change, et de ce fait, la technologie seule ne va pas déterminer les changements sociaux (dont les usages au travail de cette TIC par les membres de l'organisation). La question qui se pose alors est la suivante : « Que se passe-t-il du point de vue de la communication, pour les acteurs en situation, lorsqu’une organisation utilise une TIC et voit ses acteurs internes développer des usages ? » Nous présenterons rapidement l’épistémologie constructiviste de notre approche Sciences Info-Com des TIC. Puis nous l’appuierons l’étude de cas d’une collectivité locale souhaitant faire évoluer l’« intranet » au sein de sa structure. Cadrage épistémologique Constructivisme En tant que chercheur en SIC, nous nous inscrivons dans une épistémologie constructiviste et le paradigme de la complexité. Le constructivisme est une position épistémologique, un point de vue sur la nature de la connaissance scientifique. Le chercheur voit les « objets scientifiques » comme des « construits intellectuels » reposant sur les a priori scientifiques qu’il ne peut pas ne pas avoir lorsqu’il perçoit et met en forme le « réel » pour le rendre intelligible. La vérité n’existe pas, le chercheur ne s’intéresse qu’à la « convenance » de la découverte. « Chaque théorie est comme un filet jeté sur les phénomènes et elle ne peut ramener que ce que les mailles du filet lui permettent de ramener. » La connaissance est toujours inachevée. Ce positionnement propose de concevoir l’organisation comme un construit intellectuel des acteurs qui la composent. Une organisation n’est pas palpable, n’est pas visible, … On ne peut y avoir accès que par les représentations et les communications (dans son acception la plus large soir comme conduites humaines) que nous livrent ses membres. Paradigme de la complexité Conjointement à l’épistémologie constructiviste, nous inscrivons notre travail dans le paradigme de la complexité insufflé par Edgar Morin. La science occidentale contemporaine a procédé à l’élimination positiviste du sujet, cet inconnu, cet incertain. Et l’avènement des TIC réifie l’objet, ce connaissable, ce déterminable, cet isolable et par conséquent ce manipulable. Par une vision complexe de la situation nous ne prétendons pas à la compréhension exhaustive de la situation mais bien à sortir de la vision déterministe, centrée sur l’objet et donc incapable de considérer l’humain et les phénomènes d’auto-organisation. Nous nous écartons du mécanisme qui découpe LA réalité, en quête de LA vérité, à la manière des sciences dites « dures » (jusqu’à la découverte d’Einstein avec la mécanique quantique et la théorie de la relativité) afin de considérer un tout complexe, UNE réalité pertinente, ancrée. Le cas d’une Communauté d’Agglomération Présentation de l’organisation Cette collectivité locale compte 3000 acteurs répartis dans des structures très diverses (siège, bibliothèques, musée, piscine, salle de spectacle, maison d’agglomération, …) et des postes variés (président, élus, chargé de presse, secrétaire, directeur de bibliothèque, documentaliste, éboueur, standardiste, directeur de direction, informaticien, …). C’est une organisation très hiérarchisée, divisée en services. Au sommet, on compte le président appuyé par le bureau des vices présidents, le directeur général des services et le 151 152 cabinet du président lui-même appuyé par la direction de la communication. Ce sommet hiérarchique est fortement politique, les acteurs ont conscience que si un changement d’orientation politique s’opérait, leurs postes seraient alors à pourvoir. Ils sont orientés vers les citoyens et la direction de la communication est là pour communiquer les actions, décisions et l’image de la Communauté d’Agglomération. Le directeur général des services est en relation avec les directeurs de pôle et chaque pôle compte cinq ou six directions auxquelles sont rattachées diverses structures. Toute cette organisation est le fruit d’une forte et rapide expansion. Les acteurs qui étaient présents à la naissance du district (regroupement de communes avant la communauté d’agglomération) se plaisent à nous rappeler « qu’avant tout le monde se connaissait » et qu’aujourd’hui « chacun est cloisonné dans son service ». Cette expansion ajoute un phénomène important de turn-over (va et vient de personnel) qui a fait augmenter considérablement les effectifs de la direction des ressources humaines. Au départ, le service informatique comptait deux personnes, dont le directeur actuel. Aujourd’hui ils sont quatorze, répartis entre un groupe de projets et un groupe de techniciens. Le parc informatique compte plus d’un millier d’ordinateurs dispersés entre le siège et les différentes structures. Tout un développement logiciel a été mis en place : maintenance informatique à distance, site internet, accès internet, messagerie électronique, applications spécifiques (veille juridique, marchés publics, covoiturage, etc.), suite bureautique, … Afin de réduire les coûts et de dépendre au minimum de prestataires extérieurs ou de propriétaires logiciels, le directeur des ressources informatiques a choisi tant que faire ce peut des solutions OpenSource (code source ouvert et gratuit). Le scénario de mise en place de l’intranet est assez classique si l’on s’en tient à la littérature de la sociologie de l’innovation. Des acteurs techniciens, ont réalisé une sorte d’invention technologique (un serveur permettant d’échanger des fichiers via des pages HTML) et souhaitent l’étendre à l’ensemble de l’organisation en le soumettant sous le nom d’ « intranet », à leur hiérarchie et à la direction de la communication. Dans le discours des acteurs du service informatique, « cet outil a pour mission de décloisonner les services et de fédérer les gens pour leur permettre un travail collaboratif entre service ». Dans l’état actuel, l’intranet ne présente que quelques pages très peu mises à jour, un annuaire du personnel et le logiciel de covoiturage. appréhendons le terrain avec nos aprioris, la conscience de notre influence, dégagés de toute illusion d’objectivité, afin de recueillir des données grâce à des outils matériels et intellectuels (les méthodes qualitatives) qui nous serviront à faire surgir un sens de la situation. Nous avons donc effectué un premier cadrage limitant notre observation et nos entretiens aux acteurs ayant un ordinateur connecté à l’intranet. Nous avons interviewé l’ensemble des structures (bibliothèques, piscines, siège, etc.) ainsi qu’un vaste champ d’acteurs (directeurs, secrétaires, responsables, …) sans soucis de systématisation mais bien celui de découvrir des formes d’échange, des communications récurrentes. Au fur et à mesure des premiers entretiens et par un aller-retour incessant l’analyse et le terrain, nous avons recadré notre enquête en nous présentant toujours aux acteurs comme chercheur en DEA, souhaitant comprendre l’introduction de l’intranet au sein de cette communauté d’agglomération. Le positionnement du chercheur et sa méthode Notre entrée au sein de cette organisation, s’est effectuée directement avec la direction des ressources informatiques (DRI) et une courte présentation auprès de la directrice de pôle, sans contact avec la direction générale des services. Nous n’avons rencontré le directeur général des services qu’en fin de stage, pour lui proposer quelques préconisations. La DRI, par l’intermédiaire du directeur et de la chef de projet de l’intranet, souhaitait avoir un éclairage sur les usages de l’intranet afin de définir un scénario d’optimisation et une maquette à proposer à la directrice du pôle de direction. L’une des difficultés majeures pour le chercheur, c’est le risque d’instrumentalisation. Notre démarche doit se décentrer de la demande concrète formulée par le commanditaire, pour comprendre cette demande à un niveau significatif, en tant que « réalité secondaire » replacée dans son contexte. Le chercheur en SIC ancre son travail dans une approche qualitative et en compréhension. Nous sommes dans une démarche empirico-inductive à l’opposé de la démarche hypothético-déductive qui consiste à utiliser le terrain pour vérifier des hypothèses à l’aide de grilles préconstruites. Nous Nous avons repéré deux formes récurrentes d’échanges : Première forme récurrente : « il y a un problème, on propose une initiative, on est bloqué ». Très rapidement au court de l’audit, nous avons été surpris par l’événement suivant : pour informer l’ensemble des acteurs que nous allions les interviewer et prendre rendez-vous avec eux, nous avons diffusé un courrier électronique avec l’appui de la directrice du pôle. Tous les services ont joué le jeu, sauf la direction de la communication (DirCom) qui se disait « ne pas être un service comme les autres et vouloir participer à l’élaboration de l’intranet ». Notre première interprétation fût d’imaginer que c’est par notre intervention que nous avions déclenché un conflit entre la DirCom et la DRI. Mais restons humble, l’observation et les entretiens ont fait de cet événement surprenant, la manifestation d’une forme récurrente d’échange jouée entre la DRI et la DirCom. Nous avons appris que depuis la création de l’intranet, la DRI a souhaité « refiler le bébé » à la DirCom mais que ceux-ci ne souhaitaient pas s’en occuper. Les deux acteurs (DRI et DirCom) ont une vision différente de l’intranet : la DirCom nous dit que leur travail « c’est que les agents de la communauté Compréhension des jeux organisationnels des acteurs Toute notre analyse repose sur l’approche systémique des relations dans les organisations. Cette approche propose d’envisager la réalité comme une définition, une « réalité secondaire » dépendant du cadre d’interprétation de l’acteur. L’approche systémique des relations propose de comprendre un phénomène selon un mode de causalité circulaire, inscrit dans un système complexe de communications, réglé par des jeux comprenant chacun leurs coups. « Le jeu mène le je » disait Paul Watzlawick. Le jeu collectif construit par les acteurs prend le pas sur leurs volontés individuelles. L’introduction de l’intranet est englobée dans le système qui dispose de sa logique élaborée par les règles que les acteurs ont construites et dépasse la volonté individuelle des acteurs du système. L’usage (ou non usage) de l’intranet est donc une communication signifiante envoyée par les acteurs au collectif. Suite à nos entretiens, s’est reconstruite l’histoire organisationnelle autour de l’intranet, pointant le début de l’introduction de l’intranet au moment où le directeur des ressources informatiques a « bricolé » quelques pages HTML sur un serveur afin de partager des ressources. D’un point de vue linéaire, il s’agirait du point de départ. Mais d’un point de vue systémique (causalité circulaire) il s’agit d’une communication qui entre dans un système déjà en place. L’acteur élabore une stratégie pour tenter de répondre à une problématique organisationnelle qu’il s’agit de découvrir en faisant émerger la logique du système. 152 153 d’agglomération ne soient pas informé après les citoyens. On doit contrôler ce qui est diffusé, on ne peut pas se permettre que n’importe qui écrive n’importe quoi. » et la DRI voit l’intranet comme un outil qui permettrait aux agents d’échanger entre service, de partager l’information, de communiquer et de travailler ensemble, palliant au cloisonnement des services.Quelques mois auparavant s’est joué un jeu similaire entre les Ressources Humaines (DRH) et la DirCom à propos d’un livret d’accueil. La DRH avait lancé l’initiative d’un livret d’accueil pour faire face au phénomène de turn-over et ainsi accueillir les nouveaux agents, puis le projet a été récupéré par la direction de la communication qui venait de missionner un agent en tant que « chargé de communication interne » (jusque là, il n’y avait personne spécialement attaché à la communication interne de la collectivité). Deuxième forme récurrente : « on est cloisonné, mal informé, on veut faire des choses ensemble ». L’ensemble des directions du siège utilise peu l’intranet, à part l’annuaire du personnel. Les structures extérieures en revanche le consulte quotidiennement pour s’informer. Les acteurs déplorent le manque de mise à jour et ne savent pas qui s’en occupe et à qui s’adresser pour proposer des informations ou des documents. Un seul service soutient ne pas avoir besoin de l’intranet pour travailler et ne pas en vouloir. Les autres tiennent un discours récurrent du type : « on voudrait bien participer, on a de nombreux documents à proposer aux autres services et qui leur seraient utile. Il y a quelques services représentés mais il n’y a aucune présentation de leurs activités, de ce sur quoi ils travaillent en ce moment. On est chacun dans notre coin, dans notre service et le pire c’est pour les structures extérieures au siège, on n’est vraiment pas intégrées, personne ne parle de nous et on ne connaît personne au siège. … » C’est une sorte de complainte soutenue collectivement. Cette technologie et la communication faite par la DRI en faisant réaliser ces entretiens, cristallise un ensemble de communications révélatrices du « contexte organisationnel ». Le phénomène ne prend un sens, une signification, seulement mis en relation avec l’ensemble de la toile de fond indispensable à toute compréhension d’une communication : le « contexte organisationnel » . Nous avons donc procédé à la schématisation des formes concrètes des échanges puis nous les avons catégoriser pour enfin en modéliser leur signification dans ce système : Schématisation des formes concrètes d’échanges Schématisation des catégories de formes d’échanges Modélisation des significations L’introduction de l’intranet apparaît comme une menace pour le sommet hiérarchique. Pour la DirCom, c’est le risque de la perte du contrôle de l’information, ils ne seraient plus alors seuls détenteurs de la diffusion de l’information. Pour la direction générale, la confiance n’est attribuée que dans « le papier » et les « hommes de confiance », et non à une technologie « qui n’est jamais sécurisée ». « Il ne s’agit pas d’une priorité », la direction générale préconise l’embauche d’un Directeur des Ressources Humaines qui résoudra les problèmes de gestion du personnel. La DRI à travers cette mise en place, s’investit d’une mission de communication interne, dépassant ses compétences et dénonçant l’absence de communication interne au sein de l’organisation. Replacé dans le système nous comprenons que cette direction, tente de proposer une réponse adaptée à ses compétences, soit technologique, pour résoudre une problématique organisationnelle générale de l’ensemble des acteurs : être ensemble à l’organisation. L’intranet en soi, n’a aucune validité, et aucune existence. Il est investi symboliquement du message signifiant du « vouloir être ensemble » à l’organisation. Résultats et préconisations : Au sein de cette Communauté d’Agglomération, la problématique principale portait sur l’ « être collectif à l’organisation ». Les services souffrent de ne pouvoir mettre à disposition de l’information et des documents pour les autres services et souffrent de ne pouvoir consulter des informations sur les autres services. Ils souffrent de l’isolement qui entraîne un manque d’information collective, mais tirent des bénéfices secondaires certains de cette façon d’être. La DRI entend bien la volonté d’ « être ensemble », mais la réponse qu’elle apporte en fonction de sa seule compétence technique, est englobée dans le jeu systémique en place. Cette demande est aussi entendue par la direction générale des services qui souhaite y répondre par le recrutement d’un DRH. Ces « réponses » découpent la réalité complexe mis en évidence par notre étude, en problématiques situationnelles morcelées. Pour nous, il n’est pas pertinent d’adopter une attitude de « solution immédiate », traduite par l’introduction d’une technologie ou le recrutement d’un DRH. L’adoption de la technologie induit un changement d’être à l’organisation de la part des acteurs, qui demande à la direction générale, la direction de la communication et la direction des ressources informatiques de travailler ensemble sur un projet commun pour faire émerger un sens nouveau dans l’usage de la TIC « intranet ». La modélisation systémique montre de manière simplifiée cette réalité complexe et permet aux dirigeants de pouvoir se représenter les jeux de l’organisation et leur implication dans ces jeux. En apportant une solution immédiate, le chercheur entrerai dans la logique du système et se verrai, dans une logique d’instrumentalisation, porter tous les maux de l’organisation. Conclusion Le chercheur étudiant les évolutions organisationnelles associées aux TIC, ne peut pas réduire le phénomène à un simple découpage d’une réalité complexe : positionnement, situation de travail, relations interpersonnels, hiérarchie, workflow, … Il est cependant difficile pour le chercheur qualitatif de « naviguer » au sein des organisations qui attendent des résultats tangibles, mesurables, et souvent immédiats. Cela demande un travail important de réflexivité pour comprendre comment se positionner sur le terrain afin d’éviter au maximum l’instrumentalisation qui offre une situation confortable mais dangereuse. Nous avons vu comment par un positionnement épistémologique constructiviste, une démarche méthodologique qualitative et la modélisation systémique des relations, nous pouvons faire émerger le sens construit par les acteurs dans leurs usages d’une TIC au sein des organisations. Le chercheur se désaxe de l’angle déterministe de la technologie pour appréhender les communications signifiantes construites autour de la technologie, adressées au collectif, dans les usages que les acteurs font de cette technologie et le discours qu’ils tiennent. Lorsque le chercheur interviewe et observe les acteurs, la technologie apparaît alors comme un support à propos duquel ils expriment leur « être à l’organisation ». Il parle d’une chose pour parler d’autre chose. On retrouve ici le principe hologrammatique. L’intranet, non pas en tant que technologie mais comme « construit intellectuel », objet de représentations, est apparu dans notre étude, comme révélateur du « contexte organisationnel » et de l’être à l’organisation des acteurs en situation. A travers les représentations que les acteurs construisent à propos des potentialités de cette technologie (décloisonner les services, être ensemble, etc.), ils construisent 153 154 des communications signifiantes adressées à l’organisation. Dans cette logique, l’introduction d’une technologie demande donc un travail de communication sur la construction du sens pour les acteurs en situation. Quelle régulation pour quelle société de l’information ? HUET Romain, 154 155 GERIICO-CREE / Université Lille 3, [email protected] INTRODUCTION Notre communication analyse les rapports sociaux qui se jouent dans la production de normes éthiques, dont les TIC (Technologies de l’Information et de la Communication) ne sont qu’une composante pour l’étude des « évolutions sociétales et économiques globales ». Les normes que nous évoquons ici ne sont pas techniques. Il s’agit des chartes éthiques et codes de conduite199. Les chartes sont des « objets » de recherche stimulants car ce sont des « communications symboliques » ancrées sur le rapport au droit, qui affectent en premier l’administration des entreprises dans la définition de leurs politiques sociales. Notre objectif consiste à discuter une nouvelle problématique dans le champ des « communications organisationnelles ». Il s’agit d’analyser l’émergence des « nouvelles normes éthiques », en particulier les chartes et codes de conduite, qui contribuent à l’avènement d’une « société de l’information » dont les contours et les rapports sociaux demeurent incertains et en constantes évolutions. L’idée ici défendue, est que les Sciences de l’Information et de la Communication (dorénavant, SIC) ouvrent des perspectives scientifiques stimulantes pour comprendre les mutations générées par la prolifération des chartes. Nous appuierons l’avis selon lequel, la question des régulations sociales peut être interrogée à partir de l’analyse des relations entre les acteurs et non exclusivement à partir de l’analyse des acteurs et de leurs actions. Pour cela, nous présenterons quelques pistes de ce que peut être « observer la communication »200 dans le champ des régulations sociales (1.). Nous les mettrons à l’épreuve du terrain à travers l’étude des modalités de production d’une charte produite par un collectif d’entrepreneurs (Charte de la diversité) (2.). Enfin, nous mettrons en évidence les principaux glissements conceptuels et conclusions que les SIC permettent de tirer (3.). 1. Ressources théoriques o 1.1 La singularité du regard communicationnel Notre communication a pour principal objectif de montrer que la question des régulations peut être interrogée à partir de l’analyse des relations entre les acteurs, et non exclusivement à partir de l’analyse des acteurs et de leurs actions. En ce sens, cela exige d’emprunter aux divers collectifs scientifiques (Sociologie, Sciences de Gestion, Sciences Economiques, etc.), tout en produisant de manière autonome des éléments nouveaux pour comprendre les problèmes posés par l’émergence de nouvelles formes de régulation. Le point de vue communicationnel privilégié ici consiste à interroger la place de la communication dans le processus de construction de la norme, en rendant compte des différentes formes de confrontation. Dans cette perspective, la production de normes est alors appréhendée comme un mode de gestion des relations par la discussion. Le regard communicationnel vise à restituer l’entreprise dans le débat public. Depuis quelques années, les questions de responsabilité sociale et de citoyenneté d’entreprise donnent lieu à une intense production de littérature. L’entreprise ne disposerait pas d’un rôle strictement économique, mais serait 199 Ces documents disposent d’une forme de matérialité (support papier, électronique, etc.) qu’il est intéressant d’étudier. Toutefois, nous insisterons ici sur ses dimensions organisationnelles et ses effets sociaux. 200 [Ollivier, 2001]. amenée, pour diverses raisons (économique, réponse face aux activistes, évolution des législations et des politiques publiques, etc.) à jouer un rôle important dans les mécanismes de régulation et de cohésion sociale. C’est dans ce cadre que ce sont développés des concepts tels que celui de « Responsabilité Sociale des Entreprises » ou « d’entreprise citoyenne ». Pour certains, la RSE témoigne d’une transformation majeure du rôle des entreprises201 et cristallise un nouveau mode de régulation économique et social qui serait principalement assurée par les entreprises ? [Bardelli, 2005]. En réalité, ces observations ont le mérite d’insister sur l’idée selon laquelle la RSE est une réponse possible aux dysfonctionnements sociaux actuels en limitant l’intervention des Etats. Sur le plan communicationnel, la manifestation la plus originale de ce mouvement est sans doute, la prolifération des codes de conduite, chartes éthiques, chartes sur la RSE, principes d’actions, etc. Actuellement, 98% des grandes entreprises françaises disposent d’au moins un document indifféremment intitulé « charte » ou « code de conduite »202, ce qui laisse penser qu’aucune entreprise ne pourrait raisonnablement s’abstraire de disposer d’un tel objet. Tout du moins, les chartes deviennent une forme logique et linguistique constitutive de l’ossature des pratiques sociales qui ont trait à l’éthique dans les entreprises. Ainsi, nous observons une généralisation du discours de l’éthique comme pratique sociale et professionnelle. Elle est sans doute une caractéristique de cette « société de l’information » où l’entreprise devient une figure médiatique importante et où il existe de multiples injonctions à communiquer (Loi NRE, bilan social [D’Almeida, Andonova, 2006, p.136]. Dans sa forme la plus élaborée, ces discours d’engagement peuvent être considérés comme une forme de gouvernement du social. Les chartes sont des supports de cette communication « autoréférentielle » en engageant une conception du devoir que se donnent les entreprises. Elles sont aussi l’expression d’un devoir prescrit à soi [D’almeida, 2001, p.118]. L’explosion de ces « discours d’engagements » ne rend pas forcément l’entreprise plus lisible (en dépit qu’elle devient plus visible). Elle s’expose davantage en ouvrant une pluralité de fenêtres sur soi, se donnant ainsi à lire. Mais cette lecture ne peut résolument être que partielle [De la Broise, 2006, p.43]. L’entreprise est donc un espace codé disposant d’un régime linguistique particulier, dont les discours « éthiques » tendent à occuper une place centrale dans leur panoplie discursive. Ainsi, le regard communicationnel tend à déplacer la représentation de l’entreprise. Celle-ci est envisagée comme produisant des biens et services, disposant d’une responsabilité plus ou moins étendue, et comme énonçant un certain nombre de discours et de récits203 qui participent à façonner une représentation particulière du monde. 1.2 Une analyse centrée sur le rôle des objets dans l’organisation des rapports sociaux Notre perspective consiste à examiner les modalités de construction des chartes. Cela consiste à mettre en évidence o 201 [Vogel, 2006]. Nous faisons ici référence aux différentes évolutions sociopolitiques qui affectent l’entreprise et les mécanismes de régulation sociale : crise du modèle de protection social keynésien, affaiblissement des rapports sociaux, crise de l’interventionnisme étatique, etc. 202 Source Alpha, 2004. 203 [D’Almeida, 2001]. 155 156 des procédures, des stratégies, des rapports de pouvoir qui sont à l’œuvre dans la construction de l’écrit. Notre analyse est donc centrée sur l’objet. Cela sous-tend d’interroger leur rôle dans l’organisation des rapports sociaux, sur les réseaux sociaux qui se forment à partir des instruments, leurs caractéristiques et propriétés spécifiques, leur matérialité, etc. La question des instruments appliquée au champ des relations sociales s’articule autour des effets qu’ils génèrent (effets propres dans leur autonomie relative et effets politiques des instruments et les relations de pouvoirs qu’ils organisent). Quelques chercheurs en SIC ont travaillé sur des problématiques connexes (D.Carré, C.Loneux, B.Floris, et P.Chaskiel pour ne citer qu’eux). Si notre perspective communicationnelle aurait pu consister en une analyse de leur forme discursive (approche sémiologique, analyse de contenu), nous privilégions une approche des objets par leurs processus de production. Les chartes sont des objets de recherche stimulants, parce que leurs processus de production sont l’occasion de construction de rapports sociaux. Nous cherchons donc à étudier ces « actes de communication socialement élaborés » en focalisant notre attention sur les effets sociaux sous-jacents à leurs processus de production. Nous explorons donc en premier lieu la dimension organisationnelle de l’activité de production. Cela sous-tend de mettre en exergue des rapports sociaux parfois conflictuels, à la fois internes et externes au sujet moteur de son élaboration, la place des individualités dans le processus de production, les travaux de « coopération » ou de « coordination » entre les acteurs pour fixer la norme, etc. En second lieu, nous examinons la dimension « politique ». La composition du collectif, son organisation, la construction des réseaux, leurs traces écrites qu’ils produisent, sont autant d’indices qui éclairent sur le sens de l’action. Ces différentes phases se situent en amont et en aval des formes physiques de confrontation. Ainsi, c’est la construction même de l’objet communicationnel (charte) par un collectif d’acteurs qui doit faire l’objet de l’interprétation. Cet objet renvoie à des acteurs « situés » qui sont tantôt des entrepreneurs, tantôt des syndicalistes, qui mettent en place ou contribuent à l’élaboration d’une charte qui participent de fait à la construction du sens de l’activité. En définitive, notre méthode de recherche ne porte pas sur une analyse de discours et de contenu qui serait considérée comme source d’information sur la réalité sociale, mais « prenant ces représentés comme des constructions sociales, nous mettons en œuvre des méthodes pour repérer les forces à l’œuvre dans la production des discours, des textes, accompagnateurs autant qu’auxiliaires de recompositions organisationnelles » [Delcambre, 2000, p.19]. Au-delà de disposer d’une visée narrative, les chartes ont une histoire de production. Ces étapes « de fabrication » constituent des temps de régulation où les acteurs sociaux échangent. Autrement dit, les chartes sont la construction d’un discours dont l’enjeu n’est pas tant la représentation, mais surtout la configuration de l’action et la construction de son sens [Delcambre, Ibidem.]. 2. Etude de cas : la charte de la diversité dans les entreprises 35 dirigeants de grandes entreprises ont signé le 22 Octobre 2004 une charte qui s’intitule « charte de la diversité dans les entreprises ». Les entreprises s’engagent à « Rechercher une diversité au travers des recrutements et de la gestion des carrières ». L’objectif affiché consiste à mettre en place des mesures volontaristes pour que l’entreprise reflète les composantes de la société, notamment en recrutant plus largement les personnes issues de l’immigration ou des DOM. Cette charte pose donc la question de l’intégration des populations issues de l’immigration (en cherchant à pallier l’incapacité des pouvoirs publics à faire face aux défis que constituent les politiques d’intégration). La charte de la diversité est produite à l’initiative de l’Institut Montaigne204 et plus précisément sous l’égide d’un groupe de travail composé de deux acteurs : Laurence Méhaignerie et Yasid Sabeg, lesquels ont produit un rapport (« les oubliés de l’égalité des chances », 2004) qui dresse un état des lieux orienté des discriminations dans les entreprises. Ce rapport formule également une série de propositions pour faire évoluer le comportement des entreprises et du monde politique sur cette question. Parmi le panel de suggestions, l’une propose l’élaboration d’une charte qui serait signée par une grande partie des entreprises françaises. Le rapport de Y.Sabeg et L.Méhaignerie fait explicitement la promotion de la charte de la diversité. Pour autant, son contenu n’était pas encore formalisé à l’heure de l’écriture du rapport et lors de sa publication205. Toutefois, la charte est présentée comme une « action volontaire d’envergure (…) La charte de la diversité propose aux entreprises publiques et privées de formaliser leurs actions et résultats pour la promotion et le respect de la diversité culturelle, ethnique et sociale de l’entreprise (…) elle pourrait être une première étape vers la définition d’un label d’inclusivité pour valoriser les entreprises qui mettent en place des pratiques responsables pour la promotion de la diversité ». Par ailleurs, il est précisé ; « Pourrait souscrire à cette charte de la diversité, volontairement, toutes les entreprises de plus de 100 employés qui s’engageraient à : constater la dimension pluriethnique de la France, et à cet égard, valoriser et promouvoir l’équité et le respect de cette diversité dans les politiques de recrutement, de promotion professionnelle et de salaires, reconnaître l’égalité entre les Hommes et les Femmes par une promotion de l’égalité des sexes à travers le recrutement, la promotion professionnelle et la politique salariale » (p152). Par ailleurs, le rapport assure également que cette charte incite à ; « Inclure une clause de non discrimination pour les embauches, à mérites, compétences ou talents égaux ». Il est également prévu de « généraliser les plans de carrière sur une base équitable et prohiber tout préjudice, préjugé ou oppression et toute forme de discrimination fondée sur la race, l’ethnicité, la couleur de peau, la religion, la culture, le sexe, la classe sociale ou l’orientation sexuelle ». Pour ce faire, il est envisagé de « faire figurer au bilan social la photographie des 20 à 30 premiers cadres de l’entreprise ainsi que les actions menées en matière de diversité et leurs résultats » (p152). Enfin, il est recommandé à ce que les entreprises « mènent des actions de sensibilisation et de formation des dirigeants, DRH, et collaborateurs pour la gestion de la diversité (gestion des conflits, lutte contre les discriminations, promotion de l’égalité des chances) pour offrir un climat favorable à la reconnaissance, au respect et à la dignité de la personne dans l’entreprise dans sa diversité culturelle, ethnique et religieuse » (p152). En définitive, ce rapport constitue une première amorce de la genèse de l’histoire de cette charte. En effet, il a été présenté par Yasid Sabeg et Laurence Méhaignerie lors d’une réunion organisée au sein de l’AFEP (réunion qui rassemblait une trentaine de chefs d’entreprises du CAC 40). C’est ainsi que le groupe de travail a élaboré une première version de charte qui a ensuite été discutée avec quelques dirigeants de grandes 204 L’institut Montaigne est une association composée en grande partie de chefs d’entreprises, de hauts fonctionnaires, d’universitaires et de représentants de la société civile. Il se présente comme « un laboratoire d’idées » jouant un « rôle d’acteur du débat démocratique », notamment à travers l’élaboration de propositions et de recommandations sur des enjeux de société. 205 En effet, le rapport a été rendu public en Janvier 2004. Or la première version de charte a été écrite le 1er Mars 2004 156 157 entreprises au sein de l’AFEP206 (Association Française des Entreprises Privées) qui constitue le lieu de négociation. Cette charte a donc été discutée directement avec une vingtaine de chefs d’entreprise, qui ont apporté des commentaires. Ceux-ci ont conduit le groupe de travail à faire évoluer leurs différents projets de charte. Au terme de quatre rencontres, la charte a été stabilisée, signée, puis rendue publique. Cette charte est le fruit de l’homogénéité d’un groupe social de référence. Autrement dit, il s’agit d’une production faite par les employeurs. Les organisations syndicales des travailleurs et les structures associatives sont exclues de la démarche alors même que la charte a pour vocation de s’appliquer à des formes sociales hétérogènes. Elles interviendront dans la stratégie d’évocation de la charte, où elles sont sollicitées pour soutenir l’initiative patronale. Grâce à cette initiative, l’Institut Montaigne, et plus largement le monde des entreprises, s’est positionné comme un interlocuteur incontournable pour les instances de réglementation. D’ailleurs, le gouvernement accorde publiquement aux entreprises françaises 12 mois pour mettre en place des dispositifs destinés à lutter contre les discriminations. En l’absence de progrès en la matière, le gouvernement menace d’intervenir par injonctions réglementaires (Conférence interministérielle, 2005). On est ici aussi dans ce que nous appelons l’antichambre législative (l’autorégulation précède la co-régulation). La charte est un document qui contient plusieurs dispositions censées régir et guider la conduite des acteurs socio-économiques. Les préceptes d’actions sont formalisés et inscrits dans un objet, ce qui permet d’éviter que l’on interroge à tout instant sa cohérence logique. 3. Principaux enseignements Nous formulons ici quelques pistes d’analyse. Il faut davantage les considérer par les questions qu’ils posent ou provoquent que par les demi-réponses parfois hésitantes qu’ils esquissent. o 3.1 L’apport spécifique des sic Les SIC sont utiles pour comprendre les mutations introduites par la prolifération de « l’objet charte ». Elles permettent d’interroger la place de la communication dans les relations professionnelles, par exemple, en rendant compte des différentes formes de confrontation. De cette manière, les relations sociales sont appréhendées comme un mode de gestion des relations par la discussion. Notre regard communicationnel nous conduit à penser les relations sociales comme un espace informationnel et communicationnel au sein duquel, il y a des discussions entre acteurs. Les résultats de ces discussions se présentent comme des exigences normatives des acteurs sociaux pour intégrer l’agenda stratégique des politiques sociales des entreprises, voire pour intégrer l’espace politique comme c’est le cas pour la charte de la diversité ou tel qu’a pu le montrer Catherine Loneux dans sa recherche sur l’interprofession publicitaire207. Ainsi, le cadre conceptuel que nous suggérons consiste à cerner les modalités de l’émergence d’un espace de médiation dans lequel se jouent des rapports de place en vue d’inscrire une question sociale (les discriminations) dans l’agenda stratégique des entreprises (aujourd’hui 250 entreprises signataires) mais également dans l’agenda médiatique208, et de peser ainsi sur les régulations étatiques. L’espace communicationnel que nous proposons d’analyser, est un espace d’échanges et de confrontations (entre soi) entre différentes interprétations du symbolique. D’une certaine manière, la question du sens est celle de la confrontation entre les acteurs. L’espace communicationnel est alors ce lieu où s’exprime de manière symbolique le pouvoir (approche processuelle et non situationnelle de l’action). Il s’agit donc d’un espace de médiation symbolique qui permet aux acteurs de communiquer entre eux209. Ainsi, il peut être compris comme le socle de l’espace public dans la mesure où il est un espace de médiation symbolique spécialement créé pour l’occasion afin de débattre d’une question sociale. De fait, la charte est un écrit qui matérialise des relations sociales. Autour cet objet, des corps sociaux s’organisent et sont susceptibles de s’affronter. La communication consistera alors en une production de légitimité, de réinterprétation, voire de transformation des objets dont nous étudions les conditions. Dans le cas que nous avons présenté, l’élaboration de la norme se fait donc en dehors du cadre des médiations traditionnelles des relations socioprofessionnelles. Ce processus se différencie donc des formes traditionnelles de confrontation sociale (négociation collective, etc.). Ainsi, ces normes « autoproduites » participent à reconfigurer les relations sociales en affectant en premier lieu l’espace social de confrontation (négociation à huis clos, sélection aléatoire des participants à la négociation, contournement possible des représentants du personnel, dérégulation du cadre communicationnel des relations sociales, etc.)210. Avec ces documents, la décision de gestion du social n’est plus le monopole d’une instance légitime (dialogue social) mais est le fruit de stratégies d’influences des groupes sociaux en perpétuelle négociation de places. Nous observons une forme du gouvernement du social par les normes où la communication joue un rôle central211. Ces observations nous autorisent à risquer deux types d’interprétation (que nous laissons ouverts): Le premier consiste à considérer la charte comme une sorte de méta-norme. Elle est un moyen d’objectiver une question sociale selon des registres d’intelligibilité propres au sujet moteur de son élaboration.212. Ainsi la charte prend la forme d’une norme de référence. A partir de ce moment, elle est vouée au questionnement. Elle est donc susceptible d’encourager la mobilisation d’autres groupes sociaux. 208 Cette charte a fait l’objet d’une large médiatisation. Elle peut être comprise comme un objet prétexte pour accéder à l’agenda médiatique en constituant un évènement digne d’être médiatisé [Huët, 2006]. 209 Il est notamment constitué de codes symboliques qui régissent le fonctionnement du collectif. 210 C.Dupont [1990] montre bien qu’une des spécificités de la négociation (traditionnelle) est que les stratégies des acteurs sont contraintes par le fait qu’on ne choisit pas les partenaires de la négociation. Chacun doit finalement composer avec l’autre, et ce, quels que soient la qualité et l’historique des relations entre les partenaires 211 La prolifération de ces nouvelles régulations ne peut être comprise qu’à l’aune des transformations structurelles en cours dans les relations sociales : déstabilisation de l’équilibre triangulaire des relations sociales (Etat, syndicats, patronat), affaiblissement généralisé des rapports sociaux, reconfiguration du rôle de l’Etat (de la fonction d’arbitre à celle « d’incitateur »), accroissement du pouvoir des entreprises. Tous ces indices laissent penser que le contrat social global hérité des trente glorieuses est actuellement en interrogation. La prolifération des chartes en est une illustration concrète. 212 206 L’association réunit 90 grandes entreprises. Elle organise des rencontres entre les entreprises afin qu’elles échangent sur leurs pratiques respectives Il s’agit d’un « club d’entreprises » qui cherchent à unifier les revendications portées par les entrepreneurs notamment sur certaines questions sociales. 207 Catherine Loneux a notamment montré comment des normes éthiques pouvaient être produites pour réhabiliter la respectabilité d’une profession, et pour peser sur les régulations publiques [Loneux (C.), 2001]. Il s’agit d’un travail cognitif et normatif de sélection des données pertinentes à partir d’une simplification du phénomène considéré, opération qui est elle-même déterminée par des grilles de lecture particulières aux différents acteurs [Muller, Surel, 1998, p.59]. Dans le cas étudié, cela s’est notamment traduit par la production de rapports, d’une charte, mais également par l’introduction de nouveaux termes pour qualifier le fait social (tels que les termes de « minorités visibles », de « diversité » ou « d’action positive à la française » qui ne sont pas axiologiquement neutres. En tout état de cause, l’ensemble de cette production discursive constituent une formulation intelligible de l’implication des entreprises et est donc une manière de « labelliser le problème dans un sens particulier ». 157 158 Autrement dit, le fait de poser explicitement par écrit des principes, suscitent un certain engouement dans l’attention portée à une question donnée, c'est-à-dire que chacun des partenaires concernés est susceptible de mettre en exergue les lacunes du texte et fait donc l’objet de discussion par les groupes sociaux. Ainsi, la charte peut être appréhendée comme une incitation à la prise en charge politique du problème et non une stratégie d’évitement d’une solution réglementaire plus contraignante. Une seconde lecture est néanmoins envisageable. La charte produite par un collectif d’entrepreneurs s’apparente à une sorte de militantisme entrepreneurial. Elle permet aux entreprises de se prémunir contre toutes accusations de pratiques discriminatoires (anticipation d’une situation critique) et témoigne de l’engagement public de l’entreprise dans cette problématique. Dans un même temps, il s’agit d’une forme de pression de ces acteurs qui se constituent en lobby pour anticiper ou faire évoluer la législation dans ce domaine (vers plus de souplesse et d’autorégulation). Il s’agit à la fois d’objectiver une problématique sociale qui doit, selon les milieux patronaux, figurer dans l’agenda politique en utilisant l’alibi de la bonne foi, du volontarisme, de la légitimité de ce groupe professionnel à s’autosaisir d’une question sociale et à s’autoréguler en cherchant à terme, à anticiper ou à prévenir les intentions gouvernementales213. o 3.2 Chartes : un discours d’engagement ? Dans les perspectives ouvertes par R. Dulong [1993]214, nous pouvons conférer aux chartes la gravité d’une promesse. Son avenir est profondément incertain. La promesse « tenue » est dépendante d’une série de conditions implicites et explicites (situation économique, contexte organisationnel, rapport de force favorable, etc.). Ainsi, la promesse est un engagement moral, verbal ou écrit, qui implique la personne et/ou le collectif. En droit civil, cela désigne « un engagement à contracter ou accomplir ». La promesse suppose donc un bénéficiaire et inscrit l’objet de l’entendement dans le futur (elle engage les acteurs dans le futur)215. Ainsi, si la charte constitue une forme de « promesse », son accomplissement est également tributaire des contributions respectives des acteurs sociaux impliqués. La promesse implique donc une forme de réciprocité, chacun s’engageant à maintenir la permanence du monde social et à tenir au courant l’autre des éventuelles modifications des termes de la promesse (les objectifs peuvent être réévalués). En tout état de cause, l’action de promettre suppose « un engagement portant sur la durée qui l’en sépare : le moment de son énonciation et celui de son accomplissement » [Ibidem]. Ainsi, comme nous pouvons le voir dans notre étude de cas, la charte représente un ensemble d’intentions d’un groupe social (les chefs d’entreprises) à l’égard de corps sociaux hétérogènes (salariés, citoyens issus de l’immigration, association, syndicats, Etat, etc.). La particularité de cette promesse est son caractère unilatéral. L’officialisation de la charte constitue le « moment décisif de l’engagement » et qu’un moment futur est prévu pour faire un point sur le respect des engagements. Dès lors, chacun s’engage à maintenir le degré de certitude dans lequel « l’état des lieux » a été planifié. Là est sans doute une des principales différences par rapport aux accords sociaux négociés (promesse multilatérale). Pour les chartes, le futur est 213 C’est notamment l’interprétation faite par C.Loneux dans son étude sur l’interprofession publicitaire [op.cit.] 214 Il développe une approche sociologique du temps et emprunte à d’autres champs théoriques tels que la phénémonologie du rapport social, la pragmatique des actes de langage et aux philosophies qui les inspirent. 215 Pour R. Dulong, « la constitution du futur se fait sur un accord tacite sur les conditions de réalisation de ce futur. On a une sorte de contrat mutuel qui engagent les participants à maintenir la prévisibilité du monde » (Ibidem, p.225). indéterminé, et de fait, les partenaires (ici les partenaires sociaux et l’Etat) ne disposent d’aucune responsabilité dans la détermination du futur. A l’inverse, dans l’accord, sont planifiés des « temps de renégociations » censés évaluer l’accomplissement de la promesse, et le cas échéant, d’apporter des actions correctives, ainsi qu’une actualisation de la responsabilité des contractants. En définitive, dans les perspectives ouvertes par R.Dulong [Ibidem], chartes et accords sont le témoignage d’une résolution collective, et en ce sens, cela peut leur conférer la gravité d’une promesse. Dès lors, cela met en jeu la responsabilité des acteurs pour maintenir (et non transformer) le cadre social nécessaire à sa prévisibilité pour rendre plausible le projet (stabilisation du cadre institutionnel, de la situation économique et social, de l’engagement politique, etc.). Autrement dit, une promesse implique que les acteurs s’engagent (en dépit de leurs propres contingences) à aller au bout de ce qu’ils ont commencé. « Toute initiative est une intention de faire et, à ce titre, un engagement à faire, donc une promesse que je fais silencieusement à moi-même et tacitement à autrui, dans la mesure où celui-ci en est, sinon le bénéficiaire, du moins le témoin » [Ricoeur, cité par Dulong, Ibidem, p.230]. Or, l’action de promettre engendre une relation de confiance. « Faire confiance, c’est risquer certains aspects de son avenir en pariant sur la loyauté de la personne à laquelle on fait confiance » [Baier, p.287]. Or une partie de cette confiance se fonde sur l’objet « charte » pour ce qu’il représente. Il constitue une barrière symbolique parce que c’est justement, une forme de promesse. Celle-ci met en jeu une pluralité d’acteurs (pouvoirs publics, société civile, médias, etc.) qui en deviennent alors les témoins. Comme le note A. Stanziani [2003] « la littérature sur la confiance, malgré des différences importantes par ailleurs, semblent partager au moins un acquis : confiance et dispositions légales sont inversement liées. Plus détaillées sont les dispositions légales et les précisions dans les contrats, et moins important est le rôle de la confiance en tant que forme de coordination des marchés ». La notion de confiance paraît donc être utile à mobiliser dans la mesure où il s’agit de comprendre comment un collectif met en place un objet communicationnel pour légitimer ses actions et produire un effet de preuve alors même qu’on est ici dans l’ordre de la promesse. Cette argumentation éthique constitue vraisemblablement un support du discours de légitimation de l’entreprise et agit sur le plan de la communication symbolique et non celui de la communication fonctionnelle [Huët, ibidem]. 3.3 Les chartes comme support de la prise de parole des acteurs Le développement des chartes cristallise l’émergence d’une pratique contractuelle différente des formes de régulation traditionnelles (contrat, négociation collective). Cette pratique émerge dans un contexte de vide juridique (absence de reconnaissance juridique de la charte). En ce sens, nous pouvons formuler l’hypothèse selon laquelle, il s’agit ici d’une forme de médiation sociale qui est destinée à légitimer une nouvelle forme de compromis social sous l’égide du management et indépendamment de la négociation avec les syndicats tel que B.Floris le présente à partir de l’analyse de la communication managériale [P.132]. En tout état de cause, le modèle « charte » se différencie du modèle « accord » notamment au niveau du cadre communicationnel. L’analyse de la production de la charte de la diversité montre comment le processus communicationnel affecte le cadre institutionnel des relations sociales et modifie les pratiques instituées. L’enjeu concerne donc l’accès à la parole des salariés et de leurs représentants216, dans la définition de normes sociales. Or, les o 216 Dans le cas présenté, ils sont exclus du processus. 158 159 chartes et accords sont des supports particuliers de la prise de parole des acteurs. Le passage de l’accord à la charte implique le passage d’un régime démocratique à un autre : l’un est proche de la démocratie représentative (accord) alors que l’autre s’apparente davantage à du bricolage, de l’aléatoire (selon la préférence des uns et des autres) et n’exige pas nécessairement la confrontation. En définitive, la prolifération des chartes implique l’émergence de nouvelles formes de mobilisation collective qui vont poser un nouveau rapport de force, souvent en dehors même de l’entreprise. Dès lors, cette question se situe à la croisée de celles de communication et de l’éthique, dans la mesure où nous interrogeons les conditions d’exercice de la démocratie sociale dans le monde économique. A l’instar de la mise en place de comités éthiques, nous pourrions avancer l’idée selon laquelle « l’institutionnalisation de lieux de discussion n’a pas qu’un intérêt prudentiel mais une portée éthique véritable, même s’il est clair que s’en tenir à des pratiques discursives ne suffit pas à enrayer des logiques déshumanisantes car les meilleurs arguments sont sans force s’ils restent en suspens dans le ciel des idées » [Langlois, 1996, p.263]. Il reste à voir les conditions d’exercice de ce dialogue. Conclusion En définitive, le positionnement théorique que nous proposons consiste à appréhender la négociation sociale comme une forme de communication propre au dialogue social. Elle est intégrée dans une histoire non linéaire des relations, des interactions entre acteurs, des rapports de force, des procédures de détermination, des lieux incontournables de discussion, des opérations de coordination voire de coopération plus ou moins organisée. Ce faisant, nous ne travaillons pas directement sur l’impact de ces normes non techniques sur le travail. En revanche, l’objectif consiste à éclairer le processus de fixation de la norme, dans l’entreprise, mais aussi hors de l’entreprise dans l’espace politique (charte de la diversité), ce qui nous amène à repenser les frontières entre les domaines public et privé. Penser cette société de l’information dont les TIC ne sont qu’un « instrument actuellement structurant », exige de penser en premier lieu les modes de régulation sociale de l’activité pour mesurer les changements à venir. Le champ des communications organisationnelles disposent de ressources théoriques stimulantes pour rendre intelligibles les mécanismes qui produisent des rapports sociaux dans la production des objets. Nous en avons présenté ici quelques perspectives que notre collectif scientifique pourrait investir. Bibliographie Baier (A.C.), « Confiance », in Canto-Sperber (M.) (Dir.), Dictionnaire d’éthique et de philosophie morale, Paris, PUF, 1996, pp.283-288. Bardelli (P.), « Nouveau Monde, Nouvelle régulation sociale », in Revue Internationale sur le travail et la Société, Vol.3, n°2, Octobre 2005, pp.728-755. D’Almeida (N.) et Andonova (Y.), « La communication des organisations », in Olivesi (S.) (Dir.), Sciences de l’Information et de la Communication. Objets, savoirs, discipline, Grenoble, PUG, 2006, pp.129-143. D’Almeida (N.), Les promesses de la communication, Paris, PUF, 2001. Delcambre (P.), Communications organisationnelles. Objets, pratiques, dispositifs, Rennes, PUR, 2000. Dulong (R.), « La constitution du futur dans le présent des interactions », in Ladrière (P.), Pharo (P.) et Quéré (L.) (Dir.), Théorie de l’action. Le sujet pratique en débat, Paris, CNRS Editions, 1993, pp.223-234. Dupont (C.), La négociation : conduite, théorie, applications, Paris, Dalloz, 1990. Floris (B.), « Médiations symboliques et communication d’organisation dans les relations socioprofessionnelles », Revue Communication et Organisation, n°11, « Négociation et médiation dans l’entreprise », Bordeaux, Université Michel de Montaigne Bordeaux III, 1er Semestre 1997, pp.119-137. Huët (R.), « Les chartes sociales dans les organisations », in De la Broise (P.), Lamarche (T.), Responsabilité sociale : vers une nouvelle communication des entreprises ?, Lille, Septentrion, 2006. Karpick (L.), « Préface », in Mangematin (V.) et Thuderoz (C.) (Dir.), Des mondes de confiance. Un concept à l’épreuve de la réalité sociale, Paris, CNRS Editions, 2003. Langlois (A.), « Comités d’éthique », in Canto-Sperber (M.) (Dir.), Dictionnaire d’éthique et de philosophie morale, Paris, PUF, 1996, pp.260-263. Loneux (C.), « Les chartes éthiques comme outils de communication institutionnelle », in Delcambre (P.) (Dir.), Communications organisationnelles, objets, pratiques et dispositifs, Rennes, PUR, 2000, pp.122-148. Muller (P.), Surel (Y.), L’analyse des politiques publiques, Paris, Montchrestien, 1998. Stanziani (A.), « Qualité des denrées alimentaires et fraude commerciale en France, 1871-1905 », in Mangematin (V.) et Thuderoz (C.) (Dir.), Des mondes de confiance. Un concept à l’épreuve de la réalité sociale, Paris, CNRS Editions, 2003. Vogel (D.), « Des entreprises responsables ? Les limites de la vertu », Les grands dossiers des Sciences Humaines, n°2, « Moraliser le capitalisme ? »Mars-Avril 2006, pp.46-49. Wolton (D.), « Information et Communication : dix chantiers scientifiques, culturels et politiques », Revue Hermès, n°38, « Les Sciences de l’Information et de la Communication. Savoirs et Pouvoirs », Grenoble, PUG, 2006, pp.245-257. 159 160 Reconsidérer la notion d’usage des TIC dans les organisatione : une approche en termes « d’enaction ». Anthony Hussenot Groupe de Recherche en Droit Economie et Gestion C.N.R.S / Université de Nice Sophia-Antipolis [email protected] Résumé : La notion d’usage des technologies de l’information revêt aujourd’hui un sens complexe dans lequel se mêlent les pratiques mais aussi des déterminants sociologiques ou psychologiques. Le problème réside dans une possible représentation des usages et des usagers dépassant les pratiques observables. En nous appuyant sur la théorie de la structuration (Giddens, 1984), sur les apports de Weick (1979, 1990, 1995) ainsi que sur les travaux d’Orlikowski (1992, 2000), nous proposons la notion d’ « enaction » pour appréhender en partie la complexité des usagers. Dans cette perspective, les structures, les actions et l’outil TIC entrent dans une relation récursive qu’il est possible d’articuler. Le modèle d’ « enaction » proposé permet alors de mettre en évidence les principaux déterminants de la structure, de l’outil et de l’action. Sur la base de ce modèle, il est possible d’envisager une analyse renouvelée des usages des outils TIC. Mots clefs : usages, théorie de la structuration, « enaction », appropriation, TIC. INTRODUCTION Usages, usagers, appropriation des technologies de l’information… Nombreux sont les concepts employés pour décrire la relation qu’entretient un individu avec ses outils TIC. Pourtant, si nous tentons de donner un contenu analytique à ces concepts, nous prenons conscience du processus social complexe qui s’opère. Le caractère évolutif, les possibles personnalisations, leurs présences quotidiennes entraînent une relation intime entre les outils TIC et les usagers. Les concepts employés pour caractériser les « usages » ne semblent alors plus suffire pour retranscrire ces phénomènes. Même si les notions d’usage et d’appropriation ont connu des évolutions, il est difficile de les instrumentaliser et de les articuler. La première partie sera l’occasion de revenir sur cette évolution sémantique et l’impasse dans laquelle se trouve aujourd’hui la sociologie des usages face à ces concepts. Pour dépasser les limites et répondre à une partie des questionnements liés aux usages, nous proposons, dans une seconde partie, de mobiliser la littérature managériale et d’analyser les usagers à travers la notion d’ « enaction ». Cette notion s’appuie sur la volonté de considérer la relation de l’usager avec l’outil au travers des actions, des représentations des structures et de l’outil TIC. Les fondements de cette relation se trouvent alors dans la théorie de la structuration de Giddens (1984), dans la pensée de Weick (1979, 1990, 1995) et dans le modèle structurationniste de la technologie de Orlikowski (1992, 1996, 2000). L’ « enaction » ainsi présentée, permet d’appréhender la relation de l’individu avec la technologie. Sur la base de l’analyse d’éléments observables et de règles et ressources instanciées par l’individu, il est possible de caractériser les usagers des outils TIC dans les organisations. 1. USAGES, ANTINOMIQUES PRATIQUES ET APPROPRIATION : SYNONYMES OU ? Alors que les notions de pratique ou d’appropriation sont traitées de façon relativement homogène dans la littérature sociologique et managériale, la notion d’usage est bien plus embarrassante pour les chercheurs car elle porte en son sein une part de d’ambigüité qu’il convient d’expliciter avant de proposer une alternative. • Usages et usages Une brève relecture des définitions de la notion d’usage dans la littérature fait apparaître deux acceptions différentes selon les périodes. Durant la période 1980 – 2000, le concept d’usage porte son attention sur l’individu, sur l’utilisation qu’il fait de l’outil. C’est ainsi que De Certeau (1980) définit l’usage comme des « opérations d’emploi – ou, plutôt, de réemploi…Je leur donne le nom d’usages, bien que le mot désigne le plus souvent des procédures stéréotypées reçues et reproduites dans un groupe, ses « us et coutume ». » Néanmoins, De Certeau (1980) note dès cette époque toute la complexité du mot usage : « Le problème tient dans l’ambiguïté du mot, car, dans ces « usages », il s’agit précisément de reconnaître des « actions » (au sens militaire du mot) qui ont leur formalité et leur inventivité propres et qui organisent en sourdine le travail fourmilier de la consommation ». Cette première acception aura la vie longue. En 1993, pour Jouet : « l’usage (…) renvoie à la simple utilisation » et dans le même esprit, selon Méadel et Proulx (1993) : « parler de la notion d’usage [c’est] déjà s’inscrire dans une problématique sociologique traditionnelle [et] braquer le projecteur vers l’individu ». Enfin, Lacroix en 1994 définissait les usages sociaux comme : « des modes d’utilisation se manifestant avec suffisamment de récurrence et sous la forme d’habitudes suffisamment intégrées dans la quotidienneté ». Dans cette acception, usage et pratiques ont des définitions proches sinon confondues. Et c’est peut-être sur ce constat qu’à partir des années 2000, on observe une modification dans la littérature sociologique de la définition de l’usage qui s’élargie aux facteurs psychologiques, cognitifs ou sociologiques. Ainsi, en 2002, Breton et Proulx définissent l’usage comme : « un phénomène complexe qui se traduit par l'action d'une série de médiations enchevêtrées entre les acteurs humains et les dispositifs techniques ». Pour aller plus loin dans l’analyse, Docq et Daele (2001) ainsi que Bachelet (2004), considèrent l’usage comme un ensemble de pratiques, une façon particulière d’utiliser quelque chose, un ensemble de règles partagées socialement par un groupe de référence et construite dans le temps. Même si cette nouvelle acception dépasse le simple cumul des pratiques et ouvre la voie à de nouveaux champs de lecture des usages, elle pose néanmoins un certain nombre de question. Proulx (2005) admet la difficulté à représenter ces phénomènes et préfère définir les usages sociaux comme des « patterns d’usages d’individus ou de collectifs d’individus (strates, catégories, classes) relativement stabilisés à l’échelle d’ensembles sociaux plus larges (groupes, communautés, sociétés, civilisations) ». Cette seconde acception de l’usage conduit le chercheur à se questionner sur les possibilités d’identifier les usages et les usagers dans toutes leurs complexités et leurs évolutions dans le temps. Quels facteurs ? Quelle méthodologie ? Devant l’incapacité de cette notion à répondre à ces problèmes cruciaux, nous préférons nous ranger au côté de la définition de Proulx (2005) et limiter l’approche des usages à des faits observables et mesurables. En cela, nous redonnons aux usages son sens premier ou plutôt son sens populaire. Lorsque 161 les médias parlent d’usage, ils entendent ce que font les individus avec un objet et comment ils le font à un moment précis. Les déterminants psychologiques ou psychosociologiques ne sont jamais évoqués. Sur les bases de cette définition, qui a l’avantage de son pragmatisme mais qui est limitée dans son analyse, il est aisé d’introduire le concept de pratiques. Les pratiques, dans notre acception, sont des actions spécifiques répétées. Les pratiques renvoient à des actes qui s’inscrivent dans un champ plus large. Les usages sont alors composés par des ensembles de pratiques. L’appropriation : une dynamique collective Avant de traiter ouvertement de l’ « enaction », il convient de lever le voile sur la notion d’appropriation afin de situer la dynamique dans laquelle nous plaçons l’ « enaction ». D’un emploi courant, l’appropriation est à l’image de la notion d’usage et revêt des formes différentes selon les auteurs qui s’en saisissent. Pour DeSanctis et Poole (1994) : « le concept d’appropriation inclut les intentions voulues ou les significations que les groupes assignent à la technologie qu’ils utilisent », tandis que pour Millerand (2002) « s’approprier, c’est précisément choisir parmi un ensemble de possibles pour se réinventer ». Enfin, De Vaujany (2001) préfère parler de trajectoires appropriatives qu’il définit comme un « enchaînement régulier d’archétypes technologiques ». Ces définitions concèdent toutes à l’appropriation un caractère mouvant, évolutif. Dans cette perspective, nous considérons l’appropriation des solutions TIC comme un processus itératif qui se caractérise par sa potentielle infinitude. L’appropriation n’est pas un acquis social ou individuel. Sa dimension itérative peut conduire à une désappropriation ou à un abandon de l’outil TIC. Dans une perspective organisationnelle, les processus d’appropriation sont éminemment collectifs. 2 - ELÉMENTS D’ « ENACTION » THÉORIQUES POUR UNE APPROCHE EN TERMES Face aux limites posées par le concept d’usage, nous proposons le concept d’« enaction ». L’« enaction » peut se définir comme la relation intime que l’individu entretient avec l’outil TIC. Cette notion renvoie au processus d’interaction entre l’outil, les pratiques et la structure. L’ « enaction » n’est pas l’appropriation mais une photographie de l’usager dans un processus itératif d’appropriation collective. De Giddens à Orlikowski La théorie de la structuration de Giddens (1984), tient aujourd’hui une place prépondérante dans l’étude sur les usages des TIC. Pour autant, sa mobilisation dans la littérature sociologique ou managériale reste peu répandue. L’étude des usagers dans la perspective structurationniste renvoie au présupposé que les actions, les outils (sous formes de modalités) et les structures ont la même importance dans les phénomènes de structuration. Partant des apports de Giddens (1984), les auteurs structurationnistes (Barley, 1986 ; Orlikowski, 1992, 2000 ; De Sanctis et Poole, 1994, Swanson et Ramiller, 1997 ; Groleau, 2000) considèrent que la technologie peut être considérée comme une structure sociale, possédant ses propres propriétés structurelles, produites et reproduites par le mécanisme de la structuration. La théorie de la structuration permet, au moyen du modèle de production et de reproduction des routines sociales, d’appréhender les usagers des outils TIC. De l’ « enactment » à l’ « enaction » Pour Weick (1990) et Orlikowski (2000), les individus « enactent » la technologie, et en l’utilisant dans leurs actions sociales, contribuent à l’actualiser par une relation récursive de la technologie avec les actions et la structure. Dans la terminologie d’Orlikowski (1992), cette notion prend le terme de « dualité de la technologie ». La technologie est le produit de l’action humaine et est physiquement construite par les acteurs dans un contexte social particulier. La technologie est alors « enactée » par les acteurs. L’appropriation de la technologie par les acteurs est alors un processus d’« enactement » au sens de Weick (1979)217. La notion d’ « enactment » peut se traduire par la mise en actes de la technologie. L’ « enactment » se définit comme le processus de création de notre réalité. La théorie proposée par Weick met en avant le rôle que nous jouons dans la création de notre réalité par l’interprétation de notre monde. L’« enactment » permet ainsi de réduire l’équivocité du monde (réduction des possibles face à une situation complexe) par l’interprétation que nous faisons de cette situation. En 1995, Weick introduit la notion de « sensemaking ». Face à une situation donnée, les individus doivent construire du sens pour résoudre ce problème : « les problèmes ne se présentent pas d’eux-mêmes aux professionnels comme des données. Ils doivent être construits à partir des matériaux de situations problématiques qui sont curieux, troublants et incertains… Il doit donner du sens à une situation incertaine qui initialement n’en a pas » (Weick, 1995). Les individus doivent alors réduire l’équivocité d’une situation problématique et créer du sens pour résoudre un problème. Par le processus d’ « enactment », les individus réduisent cette équivocité en construisant un cadre cohérent de la réalité dans lequel l’outil, les actions et la structure (qui existe, pour Giddens uniquement dans la mémoire des individus) ont une relation récursive et réflexive. Orlikowski (2000) propose alors trois formes d’« enactment » de la technologie. « inertia » (les acteurs retiennent leurs anciennes habitudes d’utilisation) ; « application » (les acteurs choisissent d’utiliser une nouvelle technologie pour augmenter et redéfinir leur compétences) ; et « change » (les acteurs choisissent d’utiliser une nouvelle technologie pour modifier leurs pratiques). Cependant, Orlikowski (2000) relativise cette typologie d’« enactement » car les usagers changent de technologies et font évoluer leurs usages dans le temps. Les travaux d’Orlikowski se déroulèrent au début des années 90 et visaient à étudier les usages du logiciel Lotus Note. Les résultats ont conduit à identifier une forme d’ « enactment » par population. Dans notre perspective d’appropriation, nous pensons que les acteurs font évoluer leur forme d’ « enactment » au fur et à mesure de l’évolution des usages de l’outil TIC. C’est pourquoi nous préférons la notion d’ « enaction », qui se veut moins ambitieuse que l’ « enactment » mais qui semble davantage applicable. L’ « enaction », sur la base du concept d’ « enactment », est alors une photographie du processus d’ « enactment » et non une retranscription du processsus. Sur la base du modèle proposé par Orlikowski (2000), nous intégrons alors deux catégories de propriétés structurelles : celle de la technologie et celle de l’organisation. Dans la perspective de Giddens (1984), les propriétés structurelles, composées de règles et ressources instanciées, peuvent être analysées à travers trois dimensions : la signification, la domination et la légitimation. Les modalités renferment, quant à elles toutes les spécificités de l’outil (facilitateurs), ce qui encadre les pratiques (normes) et enfin l’interprétation de la technologie par les individus (schémas interprétatifs). Le dernier élément du modèle caractérise les actions situées et récurrentes des individus. 217 Dans notre perspective, l’appropriation se définit pour les acteurs comme une évolution constante de leur forme d’ « enaction » dans lequel des éléments organisationnels permettent la dynamique d’appropriation. 162 Figure 1 : Modèle d’ « enaction » de la technologie (inspiré d’Orlikowski (2000)). Le modèle de l’ « enaction » permet alors de caractériser l’usager en intégrant les grandes composantes de sa relation avec l’outil et son environnement. Néanmoins, son instrumentation reste à être définie en fonction du contexte et il serait hasardeux de présenter une solution toute faite. De plus, si l’ « enaction » permet de représenter les usagers à un instant précis de leur processus d’appropriation, il nous parait fondamental d’inscrire l’étude des usagers dans le temps. L’évolution continue des acteurs et des outils exclue une analyse strictement statique. Dès lors, considérer l’usager, c’est l’appréhender dans sa dynamique d’appropriation. Dans une perspective organisationnelle, il s’agit de caractériser l’individualisme complexe qui sous tend le modèle, en déterminant les éléments sociaux qui conduisent les groupes à adopter – adapter218 un outil TIC. CONCLUSION Les problèmes posés par la notion d’usage depuis les années 2000 demandent une nouvelle instrumentation de cette notion ou un retour en arrière dans son approche. Nous pensons que redonner à la notion d’usage son sens populaire permet de se libérer de l’ambigüité que cette notion revêt dans la littérature depuis quelques années. Pour autant, il ne s’agit pas de se soustraire des questions essentielles que sa forme actuelle soulève. La notion d’ « enactment » introduite par Orlikowski (2000) semble apporter des premiers éléments de réponse. En replaçant la notion d’usage dans un cadre sociologique général que représente la théorie de la structuration et en mobilisant la notion d’ « enactment » de Weick (1979), nous pouvons construire un cadre pour représenter les usagers dans les organisations. Le processus d’ « enactment » entraîne les individus dans la construction d’un cadre cohérent de la réalité. La mise en évidence de la relation que l’usager entretient avec les outils TIC devient alors possible. En substituant la notion d’ « enactment » à la notion d’ « enaction », nous proposons un concept capable de photographier les usagers dans leur processus d’appropriation. Pour autant, cette approche ne résout pas tous les problèmes. Une valorisation empirique (Hussenot, 2006) de la notion d’ « enaction » devra évaluer les forces et les faiblesses de cette approche. BIBLIOGRAPHIE 218 Nous faisons ici référence à la théorie de la traduction (Callon, 1986 ; Latour, 1991) qui permet de comprendre en partie les dynamiques d’appropriation d’outil TIC évolutifs dans une perspective itérative (Hussenot, 2006). Dans cette perspective, l’outil TIC est considéré comme étant une innovation en devenir pour le groupe. Bachelet C. 2004. « Usages des TIC dans les organisations, une notion à revisiter? », Actes de colloque de l’AIM, Evry. Barley S.R. 1986. “Technology as an occasion for structuring: Evidence from observation of CT scanners and the social order of radiology departments”, Administrative Science Quaterly, n°31, p. 78108. Breton P. et Proulx S. 2002. Usages des Technologies de l'Information et de la Communication, L'explosion de la communication à l'aube du XXI ème siècle, Editions la découverte. Chambat P. 1994. “Usages des TIC: évolution des problématiques ». Technologies de l'information et société, n° 6, vol.3, p.249-270. De Vaujany FX. 2001. "Gérer l'innovation sociale à l'usage des technologies de l'information: une contribution structurationniste." Thèse de Doctorat. Lyon 3, Jean Moulin. DeCerteau M. 1980. L'invention du quotidien 1. Arts de faire. Paris: Gallimard. DeSanctis G. et Poole S. M. 1994."Capturing the Complexity in Advanced Technology Use: Adaptative Structuration Theory," Organization Science, vol. 5, n° 2, p. 121-147. Docq F. et Deale A. 2001. “Uses of ICT tools for CSCL: how do student make as their's own the designed environment?”, Actes de colloque EURO CSCL, Maastrich. Giddens A. 1984. The constitution of society. Berkeley, California. University of Canada Press. Groleau C. 2000. « La théorie de la structuration appliquée aux organisations : le cas des études sur la technologie », in Autissier D. et Wacheux F., Structuration et Management des organisations, l’Harmattan, Paris. Hussenot, A. 2006. “Appropriation of Information Technologies and empirical reading of appropriation paths: some elements for a methodology”. Actes du XXIIème Colloque International EGOS, Bergen, Norvège. Jouet J. 1993. «Pratiques de communication et figures de la médiation », Réseaux, n° 60: 99-120. Lacroix J. 1994. « Entrez dans l'univers merveilleux de Videoway », in Lacroix J. et Tremblay. G., De la télématique aux autoroutes électroniques. Le grand projet reconduit, Presses Universitaires de Grenoble, Grenoble. Meadel C. et Proulx S. 1993. “L'usager en chiffres, l'usager en actes”. Actes de colloque : 100 ans de sociologie, Paris. Millerand F. 2002. « La dimension cognitive de l’appropriation des artefacts communicationnels ». In F. Jauréguiberry, et Proulx S. Internet: nouvel espace citoyen, L’Harmattan, Paris. Orlikowski W.J. 1992. «The Duality of Technology: Rethinking the concept of Technology in Organizations”, Organization Science, vol. 3, n°3. Orlikowski W.J. 1996. «Improving Organizational transformation Over Time: a Situated Change Perspective, Information Systems Research, vol.7, n°1. Orlikowski W.J. 2000. « Using technology and Constituting structures: a pratice lens for studying technology in organizations.” Organization Science, vol. 4, n°4, p.404-428. Proulx S. 2005. “Modèle d'analyse des usages des TIC”. Journée de recherche Expérimentation et usages des TIC et de l'Internet, Aix en Provence. Swanson E. B. et Ramiller N. C. 1997. "The Organizing vision in Information systems Innovation", Organization Science, vol. 8, n°5, p. 458 - 474. Weick K. 1990. “Technology as equivoque: sensemaking in new technologies”, in Goodman P. et Proull L., Technology and organization. Weick K. E. 1995. Sense making in organizations, Ed. Sage. Weick K.E. 1979. The social Psychology of Organizing, AddisonWesley, Reading, MA. 163 « Le contrat en action sociale : un nouvel objet technique impacts sur les pratiques professionnelles, incidences sur les formes et les processus organisationnels » Roland JANVIER CERSIC-ERELLIF [email protected] Dans le champ de l’action sociale, la relation d’aide a rarement été fondée sur un rapport de type contractuel mais plutôt sur un lien de quasi subordination entre l’intervenant et le bénéficiaire. L’obligation, récemment légiférée, de conclure un contrat de séjour avec toute personne accompagnée, introduit un nouvel objet au cœur de l’action. L’article L.311-4 du Code de l'Action Sociale et des Familles déclare219 : « Un contrat de séjour est conclu ou un document individuel de prise en charge est élaboré avec la participation de la personne accueillie ou de son représentant légal. Ce contrat ou document définit les objectifs et la nature de la prise en charge ou de l'accompagnement dans le respect des principes déontologiques et éthiques, des recommandations de bonnes pratiques professionnelles et du projet d'établissement… » Le décret n° 2004-1274 du 26 novembre 2004 relatif au contrat de séjour ou document individuel de prise en charge précise : « III. - Le contrat de séjour ou le document individuel de prise en charge est établi lors de l'admission et remis à chaque personne et, le cas échéant, à son représentant légal, au plus tard dans les quinze jours qui suivent l'admission. Le contrat est signé dans le mois qui suit l'admission. La participation de la personne admise et, si nécessaire, de sa famille ou de son représentant légal est obligatoirement requise pour l'établissement du contrat ou document, à peine de nullité de celui-ci. Le document individuel mentionne le nom des personnes participant à son élaboration conjointe. L'avis du mineur doit être recueilli. Pour la signature du contrat, la personne accueillie ou son représentant légal peut être accompagnée de la personne de son choix. IV. - Le contrat de séjour ou le document individuel de prise en charge est établi pour la durée qu'il fixe. Il prévoit les conditions et les modalités de sa résiliation ou de sa révision ou de la cessation des mesures qu'il contient. V. - Le contrat de séjour comporte : 1° La définition avec l'usager ou son représentant légal des objectifs de la prise en charge ; 2° La mention des prestations d'action sociale ou médicosociale, éducatives, pédagogiques, de soins et thérapeutiques, de soutien ou d'accompagnement les plus adaptées qui peuvent être mises en oeuvre dès la signature du contrat dans l'attente de l'avenant mentionné au septième alinéa du présent article ; 3° La description des conditions de séjour et d'accueil ; 4° Selon la catégorie de prise en charge concernée, les conditions de la participation financière du bénéficiaire ou de facturation, y compris en cas d'absence ou d'hospitalisation… » Nous constatons que le législateur a prévu l’instauration d’un véritable contrat, opposable en droit, comme préalable et support de la relation d’aide développée dans le champ de l’action sociale et médico-sociale220. Historiquement, c’est un 219 Introduit par la loi 2002-2 du 2 janvier 2002 rénovant l’action sociale et médico-sociale. 220 Le législateur a prévu des dérogations au contrat de séjour : en l’absence de fait sans réel précédent. Depuis 1988, le versement du Revenu Minimum d’Insertion est assorti de la conclusion d’un contrat d’insertion, mais ce document n’a jamais été clairement doté d’un véritable statut juridique. Il nous est donc utile d’envisager, sous l’angle des sciences de l’information et de la communication, ce que représente l’émergence de ce nouvel objet dans le dispositif institutionnel des établissements et services sociaux et médicosociaux. Avant d’aller plus loin, une question doit être posée : Cet objet peut-il être envisagé comme un dispositif communicationnel ? LE CONTRAT : UN DISPOSITIF COMMUNICATIONNEL Pour y répondre, nous pouvons nous appuyer sur les travaux de Jacques Perriault (1989) qui assigne cinq fonctions aux « machines à communiquer » : une fonction de simulation, une fonction discursive, une fonction économique, une fonction d’organisation des rapports sociaux et une fonction régulatrice. • Une fonction de simulation : Le contrat est un simulacre qui anticipe l’action, il donne une « forme » à l’action par une mise en mots, la construction d’une trace. Il ne dit pas « l’action », il la désigne, la suppose, la projette. Il ne décrit pas ce qui sera fait mais il énonce l’intention de chacun des co-contractants sur ce qui est envisagé, les attentes, les besoins exprimés, les réponses jugées pertinentes. Le contrat dessine ici un « idéal » de l’action, un modèle à atteindre. C’est en ce sens que nous pouvons parler de « simulacre » … • Une fonction discursive : Le contrat déclare les engagements réciproques des parties. Il est une instance de discours, il formule un propos sur l’action envisagée. Il mobilise donc des compétences langagières, propres à chaque acteur (l’intervenant social et l’usager), usant de métaphores plus ou moins maîtrisées par les protagonistes, mobilisant un vocabulaire spécifique, etc. Il met en lisibilité l’institution, ses composantes, ses acteurs. Ce n’est pas une forme neutre de mise en visibilité puisque c’est la forme contractuelle qui est mise en avant, générant ainsi des postures spécifiques pour chaque partie. • Une fonction économique : Le contrat est le pivot de l’échange sur le modèle du don et du contre don : chacun y apporte son engagement, dans une vision humaniste, voire romantique, de l’échange. Le contrat régule ici, tout autant qu’il érige, l’«éco-nomos », la « norme domestique » de l’institution. Il « monétarise » la relation d’aide en la plaçant dans un système construit d’interactions. • Une fonction d’organisation des rapports sociaux : Le contrat est un acte de normalisation des relations. Parce séjour ou si la durée prévisionnelle du séjour est inférieure à deux mois, dans les mesures de protection des mineurs prononcées par le juge des enfants, en cas de refus de signature du contrat par l’usager ou son représentant … Dans ces cas, c’est un document individuel de prise en charge qui est conclu et qui n’emporte pas la nature juridique du contrat. 164 qu’il fixe les termes de l’échange, il introduit des repères normatifs aux relations, il balise l’espace du jeu relationnel. D’autant que l’expérience montre que des routines s’installent assez rapidement dans les équipes. En effet, tout n’est pas réinventé à chaque négociation contractuelle, des standards sont pensés a priori, nombre d’établissements ou de services ont élaboré des modèles de contrats dont il ne reste plus au professionnel qu’à aménager les aspects personnalisables. • Une fonction régulatrice : La vocation du contrat – dans l’esprit du législateur qui l’a introduit au cœur des pratiques professionnelles du travail social – est de corriger la disparité forte qui caractérise la relation entre l’intervenant et l’usager. Nous l’avons évoqué en introduction, la particularité de la relation de service en action sociale tient à la forte différenciation des postures : d’un côté un intervenant investi du pouvoir de venir en aide, du savoir sur l’autre et maîtrisant les techniques d’intervention ; de l’autre un bénéficiaire en situation d’infériorité parce qu’en demande d’aide, parfois stigmatisé par sa position sociale ou son handicap, souvent en position de faiblesse du fait de sa souffrance personnelle. Le contrat joue ici une fonction compensatrice de ce déséquilibre des positions, c’est une sorte d’étayage visant à instaurer un semblant de parité. En ce sens, le contrat est assimilable à nombre d’innovations techniques en matière de communication. Bien entendu, si nous pouvons, par analogie, assimiler le contrat de séjour à un dispositif communicationnel, nous ne forcerons pas le trait jusqu’à le comparer à des dispositifs techniques élaborés. Le contrat n’est pas une « machine », il reste cependant un élément qui participe de l’ensemble technique que constituent les établissements et services sociaux et médico-sociaux. Pour être abordé de manière adéquate, le contrat doit donc être relié à l’ensemble des dispositifs communicationnels qui structurent l’organisation, des documents de présentation (y compris sur Internet) jusqu’au système informatique en passant par les modes d’organisation : tous ces éléments contribuent à donner forme au contrat de séjour et à la relation qui se construit entre l’intervenant et l’usager. DES CONDITIONS DE FAISABILITE PROPRES AU CONTRAT DE SEJOUR : Il est également nécessaire de repérer les conditions de faisabilité qui rendent envisageable l’utilisation de ce nouveau dispositif communicationnel. Ces conditions sont issues de la longue évolution des rapports sociaux marqués par l’émergence du sujet individuel dans le collectif et le déploiement des rapports contractuels à toutes les activités sociales sur fond de généralisation de l’économie de marché. L’individualisme introduit par la Révolution française a mis en avant la propriété privée comme un droit central de toute personne humaine. Ce nouveau contrat social portait les germes d’une société libérale dans laquelle, presque « naturellement », la forme contractuelle allait pouvoir déployer tous ses effets. Si le contrat trouve ses origines dans les échanges commerciaux – il a alors pour fonction d’amplifier le modèle « don »/« contre-don » en introduisant la monnaie comme forme contractuelle d’interaction – il va assez rapidement déborder le simple échange de biens pour réguler les échanges humains et sociétaux. Avec l’histoire du contrat, nous assistons au déploiement d’un modèle culturel qui – par « nappes » mais aussi par liaisons « rhizomatiques » – recouvre et estomps les pratiques de « troc », de légation ou de transmission appuyées sur des principes de domination sociale, légitimées par les rapports religieux. Mais, au-delà de cette lecture historique qui peut paraître évolutionniste, nous pouvons remarquer que les conditions de faisabilité sont également le produit de discontinuités fortes, de ruptures. Sinon, nous aurions du mal à comprendre comment le modèle contractuel – fortement diffusé dans les champs économique, juridique et politique – a pu s’introduire dans l’action sociale. Il nous faut noter les discontinuités et ruptures qui marquent l’évolution de l’action sociale. Son statut politique tout d’abord a connu, depuis l’ancien régime, des débats vifs : d’abord marquée par le modèle charitable, l’action sociale est devenue une dette publique sous la Révolution, puis un espace intermédiaire pour accompagner les effets de la révolution industrielle, à l’issue de la période moderne elle s’est érigé comme le moyen de corriger les inégalités d’un développement économique source d’injustices (Autès, 1999), aujourd’hui, elle interroge le niveau des moyens à mobiliser dans une société qui s’éloigne du système assurantiel (Castel 1996). C’est peu dire que la fonction du travail social a évolué dans une mutation des valeurs de référence. Nous pouvons penser que l’intervention sociale peine à s’adapter au contexte de l’hypermodernité, qu’elle y perd ses repères. Peu ouverte aux mutations de la « société de l’information », elle fait preuve de résistances culturelles. Sa pertinence est interrogée, ce qui apparaît fortement au travers des discours qui se développent dans le milieu professionnel : « refondation », « nouvelles légitimités », « crise », « situation paradoxale », etc. Le rôle de l’action sociale dans une société en crise est fortement interrogé. Il se trouve bousculé par des évolutions législatives incohérentes qui lui assignent tantôt une fonction de promotion de la citoyenneté des plus faibles (ce qui était la philosophie de la loi 2002-2), tantôt la limite à des réponses instrumentales (Cf. l’évolution de la législation concernant le secteur de l’insertion), parfois même la convoque à un retour sur des missions de contrôle social (Cf. le projet de loi sur la prévention de la délinquance qui devrait être soumis au parlement à l’automne 2006). C’est au cœur de ces discontinuités que le contrat de séjour apparaît. Vient-il signer une reconnaissance inédite du travail social en lui concédant la capacité à manipuler les mêmes objets que le monde de la production de biens marchands ? Dans une série de ruptures, le contrat pourrait apporter l’opportunité de relégitimer une fonction sociale toujours centrale mais en voie d’essoufflement. C’est sans doute ce contexte incertain et complexe qui crée une condition de faisabilité essentielle pour ce nouveau dispositif communicationnel. Autrement dit, et pour reprendre les travaux d’André Leroi-Ghouran (1973), trois conditions de faisabilité devaient être réunies pour introduire le contrat de séjour dans les établissements et services sociaux et médicosociaux : une idée (le contrat comme ouverture vers une nouvelle forme relationnelle) ; un besoin (refonder la relation d’aide sur un support légitime dans un contexte d’hypermodernité) ; un milieu favorable (un champ professionnel traversé par les mutations culturelles de la « société de l’information »). Nullement « tombé du ciel », le contrat comme base d’échanges entre des professionnels et des usagers bouscule les pratiques, les discours et les postures. Ce phénomène s’inscrit dans un processus de virtualisation des corps, des messages et des échanges économiques, contribuant à une nouvelle construction sociale. Envisagé sous cet angle, inspiré des écrits de Pierre Lévy (1990), le contrat « fixe des procédures précises pour transformer les relations et les statuts personnels. » Le contrat est bien un « processus continu de virtualisation » : « Des relations virtuelles coagulées, comme le sont les contrats, sont des entités publiques et partagées au sein d’une société. » (Lévy, 1998, p.76). LE CONTRAT : GERME INAUGURAL ? Après avoir rapidement évoqué les conditions d’émergences du contrat, quelle est son incidence sur les 165 formes organisationnelles des institutions ? Pour cela, dans cette partie, nous voudrions, sous l’éclairage des travaux de Gilbert Simondon, analyser l’institution comme « système métastable » : espace de mise en forme de matières sous l’effet de flux énergétiques qui le traversent et créent des différences de potentiels. Nous formulerons l’hypothèse que le contrat en action sociale, est un « germe inaugural » qui pourrait jouer un rôle déterminant dans le milieu technique que représentent les établissements et services sociaux et médico-sociaux. Le contrat est inscrit dans un processus d’individuation –qui concerne à la fois les acteurs humains, les dispositifs techniques et l’institution– modifiant les formes organisationnelles dans lesquelles il se développe. Nous l’avons évoqué ci-dessus, un établissement ou un service social ou médico-social, comme toute institution, peut être assimilé à un « système technique » (Stiegler, 1992221). Ce système est en état de métastabilité : Un système métastable est un milieu dans lequel des énergies existent et créent des différences de potentiels qui peuvent remettre en cause son équilibre interne. Cette notion d’énergie est déterminante, elle constitue ce troisième terme qui permet d’échapper à la vision dualiste de l’hylémorphisme qui ne prend en compte que la matière et la forme222. La constitution d’un individu – Gilbert Simondon parle « d’individu technique223 » – ne dépend pas que d’un rapport entre forme et matière mais d’une sorte de triangulation entre forme, matière et énergie potentielle. C’est parce que le rapport forme/matière met en jeu une énergie que l’individu peut s’individuer. Cette énergie est un facteur déterminant du processus d’individuation, de son déroulement et de son aboutissement. L’élément qui enclenche, pour le système, un processus de changement – d’individuation –, c’est-à-dire qui va rompre l’équilibre précaire de métastabilité, est dénommé par Simondon « germe inaugural ». Prenant appui sur l’observation des phénomènes physiques de cristallisation, il montre que c’est l’introduction d’un germe cristallin dans un mélange saturé qui déclenche la cristallisation du souffre. Nous retrouvons la situation de métastabilité et d’énergie disponible qui vont créer les conditions de l’individuation mais c’est le germe – fonction de catalyseur – qui va déterminer les formes de l’individuation. En effet, les sciences chimiques nous enseignent que selon la nature du germe, le processus et son résultat ne seront pas les mêmes. Le germe joue donc un rôle déterminant dans tout processus d’individuation. Le contrat de séjour peut-il être assimilé à cette fonction de germe inaugural et à quelles conditions ? Pour avancer sur cette hypothèse, nous devons compléter l’outillage conceptuel que nous fournit le philosophe avec la notion de « transduction ». C'est par le contact entre zones, entre systèmes, entre formes et matières que se développe le processus d’individuation. Cette transduction ne se limite pas aux zones de frottement entre deux systèmes : un système s’individuant va créer d’autres espaces de contacts qui entraîneront des processus d’individuation dans les systèmes métastables voisins, etc.224 Le contrat de séjour, nous l’avons vu, est au cœur de la relation d’aide – elle même fondement de l’institution du 221 « Un système technique constitue une unité temporelle. C’est une stabilisation de l’évolution technique autour d’un point technique se concrétisant par une technologie particulière. »(Stiegler, 1992, p.45) 222 Bernard Stiegler apportera une critique utile aux thèses de Gilbert Simondon en ajoutant un quatrième terme :le temps. Le cadre de notre propos ne nous laisse pas “le temps” de développer ce point. 223 224 Cf. Simondon 1989a, entre autres p.61. La transduction est une opération « par laquelle une activité se propage de proche en proche à l’intérieur d’un domaine, en fondant cette propagation sur une structuration du domaine opérée de place en place : chaque région de structure constituée sert à la région suivante de principe et de modèle, d’amorce de constitution, si bien qu’une modification s’étend ainsi progressivement en même temps que cette opération structurante. » Simondon, 1989b, p.24. travail social. Le contrat, matrice relationnelle, organise et relie les notions de forme de l’organisation. Les professionnels ne s’y trompent pas : quand ils résistent à l’introduction de ce nouvel objet dans leurs pratiques, ils craignent une juridicisation de ce qu’ils assimilent à un « colloque singulier » échappant à toute contrainte technique ; quand ils s’en emparent comme moyen de renouveler leur fonction, ils parlent de révolution copernicienne ouvrant un nouvel espace de travail. Le contrat de séjour peut donc jouer, dans les organisations de l’action sociale, le rôle de germe structural au pouvoir directeur et organisateur. La structure contractuelle gagnant de proche en proche l’ensemble des champs relationnels de l’institution. Nous pourrions objecter que les établissements et services sociaux et médico-sociaux sont déjà fortement marqués par le modèle contractuel : contrats associatifs, contrats de travail, conventions d’habilitation, etc. C’est l’idée radicalement nouvelle que l’aide peut se contractualiser – alors qu’auparavant elle s’octroyait225 – qui modifie la conception, la structure et la finalité du modèle contractuel, opportunité à repenser les contrats préexistants. Ce nouveau support de travail libère des énergies créatrices – énergies potentielles – faisant surgir une nouvelle structure d’action. L’information produite, notamment par la signature du document, crée « une direction organisatrice » : « l’information n’est pas réversible : elle est la direction organisatrice émanant à courte distance du germe structural et gagnant le champ : le germe est émetteur, le champ est récepteur, et la limite entre émetteur et récepteur se déplace de façon continue quand l’opération de prise de forme se produit en progressant … 226» L’information, échangée dans la négociation et la conclusion du contrat de séjour, apparaît dans le processus d’individuation comme une forme plus élaborée d’énergie qui médiatise les processus de changement et d’évolution227. La transduction, liée à la décharge énergétique, est « information » : elle informe topologiquement une structure. L’information est ce qui donne sens à l’individuation. L’information « suppose l’existence d’un système en état d’équilibre métastable pouvant s’individuer ; l’information, à la différence de la forme, n’est jamais un terme unique, mais la signification qui surgit d’une disparation.228 » INCIDENCES SUR LES FORMES ORGANISATIONNELLES : Le contrat, germe inaugural, « in-forme » l’organisation. Nous percevons donc l’incidence de cette proposition sur les formes organisationnelles. Tout d’abord, nous assistons, par la généralisation du contrat, à un changement de posture de l’intervenant. Il devient « technicien », c’est-à-dire celui qui va mettre en œuvre des dispositifs techniques d’information et de communication. Il devient ainsi celui qui est apte, non plus à une relation de face à face inspirée du modèle médical ou psychanalytique mais à une relation médiatisée par l’usage de techniques (le contrat, le projet, l’écriture, plus largement la trace). Il est médiateur. Cette nouvelle posture du travailleur social relié aux ensembles techniques qui reformatent ses méthodologies professionnelles reste à observer dans des déploiements qui commencent à peine à produire leurs effets. D’autre part, si nous convenons que le travail social d’aide à la personne est un espace privilégié qui organise, structure ou réorganise le rapport au monde d’individus en situation d’exclusion – parce qu’il fait œuvre d’éducation, de rééducation, de réadaptation, voire même de réparation ou de 225 Cf. l’évolution que le droit positif a opéré dans le domaine de l’accès à l’aide sociale, notamment par la réforme de 1986 (loi particulière adaptant les transferts de compétences de la décentralisation en matière d’action sociale). 226 Simondon, 1989b p. 32. 227 « L’information est ce par quoi l’incompatibilité d’un système non résolu devient dimension organisatrice dans sa résolution. » Ibid. p22. 228 Ibid. p 28. 166 suppléance – le « rapport au monde » induit par les techniques mises en œuvre est déterminé par une technologie que la culture du travail social n’a pas toujours su intégrer avec justesse. G. SIMONDON éclaire ce point : « Le rapport de l’Homme au monde peut en effet s’effectuer soit à travers la communauté, par le travail, soit de l’individu à l’objet, dans un dialogue direct qu’est l’effort technique…229 ». S’il en est besoin, Simondon va plus loin dans les perspectives ouvertes par ces mutations : « Tout dispositif technique modifie dans une certaine mesure la communauté, et institue une fonction qui rend possible l’avènement d’autres dispositifs techniques ; il s’insère donc dans une continuité qui n’exclut pas le changement mais le stimule, parce que les exigences sont toujours en avance sur les réalisations.230 » Cet effort technique se heurte à des résistances. L’ensemble du champ de l’action sociale et médico-sociale est actuellement bousculé par une vague de rationalisation des pratiques, induites par un cadre légal de plus en plus précis et contraignant : traçabilité, évaluation, contrôle, formalisation et contractualisation des interventions, publicisation des procès, etc. Nous assistons à la transposition de techniques issues d’autres champs d’activité, transposition qui provoque des résistances culturelles fortes. Ces nouveaux objets techniques, nouveaux supports à l’intervention socio-éducative, n’auraient pas de validité pour les établissements et services … « L’adoption ou le refus d’un objet technique par une société ne signifie rien pour ou contre la validité de cet objet ; la normativité technique est intrinsèque et absolue ; on peut même remarquer que c’est par la technique que la pénétration d’une normativité nouvelle dans une communauté fermée est rendue possible. La normativité technique modifie le code des valeurs d’une société fermée, parce qu’il existe une systématique des valeurs, et toute société fermée qui, admettant une technique nouvelle, introduit des valeurs inhérentes à cette technique, opère par là même une nouvelle structuration de son code de valeurs. Comme il n’est pas de communauté qui n’utilise aucune technique ou n’en introduise jamais de nouvelles, il n’existe pas de communauté totalement fermée et inévolutive.231 » Nous pouvons également éclairer l’apparition du contrat en analysant ce qu’il va modifier des rapports institutionnels. Pour Simondon, il ne faut pas chercher à établir une relation symétrique entre l’individu et l’être technique. Cela aboutit soit à la domination de l’homme sur la machine (le terme DISTIC serait ici plus approprié que celui de machine utilisé par Simondon), soit à la domination de l’homme par la machine : c’est-à-dire à deux impasses. Car c’est une véritable relation complémentaire qui caractérise le rapport homme machine, relation noble qui a valeur d’être ayant une fonction doublement génétique pour l’homme et pour la machine « Dans la véritable relation complémentaire, il faut que l’homme soit un être inachevé que la machine complète, et la machine un être qui trouve en l’homme son unité, sa finalité et sa liaison à l’ensemble du monde technique ; homme et machine son mutuellement médiateurs…232 » Il conviendrait de complexifier ce propos parcellaire car trop centré sur une approche machinique de l’évolution technique. En l’occurrence le contrat de séjour met en scène trois termes : l’intervenant social, le bénéficiaire – tous deux parties au contrat – et le contrat en tant qu’objet technique jouissant d’une certaine autonomie par rapport aux deux autres termes. L’espace disponible pour cet exposé ne permet pas d’approfondir cette piste. Nous mesurons cependant que le facteur complexe du contrat, dans les pratiques quotidiennes qu’il nous est donné d’observer, produit de multiples effets complémentaires, élargissant l’aire de la négociation à de 229 Ibid. p. 263-264. 230 Ibid. p. 265 et 267. 231 Ibid. p. 264-265. 232 Ibid. p.278. nombreux paramètres imprévus au départ contextuelles, sociales, économiques, etc.). (données CONCLUSION : Définit dans une stratégie de communication, inscrit dans une nouvelle répartition des responsabilités et des prises de risque, marqué par l’influence du management participatif, susceptible d’évoluer par les rapports d’usage qu’il met en action, le contrat apparaît comme un élément central d’une refondation des normes de l’intervention sociale, des conduites des acteurs, des pratiques professionnelles et des constructions institutionnelles. Le contrat de séjour, en tant que DISITIC, occupe une place privilégiée dans l’évolution en cours des formes organisationnelles. Germe inaugural, il génère, par transduction, une mutation des modèles relationnels, reformatant les procès mêmes de production des services rendus aux usagers des établissements et services sociaux et médico-sociaux. Mais la technicisation des processus d’intervention ne peut être approchée comme un phénomène technique en soit, lié à l’apparition de nouveaux modes opératoires. Une telle vision nous exposerait à la critique d’un mode de management limité à une sorte de gouvernement par l’objet ou par l’instrument. Notre recherche tend au contraire à considérer les mutations des formes organisationnelles comme un ensemble processuel dont l’acte professionnel est un des éléments s’intégrant à l’ensemble technique que constitue l’institution. Cet axe de recherche peut être particulièrement utile à un secteur professionnel marqué par une sorte de dichotomie entre l’espace relationnel, essentiellement fondé sur une approche intersubjective, et l’espace des techniques, réduit à une simple collection d’instruments au service de la finalité de l’action. Nous nous proposons donc d’interroger sous un jour nouveau la relation de l’intervenant social aux objets techniques qui l’entourent. « Jusqu’à ce jour, la réalité de l’objet technique a passé au second plan derrière celle du travail humain. L’objet technique a été appréhendé à travers le travail humain, pensé et jugé comme instrument, adjuvant, ou produit du travail. Or, il faudrait, en faveur de l’homme même, pouvoir opérer un retournement qui permettrait à ce qu’il y a d’humain dans l’objet technique d’apparaître directement, sans passer à travers la relation de travail. C’est le travail qui doit être connu comme phase de la technicité, non la technicité comme phase du travail, car c’est la technicité qui est l’ensemble dont le travail est une partie, non l’inverse.233 » BIBLIOGRAPHIE : AUTES Michel. Les paradoxes du travail social, Paris, Dunod, 1999. CASTEL Robert. Les métamorphoses de la question sociale, Paris, Fayard, 1996. LEROI-GOURHAN André. Milieu et technique. Paris : Albin Michel, 1945/1973. LEVY Pierre, Les technologies de l’intelligence, l’avenir de la pensée à l’ère informatique, Paris, La Découverte, 1990. LEVY Pierre, Qu’est-ce que le virtuel ? Paris, La Découverte, 1998. PERRIAULT Jacques. La logique de l’usage, Essai sur les machines à communiquer. Paris : Flammarion, 1989. SIMONDON Gilbert. a) Du mode d’existence des objets techniques. Paris : Aubier, Res l’invention philosophique, 1958/1989. b) L’individuation psychique et collective, Aubier – Res L’invention philosophique, 1989. STIEGLER Bernard. La technique et le temps, 1. La faute d’Epiméthée. Paris :Galilée, La philosophie en effet, 1992. 233 Simondon, 1989a, p.241. 167 Pratiques effectives de travail collaboratif à distance : limites prévisibles et inattendues. Catherine KELLNER, Luc MASSOU, Pierre MORELLI Centre de Recherche sur les Médiations (EA 3476) Université Paul Verlaine-Metz C’est dans une posture de recherche un peu particulière que nous nous situons ici. En effet, nous sommes nous-mêmes, individuellement ou à plusieurs, impliqués dans les trois projets qui servent de cadre à nos observations des usages de plateformes dans un travail collaboratif. Ce paramètre épistémologique n’est évidemment pas neutre dans la mesure où nos propres pratiques, ainsi que celles de nos collègues et collaborateurs, deviennent nos objets d’étude. Notre positionnement est donc plus de proposer un retour d’expérience qui nous semble une source riche de questions et de pistes de recherche que de rendre compte d’une recherche suivant un protocole expérimental très précis. En outre, l’état de l’art que nous proposons n’est pas exhaustif, il a été constitué pour répondre à des questions précises dans cette réflexion qui nécessitera d’être poursuivie. Au point de départ de cet article, il y a une opportunité : celle d’utiliser dans trois projets différents, deux plateformes d’enseignement à distance comme outil de travail collaboratif234. Ces projets, par leur diversité, peuvent nous permettre de faire apparaître des variables différentes et de voir ce qu’elles peuvent modifier. Le nombre des participants, leur situation géographique, l’existence ou non de relations préalables, l’organisation intrinsèque de chaque projet, les différents niveaux de responsabilité, la culture professionnelle propre à chaque type d’intervenants ainsi, évidemment, que la diversité de pratiques et de représentations de pratiques des TIC, sont autant de paramètres à prendre en compte. Devant toutes ces situations différentes, il n’est pas question de tirer des conclusions généralisantes mais seulement de soulever des points saillants. Dans ces projets, les difficultés rencontrées, les questions posées sur certains types d’usages ont poussé à formaliser notre réflexion. Nous allons donc, après avoir présenté les contextes des trois projets, examiner les usages et non-usages des fonctionnalités des plateformes utilisées, et tenter enfin de comprendre l’écart entre les utilisations prévues et les usages observés. La vérification expérimentale des hypothèses formulées dans cette communication fera l’objet d’une publication ultérieure. Contextes d’usage des trois projets sélectionnés La présentation des contextes d’usage des trois projets sélectionnés passera par la description de la nature des projets, des plateformes utilisées, des publics et des contextes d’utilisation. o Nature des projets Le premier projet (Proximam-Lotharingie)235 implique une dizaine de centres sociaux répartis dans trois régions limitrophes (Grand Duché de Luxembourg, Région Lorraine, Wallonie) avec le soutien de la communauté européenne (programme Interreg III, 2004-2007). Il implique plus de 234 Brigitte Cord, de l’Université Pierre et Marie Curie-Paris, désigne le travail collaboratif comme, « d’une part la coopération entre les membres d’une équipe et d’autre part, la réalisation d’un produit fini ». 235 Pour plus de détails sur l’apport envisagé des TIC dans le projet voir l’article de Didier Baltazart et Pierre Morelli (2006). quatre-vingt travailleurs sociaux qui partagent une problématique commune : le suivi de jeunes mères en situation de précarité sociale et dont la plupart, mobiles au sein de la Grande région, sont connues par plusieurs structures d’accueil. Il s’agit d’élargir à un cadre interrégional une expérience menée en Wallonie et consistant à favoriser la construction du lien mère-enfant. Un consortium de sept partenaires européens prend en charge l’organisation du second projet (WebTrainingGame) avec l’aide du programme Leonardo Da Vinci de l’Union Européenne (2004-2007). Il comprend une école de commerce en Belgique, quatre universités (France, Pologne, GrandeBretagne et Grèce), un centre de design appliqué grec et un centre de recherche public luxembourgeois. Ses objectifs sont de concevoir et développer un jeu d’entreprise en ligne pour la téléformation au e-business et au e-marketing. Le troisième projet (BDInteractive) implique des équipes universitaires de Lisbonne et de Metz, dans la création d’une bande dessinée interactive. Il s’agit d’adapter une interface graphique développée par l’équipe portugaise à un cédérom sur la citoyenneté européenne destiné à des enfants de 8 à 10 ans. o Plateformes utilisées Les trois projets précités utilisent actuellement deux plateformes technologiques différentes : Claroline236 et Dokeos. A l’origine, ces deux outils sont dédiés à la formation ouverte et à distance (e-learning). Leur fonction principale est d’offrir un système de gestion de cours en ligne via internet, intégré dans une interface la plus simple possible. Claroline a été créée à l’université Catholique de Louvain (UCL) et est actuellement utilisée dans la plupart des pays européens. Comme le souligne son auteur principal, Thomas De Praetere (2002) : « sa philosophie de départ est minimaliste : le logiciel doit prévoir des boîtes vides et permettre de structurer échanges et contenus de multiples façons ». Dokeos est un environnement numérique d'apprentissage utilisé par plus de mille organisations dans le monde pour gérer les activités d'apprentissage et de collaboration à distance. Il a également été créé par un groupe d’universitaires belges dont certains fondateurs du logiciel Claroline. Sa philosophie est donc très similaire, seule l’interface et certaines fonctionnalités peuvent légèrement varier d’un outil à l’autre. o Les publics Les personnes impliquées dans les trois projets présentent des compétences et un niveau de pratique fort différents. Nous avons à faire, dans le cas des projets BDInteractive et WebTrainingGame à des utilisateurs très réguliers, voire experts : usage quotidien de la messagerie et des agendas électroniques, connaissance générale de la plateforme Claroline, bonne connaissance des outils de messagerie instantanée (de type MSN). Certains d’entre eux utilisent 236 http://www.claroline.net ; http://www.dokeos.com 168 l’ordinateur à un niveau très avancé, notamment pour la conception multimédia et la gestion de projet. Les acteurs du projet Proximam ne présentent ni l’homogénéité, ni la régularité et la qualité de pratique de ces derniers. Contrairement aux deux autres cas, cette situation a réclamé la mise en place d’un système de cartographie des compétences et des pratiques afin d’évaluer au plus juste les différences. Les résultats en notre possession montrent que l’existence de connaissances et de pratiques est principalement liée aux personnels chargés de responsabilités. La grande majorité des acteurs sociaux utilise peu ou rarement les TIC. Un effort de vulgarisation et d’incitation à l’utilisation des outils doit donc être pris en compte. o Les contextes d’utilisation Les trois projets répondent à trois contextes d’usage différents, prévus et définis en amont. Dans le projet Proximam, l’objectif majeur dans l’utilisation de Dokeos est la mise en place d’une culture de travail collaboratif (avec période d’acculturation au démarrage) et l’identification de besoins d’usages qui permettra de développer un futur outil mieux adapté au projet. Pour les usagers, cet outil concerne plus particulièrement des personnes occupant un poste à responsabilité dans chaque structure ou au sein du projet (animation/modération d’un groupe de travail) et des travailleurs sociaux n’ayant pas de responsabilité organisationnelle particulière. Dans le projet WebTrainingGame, la plateforme Claroline a été présentée et expliquée dès la réunion de démarrage du projet à l’ensemble des partenaires (19 participants concernés au total), comme outil de communication et de gestion du projet. Les fonctions principalement mises en avant étaient le dépôt et l’échange de documents, l’agenda partagé, les annonces et le forum. Le coordinateur du projet avait pour cela configuré l’outil en désactivant certaines fonctions, en préstructurant l’espace de dépôts de fichiers (découpage effectué par partenaires, par groupes de travail et par thèmes) et en ayant déposé certains documents utiles pour démarrer (budgets, planning, manuel financier et administratif, etc.). Dans le projet BDInteractive, l’équipe a dû faire face à trois lieux de résidence différents chez les partenaires : Metz, Reims et Lisbonne. La création d’un espace de travail partagé dans Dokeos a donc été rapidement décidée après la première réunion de lancement du projet à Lisbonne, mais sans présentation spécifique de la plateforme étant donné que l’outil était déjà connu de la plupart des membres français et que le besoin principal était d’exploiter le dépôt de documents et le forum. Du point de vue de l’administration des droits d’utilisation dans les plateformes Claroline et Dokeos, trois principaux profils sont possibles : « étudiant/membre », « tuteur/modérateur » et « responsable ». Dans le cas des projets WebTrainingGame et BDInteractive, tous les partenaires du projet se sont vus attribuer le profil « responsable » et parfois « tuteur/modérateur », ce qui signifie le maximum de droits d’usage dans la plateforme (dépôt/suppression de fichiers, configuration des profils, etc.). Seuls certains intervenants ponctuels du projet ont été inscrits dans un profil « étudiant ». Pour Proximam, une hiérarchie plus stricte a été mise en place : deux profils « responsable » et « tuteur/modérateur » et des droits administrés exclusivement en fonction de l’appartenance à un groupe de travail. Constats d’usages et de non-usages des outils Il nous a semblé pertinent de distinguer d’abord la typologie des usages observés, de s’interroger ensuite sur les causes de leur limitation, pour conclure enfin sur un exposé des motifs d’utilisation. o Typologie des usages observés Les usages limités Parmi toutes les fonctionnalités classiques que l’on retrouve dans une plateforme, certaines nous ont semblé peu, voire très peu utilisées. En ce qui concerne les outils qui permettent de stocker des documents, on note que les possibilités d’associer des commentaires contextualisants ne sont pas toujours utilisées. Dans le projet Proximam, par exemple, ces commentaires sont surtout renseignés par le modérateur après le dépôt d’un document par quelqu’un d’autre. Ce qui apparaît également, et nous y reviendrons, c’est le caractère officiel de la majorité des documents déposés. La plupart d’entre eux ont fait l’objet d’une validation par le groupe ou par une « autorité » à quelque niveau que ce soit de la hiérarchie. On observe très peu de documents non finalisés ou en cours de finalisation. Dans le cas de Proximam, ne sont placés à la disposition de toute la communauté que les fichiers ayant un intérêt permanent. Quant à nos propres consultations de ces documents, elles sont ponctuelles, en aucun cas systématiques, et dépendent fortement de l’état d’avancement des projets. En ce qui concerne les fonctions de communication de ces plateformes, on constate qu’elles sont également peu utilisées. L’unique cas d’utilisation du forum concerne le projet BDInteractive pour une période d’échange très courte, sur un seul sujet entre partenaires français et portugais. De la même manière, les fonctions d’annonce et d’envoi de message sont utilisées différemment selon les projets. Dans WebTrainingGame, les messages sont diffusés par voie de messagerie électronique externe (de type Outlook) sans passer par Claroline. Dans Proximam, la fonction d’annonce (réservée aux modérateurs) est utilisé